Por qué las tarifas de alojamiento rara vez reflejan cifras realistas de usuarios

Tarifas de alojamiento suelen prometer miles de usuarios simultáneos, pero en la práctica, los recursos compartidos y las normas de uso justo ralentizan considerablemente el rendimiento. Te mostraré por qué los proveedores ignoran la realidad de las cifras infladas de usuarios y cómo los límites de CPU, RAM y E/S ralentizan los flujos reales de visitantes.

Puntos centrales

  • Límites compartidosLos servidores compartidos estrangulan los picos de carga y generan largos tiempos de carga.
  • Uso legítimo„Ilimitado“ se inclina hacia los límites duros con una utilización por encima de la media.
  • Mito del rendimientoEl hardware moderno no sustituye a la optimización y el aislamiento.
  • Trampas de costesLos precios de entrada favorables conducen a costosas actualizaciones a medida que la empresa crece.
  • TransparenciaEs crucial disponer de información clara sobre los recursos compartidos de CPU, E/S y ráfagas.

Por qué las cifras de usuarios en las tarifas rara vez son correctas

El marketing promete grandes cifras, pero los servidores compartidos también comparten la Actuación. Basta una cuenta vecina con código defectuoso para que el tiempo de respuesta pase de menos de 500 milisegundos a más de 1.000 milisegundos. He visto cómo una cláusula de uso razonable puede reducir repentinamente la velocidad a la mitad, aunque tu propio sitio esté correctamente optimizado. Los proveedores calculan valores medios, no picos reales de tráfico por campañas, menciones en medios o estacionalidad. Si quiere saber cómo se hacen las promesas, debería leer sobre Sobreventa de alojamiento web y examinar críticamente los supuestos que subyacen a lo „ilimitado“.

Política de uso razonable y recursos compartidos

Una tarifa con una „tarifa plana de tráfico“ y mucho almacenamiento suena muy bien, pero el uso justo frena el Utilice. En las mediciones, la conversión cae un 64% con un tiempo de carga de 5 segundos frente a 1 segundo, y las ventas se pierden dolorosamente. Calcule el ejemplo: 1.000 visitantes, 100 euros de cesta de la compra, unos segundos más de tiempo de espera... a final de mes, se pierden rápidamente 19.700 euros. Una memoria generosa de 52 GB no sirve de mucho si las cuotas de CPU, los procesos de entrada o los límites de E/S te estrangulan bajo carga. Por eso siempre planifico límites superiores para los procesos simultáneos y me fijo primero en los límites, no en las audaces cifras de marketing.

El mito del rendimiento en el alojamiento compartido

Las CPU modernas y las SSD NVMe suenan potentes, pero sin aislamiento, la sitio web sin un rendimiento fiable. Los buenos proveedores establecen límites para la CPU, la RAM y la E/S, pero estos no siempre funcionan lo suficientemente rápido en momentos de máxima carga. Por lo tanto, también compruebo Entry Processes y max_execution_time porque marcan con precisión el cuello de botella en los momentos de máxima carga. Herramientas como OPcache, Redis y el almacenamiento en caché del lado del servidor ayudan notablemente, pero la carga vecina sigue siendo un riesgo. Si quieres entender el throttling, lee primero sobre Comprender el estrangulamiento del alojamiento y observa los tiempos de respuesta reales bajo carga, no sólo los puntos de referencia sintéticos.

La realidad sobre la promesa de „ilimitado

„Ilimitado“ rara vez significa ilimitado Recursos, En su lugar, un „límite práctico“ entra en vigor en cuanto las cuentas utilizan más que la media. La CPU y la RAM son los bienes más escasos en los entornos compartidos, y un solo contenedor puede poner a prueba el sistema anfitrión. Si se sobrepasa este límite, se producen estrangulamientos, bloqueos breves o cancelaciones automáticas de procesos, a menudo sin una respuesta clara. Los costes adicionales de las variantes SSL, los complementos de correo electrónico o las opciones PHP ampliadas hacen que los precios de entrada queden rápidamente obsoletos. Por eso analizo los datos de uso mensualmente y evalúo los límites con más dureza que los eslóganes de marketing sobre el ancho de banda.

Marketing vs. realidad en el alojamiento compartido
Declaración publicitaria Límite oculto repercusión Salida típica
Tráfico ilimitado Uso razonable + cubierta de E/S Acelerador en los picos Caché + CDN + VPS
Miles de usuarios al mismo tiempo Procesos de entrada 503/Tiempo de espera Aumentar el límite del proceso
Memoria ilimitada Inodos/cuota de copia de seguridad Error de carga Ordenar/actualizar
Rapidez gracias a NVMe Cuotas de CPU Trabajos PHP lentos OPcache/aislamiento

Los que leen las cifras correctamente planifican amortiguadores para los picos de carga y tienen preparadas opciones de salida en caso de que los límites entren en vigor antes de lo previsto. Confío en que se pueda medir Valores límite como IOPS, RAM por proceso y tiempo de CPU en lugar de mostrar términos como „Potencia“ o „Turbo“. La pregunta clave es cuántas peticiones simultáneas puede soportar la tarifa sin estrangulamiento. Sin información clara, calculo de forma conservadora y hago pruebas en paralelo en un sistema de ensayo separado. Así mantengo los costes bajo control mientras los visitantes reales siguen siendo atendidos sin problemas.

¿Qué significan afirmaciones como „10.000 visitantes/mes“?

Las cifras mensuales ocultan los picos, porque los visitantes no llegan de forma lineal, sino en Ejes. Un breve pico genera más peticiones simultáneas que medio día de funcionamiento normal. Si los procesos de entrada o las cuotas de CPU son demasiado pequeñas, el sitio se colgará en cuestión de segundos. Los tiempos de inactividad cuestan rápidamente sumas de cinco cifras por minuto, y la pérdida de confianza tiene un efecto mucho más duradero. Si quiere minimizar estos riesgos, compruebe los perfiles de carga y evite Cálculo incorrecto del tráfico, antes de que las campañas se pongan en marcha.

WordPress: Tecnología frente a tarifa

HTTP/3, el almacenamiento en caché del servidor y la compresión de imágenes reducen notablemente los tiempos de carga, pero los límites duros los frenan Carga máxima no obstante. Una caché de alto rendimiento reduce las llamadas a PHP, mientras que OPcache mantiene los scripts en memoria. Redis reduce la carga de las consultas a la base de datos, pero sólo si las cuotas de CPU no están ya totalmente utilizadas. Primero activo las optimizaciones técnicas y luego mido la concurrencia real antes de cambiar a un plan mayor. Así queda claro si el cuello de botella se debe al código, a la base de datos o a la tarifa.

Cuando una actualización realmente tiene sentido

Un cambio a VPS o Dedicado merece la pena si los usuarios simultáneos alcanzan regularmente los límites de proceso de entrada. bump. Si los errores 503 se acumulan a pesar del almacenamiento en caché y de un tema sencillo, el rendimiento informático es deficiente, no el „tráfico“. Monitorizo el tiempo de CPU por petición, IOPS y memoria por proceso PHP durante varios días. Si la curva se mantiene alta por la noche, escalo horizontalmente mediante caché/CDN o verticalmente mediante recursos aislados. Sólo cuando el aislamiento está garantizado compensa realmente un paquete más caro.

Comprender y comprobar los ratios prácticos

Los proveedores transparentes citan las cuotas de CPU, el rendimiento de E/S, la RAM por proceso y la gestión de ráfagas como factores duros. Valores. Sin esta información, la capacidad de carga sólo puede estimarse, lo que dificulta la planificación. Solicito cifras concretas del proceso de entrada y pregunto cuántas peticiones simultáneas puede gestionar realmente la pila. Las ventanas de tiempo también son útiles: ¿acelera el hoster inmediatamente o sólo después de un pico de 60 segundos? Estos detalles determinan si las campañas se desarrollan sin problemas o se atascan en cuellos de botella.

Cómo calcular la capacidad de forma realista

En lugar de vagas cifras de usuarios, cuento con Concurrencia y tiempos de respuesta. Una regla sencilla: Peticiones dinámicas máximas por segundo ≈ (procesos concurrentes) / (tiempo medio del servidor por petición). Si una tarifa permite 20 procesos de entrada y una petición dinámica requiere 300 ms de tiempo de servidor, teóricamente hay ~66 RPS posibles - ojo, sólo mientras la CPU, RAM y E/S no sean limitantes. Siendo realistas, deduzco un margen de seguridad del 30-50% porque los errores de caché, las consultas lentas y los costes de arranque de PHP varían.

  • En el peor de los casos: Calcula sin caché y con latencia p95, no con el valor medio.
  • El mejor de los casosAlto índice de aciertos de caché, entrega estática, CDN activa: entonces la E/S y la red son más importantes.
  • MixtoLa regla 80/20 (80 % en caché, 20 % dinámicos) mapea bien muchas tiendas y blogs.

El factor decisivo es la Tiempo de permanencia de una solicitud en la pila: una compra con un tiempo de servidor de 1,2 s desplaza a seis solicitudes de blog más rápidas. Por eso pruebo los escenarios por separado (catálogo, búsqueda, cesta de la compra, pago) en lugar de promediarlo todo. Sólo así puedo reconocer dónde se produce primero el cuello de botella.

Pruebas de carga: cómo medir la capacidad de carga real

Planifico pruebas de carga estructuradas porque las „mediciones pico“ sintéticas suelen ser engañosas. Un procedimiento que ha demostrado su eficacia:

  • CalentamientoLlenar caché, poner OPcache a temperatura, 5-10 minutos de tráfico a baja velocidad.
  • RampasAumento en pasos de 1-2 minutos de, por ejemplo, 10 a 200 usuarios virtuales, no a pasos agigantados.
  • Mezclar: Incluya de forma realista la proporción de páginas sensibles al inicio de sesión (no almacenadas en caché), por ejemplo, 20-40 %.
  • ferias: p50/p95/p99, tasa de error (5xx/timeouts), longitud de cola/backlog, robo de CPU, iowait.
  • EstabilidadManténgase en la meseta durante 10-15 minutos para activar los mecanismos de estrangulamiento (uso justo).

Importante: Las herramientas proporcionan cifras diferentes. Igualo Sintéticos (prueba de carga artificial) con RUM-data (comportamiento del usuario real). Si los valores p95 sólo saltan para los usuarios reales, la base de datos o la API externa suele estar atascada, no el front-end del servidor web.

Índice de aciertos de la caché y usuarios registrados

Las tarifas compartidas prosperan Índice de aciertos de la caché. WordPress omite la caché de la página para los usuarios registrados, en la cesta de la compra y, a menudo, para los elementos de WooCommerce. Valores objetivo que he establecido:

  • Blog/revista pública90-98 Tasa de aciertos de caché % alcanzable.
  • Tienda70-90 % en función de la proporción de usuarios conectados y de la personalización.
  • Comunidad/SaaS30-70 %, centrado en el caché de objetos y la optimización de bases de datos.

Útiles son Almacenamiento en caché de fragmentos (sólo regenerar bloques), precarga/precalentamiento tras despliegues y TTLs cortos pero significativos. Superviso si las cookies o los parámetros de consulta se bypassen. Incluso pequeñas reglas (sin caché para ciertos parámetros, URL estandarizadas) aumentan la tasa de aciertos y alivian la CPU y la E/S de forma masiva.

Frenos ocultos típicos de la vida cotidiana

Además de los límites obvios, muchos pequeños frenos tienen un efecto acumulativo en el funcionamiento compartido:

  • Cron jobs y copias de seguridadLos escaneos de virus en todo el servidor o las ventanas de instantáneas aumentan la latencia de E/S: planifique su propia generación de medios o feeds fuera de estos horarios.
  • Tratamiento de imágenes y PDFLa generación sobre la marcha consume RAM y CPU. Es mejor pregenerar (proceso de compilación, cola) y desacoplar la carga.
  • API externasLos proveedores de terceros lentos encadenan el tiempo de respuesta. Desacople con tiempos de espera, disyuntores y colas asíncronas.
  • Base de datos pinholeLos índices que faltan, las búsquedas „LIKE %...%“ y las consultas N+1 alcanzan los límites de E/S antes de lo esperado.
  • Tráfico de robotsLos rastreadores aumentan la carga sin ingresos. La limitación de velocidad y las reglas agresivas de almacenamiento en caché reducen los daños.

Compruebo regularmente los registros de lentitud, identifico los picos recurrentes (por ejemplo, exportaciones cada hora) y los distribuyo a horas valle. Muchas caídas „misteriosas“ se explican por la colisión de trabajos en segundo plano.

Monitorización y alarma en la práctica

El rendimiento se protege como la disponibilidad: con Umbrales y alarmas. Establecí SLOs para TTFB p95 (por ejemplo, < 600 ms para hits de caché, < 1200 ms para páginas dinámicas), tasa de error (≤ 1 % 5xx), y recursos (CPU steal < 5 %, iowait < 10 %). Las alarmas deben principios de antes de que se aplique el estrangulamiento por uso razonable.

  • Métricas del servidorCPU (Usuario/Sistema/Steal), RAM/Swap, E/S (IOPS, MB/s, iowait), Archivos/Procesos abiertos.
  • PHP-FPMtrabajadores activos/en espera, tasa de aciertos max_children, distribución de la duración de las peticiones.
  • Base de datosconsultas lentas, recuento de conexiones, tasa de éxito de la reserva de búferes, bloqueos.
  • Métricas de aplicaciónÍndice de aciertos de caché, longitud de cola, percentil 95/99 por punto final.

Sin esta visión, estás funcionando „a ciegas“. Los entornos compartidos rara vez perdonan esto porque el margen de maniobra es pequeño y el estrangulamiento se produce bruscamente.

Trayectorias de migración y planificación de costes

Planifico desde el principio Estrategia de salida, para que el crecimiento no acabe en caos. Tres caminos típicos:

  • Plan compartido mejor aisladoLímites de procesos de entrada más altos, recursos compartidos de CPU dedicados, E/S priorizadas: adecuado para picos moderados.
  • WordPress gestionado/StackOptimizaciones específicas (caché de objetos, procesamiento de imágenes, integración de CDN). Cuidado con los límites de funciones y los costes adicionales.
  • VPS/DedicadoAislamiento total, pero más esfuerzo de mantenimiento o recargo de gestión. Merece la pena si las latencias p95 siguen siendo altas a pesar de la optimización.

Los costes a menudo se disparan debido a cuestiones accesorias: entornos de montaje adicionales, envío de correo electrónico con reputación, copias de seguridad ampliadas, más PHP workers. Reservo un presupuesto de 20-30 % como Tampón para el crecimiento y las inevitables fluctuaciones de carga. Esto significa que el cambio puede planificarse en lugar de acabar en un traslado de emergencia.

Lista de control antes de celebrar un contrato

Aclaro estas cuestiones con los proveedores antes de firmar:

  • CPU¿Cuántos vCores/porcentajes compartidos se garantizan? ¿Cómo se define „ráfaga“?
  • Procesos¿Cifras concretas sobre procesos de entrada, trabajadores PHP FPM y límites NPROC?
  • E/SLímite de IOPS y MB/s, ¿separado para lectura/escritura? ¿Cómo se gestionan los archivos de gran tamaño?
  • Base de datosmax_user_connections, límites de consulta, memoria para tablas temporales...
  • Ventana de tiempo del acelerador¿El uso leal entra en vigor inmediatamente o tras un periodo definido? ¿Cuánto dura el acelerador?
  • Copias de seguridadFrecuencia, almacenamiento, duración de la restauración... ¿y en qué ventana temporal se ejecutan las copias de seguridad del sistema?
  • Aislamiento¿Contenedores/límites por cuenta? ¿Protección frente a „vecinos ruidosos“?
  • Transparencia¿Acceso a registros, métricas, estado de PHP FPM, registros de errores sin un ticket de soporte?
  • Puesta en marcha/despliegue¿Existen copias de seguridad, reversiones y opciones de despliegue seguro?

Si ha aclarado bien estos puntos, es menos probable que se encuentre con sorpresas desagradables y podrá comprometerse de forma fiable con los objetivos de rendimiento.

Bots, crawlers y la diferencia entre „tráfico“ y „usuarios“

En los entornos compartidos, no es sólo la cantidad de Solicitudes, sino su calidad. Los crawlers agresivos, los bots de precios o los agentes de vigilancia generan mucha carga sin valor. A mí:

  • Límite de tarifa accesos automatizados en el lado del servidor en lugar de bloquearlos a nivel de la aplicación.
  • Cache activos estáticos generosamente, reducir las variantes y establecer claves de caché coherentes.
  • Dar prioridad a acceso humano asegurando los puntos finales especialmente caros (búsqueda, informes).

Muchos „10.000 visitantes“ resultan ser 60 bots %. Si separas a los usuarios reales, desvías recursos para los clientes de pago en lugar de para los rastreadores.

Base de datos y PHP: pequeños ajustes, gran efecto

El alojamiento compartido no perdona el acceso ineficaz. Dos medidas son desproporcionadamente eficaces:

  • Índice de higieneIndexe campos de filtrado frecuentes, simplifique los JOINs, compruebe EXPLAIN regularmente. Un índice ahorra rápidamente entre 10 y 100 ms por solicitud.
  • Memoria de trabajo PHPAjustar valores realistas de memory_limit por proceso y tamaño de OPcache. Demasiado pequeño - muchas compilaciones; demasiado grande - early out-of-memory.

Miro la memoria p95 por proceso PHP y extrapolo al número máximo de trabajadores. Si el resultado se aproxima al límite de RAM, existe el riesgo de que se produzcan OOM kills o hard throttling, independientemente de que el tráfico sea „ilimitado“.

Breves casos prácticos

Un artículo de un blog se hizo viral, pero la tarifa con „tarifa plana de tráfico“ se vendió en cuestión de minutos Límites, porque los procesos de entrada eran escasos. En una pequeña tienda, el proceso de pago era lento en las ventas flash a pesar de que la caché de página estaba activa; la base de datos murió por los topes de E/S. Un sitio de cartera se mantuvo rápido hasta que una cuenta vecina inició copias de seguridad sobre la marcha, duplicando los tiempos de respuesta. Un formulario SaaS se volcó en los tiempos de espera porque max_execution_time se fijó de forma demasiado estricta y canceló las peticiones. El cambio a recursos aislados y una cuidadosa optimización resolvieron los cinco casos sin complicar la arquitectura.

Resumen y pasos claros

Un número excesivo de usuarios en las tarifas ignora los recursos compartidos, las normas de uso justo y el duro Límites. Si quieres escalar de forma fiable, comprueba los procesos de entrada, las cuotas de CPU, la E/S y la RAM por proceso antes de firmar un contrato. Primero me apoyo en el almacenamiento en caché, OPcache, optimización de imágenes y Redis si es necesario, luego mido los picos de carga con escenarios reales. A continuación, decido entre un plan compartido mejor aislado, VPS o dedicado, en función de las solicitudes simultáneas y la tasa de errores. De este modo, las tarifas de alojamiento ofrecen una relación calidad-precio real en lugar de dar lugar a costosas sorpresas cuando se produce el crecimiento.

Artículos de actualidad