¿Qué significa latencia? – La latencia se refiere al retraso que ocurre entre el momento en que un usuario realiza una acción en una red o aplicación web y el momento en que recibe una respuesta.
¿Qué es una buena latencia? – Una latencia buena y aceptable depende del usuario y de la aplicación, pero generalmente cualquier valor inferior a 150 milisegundos se considera bueno.
¿Es mejor la latencia alta o baja? – Una latencia más baja es generalmente mejor que una latencia más alta, porque una latencia más alta significa que los usuarios no pueden obtener lo que necesitan tan pronto como lo desean.
¿Qué es la alta latencia? – La latencia alta significa que pasa mucho tiempo entre el momento en que un usuario hace clic o toca algo y el momento en que obtiene lo que desea.
Definición de latencia
La latencia se refiere al retraso que ocurre entre el momento en que un usuario realiza una acción en una red o aplicación web y el momento en que recibe una respuesta. Otra definición de latencia es el tiempo total o de «ida y vuelta» requerido para que viaje un paquete de datos.
¿Qué significa latencia? La latencia se refiere al retraso entre el momento en que un usuario realiza una acción en una red o aplicación web y el momento en que llega a su destino, medido en milisegundos. Esto puede deberse a una variedad de factores y componentes dentro de la propia red. Por tanto, agregar elementos a una red puede aumentar la latencia.
La latencia suele medirse en milisegundos. Si bien es posible diseñar una red donde la latencia se reduzca a relativamente pocos milisegundos, es imposible tener una red con latencia cero debido a la forma en que viajan los datos.
¿Cómo funciona la latencia?
La latencia se produce debido a la distancia entre el usuario y los elementos clave de la red, incluida la red de área local (LAN) interna e Internet o una red de área amplia (WAN) administrada de forma privada. Cuando el usuario inicia un pedido en su dispositivo, se deben realizar varios pasos antes de que se cumpla la solicitud.
Por ejemplo, cuando un usuario intenta agregar algo a su carrito de compras en línea en un sitio web, debería ocurrir lo siguiente:
- El usuario añade el artículo a su carrito.
- El navegador utilizado por el usuario envía una solicitud a los servidores del sitio web donde se encuentra el carrito.
- La solicitud debe llegar al servidor del sitio y debe contener toda la información necesaria. El envío de esta información lleva algún tiempo, dependiendo de la cantidad de información enviada.
- Luego, el servidor del sitio recibe la solicitud, completando la primera parte del ciclo de latencia.
- El servidor acepta o rechaza la solicitud antes de procesarla. Cada uno de estos pasos también lleva algún tiempo, dependiendo de las capacidades del servidor y la cantidad de datos procesados.
- El servidor del sitio envía una respuesta al usuario con la información necesaria sobre la compra.
- El navegador del usuario recibe la solicitud y luego el producto se agrega al carrito. Esto completa el ciclo de latencia.
Si suma todos los pasos de tiempo desde que el usuario hace clic en el botón para agregar el artículo al carrito hasta que ve que se ha agregado, obtiene la latencia total resultante de la solicitud.
¿Qué causa la latencia de la red?
En el sentido típico de latencia, una de las principales causas de latencia en una red es la distancia que deben viajar los datos, específicamente la distancia entre los dispositivos cliente que realizan solicitudes y los servidores que deben responder a cada solicitud. En muchos casos, dispositivo cliente se refiere a una computadora o dispositivo utilizado por el usuario final. Pero también puede involucrar uno que sea parte de un proceso, ubicado entre el usuario final y el servidor del cual intenta obtener información.
Por ejemplo, puede medir la latencia entre un firewall y un servidor que recibe y envía datos, así como la latencia general entre la solicitud del usuario y el momento en que se cumple.
La distancia afecta la latencia porque los datos tienen que viajar del punto A al punto B, por lo que cuanto mayor sea la distancia, mayor será la latencia. Por ejemplo, una solicitud proveniente de Arad experimentará una latencia mayor si tiene que interactuar con un servidor en Bucarest que si tiene que viajar solo a Timisoara. La diferencia podría ser de hasta 40 milisegundos. Puede que no parezca mucho, pero cuando se necesitan resultados de consulta inmediatos, 50 milisegundos, especialmente cuando se multiplican por varias solicitudes simultáneas, pueden marcar una gran diferencia.
Además, los datos a menudo tienen que pasar a través de múltiples redes a medida que viajan. Cada red presenta oportunidades para una mayor latencia. Cada enrutador asociado con las distintas redes debe procesar los paquetes, dividirlos en paquetes de datos más pequeños y reenviarlos al siguiente nodo. Siempre que esto sucede, lleva tiempo.
Medio de transmisión
El medio de transmisión se refiere al camino físico que existe entre donde los datos inician su recorrido y donde terminan. El tipo de medio de transmisión puede influir en la latencia. Por ejemplo, utilizar cables de cobre en lugar de fibra óptica puede aumentar la latencia porque una conexión óptica transmite datos más rápido.
Propagación
La propagación se refiere al tiempo que tarda un paquete de datos en viajar desde el origen hasta el destino previsto. A medida que los datos viajan distancias más largas, aumenta la latencia. Sin embargo, la latencia final puede ser mayor o menor dependiendo de los componentes utilizados en la red.
Enrutadores
Dado que los enrutadores deben recibir y transmitir datos, la velocidad a la que lo hacen tiene un impacto significativo en la latencia. En muchas redes hay varios enrutadores trabajando en cadena. Cada uno agrega latencia al proceso.
Retrasos en el almacenamiento
Una red de almacenamiento necesita tiempo para procesar información y enviarla al dispositivo solicitante. Por lo tanto, las especificaciones de la red de almacenamiento pueden afectar la latencia.
Latencia vs. Ancho de banda frente a deuda: ¿cuál es la diferencia?
La latencia, el rendimiento y el ancho de banda están todos relacionados, pero se refieren a cosas diferentes. El ancho de banda mide la cantidad de datos que pueden pasar a través de una red en un momento dado. Una red con un gigabit de ancho de banda, por ejemplo, a menudo funcionará mejor que una red con sólo 10 Mbps de ancho de banda.
El rendimiento se refiere a la cantidad de datos que pueden pasar, en promedio, en un período de tiempo determinado. El rendimiento se ve afectado por la latencia, por lo que es posible que no exista una relación lineal entre la cantidad de ancho de banda que tiene una red y la cantidad que puede generar. Por ejemplo, una red de gran ancho de banda podría tener componentes que procesen varias tareas lentamente, mientras que una red de menor ancho de banda podría tener componentes más rápidos, lo que daría como resultado un mayor rendimiento general.
La latencia es el resultado de una combinación de rendimiento y ancho de banda. Esto se refiere al tiempo que tardan los datos en viajar después de realizar una solicitud. Con más o menos ancho de banda o rendimiento, la latencia aumenta o disminuye en consecuencia.
¿Cómo reducir la latencia?
Una forma de reducir la latencia es utilizar una red de entrega de contenido (CDN). Con una CDN tienes la posibilidad de almacenar en caché el contenido. El almacenamiento en caché conserva parte del contenido que necesitará para poder acceder a él cuando lo solicite sin tener que obtenerlo del servidor original. Esto se hace utilizando un servidor CDN.
Los servidores CDN se pueden ubicar estratégicamente para garantizar que el contenido se almacene cerca de los usuarios finales y sus dispositivos. De esta manera, los paquetes de datos no tienen que viajar tan lejos después de realizar una solicitud. Como resultado, el sitio web que proporciona el contenido puede cargarse más rápido y el contenido llega más rápido a su destino final.
También puedes hacer cosas en tu contenido para reducir la latencia. Por ejemplo, puedes reducir la cantidad de recursos que bloquean la reproducción. Si carga JavaScript como último paso en el proceso de renderizado, por ejemplo, puede llevar el contenido a su destino más rápido. También puedes optimizar las imágenes de tu sitio web para que se carguen más rápido. Esto puede incluir reducir el tamaño de los archivos de imagen.
En general, reducir el tamaño de los archivos de contenido puede reducir la latencia. Una forma de reducir el tamaño del archivo es minimizar la cantidad de código utilizado. Es necesario redirigir cada aspecto del código, por lo que incluir menos código puede dar como resultado una latencia más baja.
En algunos casos, la latencia es una cuestión de percepción como realidad. Por ejemplo, si un usuario visita un sitio web en busca de un determinado tipo de contenido, es posible que desee asegurarse de que el sitio web ofrezca ese contenido primero. Otros aspectos del sitio pueden contribuir a su atractivo estético, pero en última instancia el usuario sólo lo visita para satisfacer una necesidad específica. Por lo tanto, cuando reciben el contenido que buscaban, puede parecer que el sitio se carga más rápido de lo que realmente lo hace.
Cada área de una página web completa tal como aparece en la pantalla del usuario se denomina «arriba del pliegue». Si su sitio tiene información mínima encima del texto clave, imágenes o videos para que el usuario los busque, es posible que desee cargar esto primero, dándoles lo que querían encima de la página. A medida que consume ese contenido, es posible que se carguen otros materiales en segundo plano, en la mitad inferior de la página.
También puedes configurar un sitio web para que cargue solo los recursos que necesita en ese momento. A esto a veces se le llama «carga diferida». Los recursos que más necesita el usuario se cargan mientras que los demás se mantienen en el servidor. Cuando sea necesario, se pueden cargar, dando al usuario la impresión de recibir todo lo que proviene del sitio.
Los usuarios también pueden tomar medidas para corregir la latencia. Por ejemplo, pueden:
Utilice Ethernet en lugar de Wi-Fi. Ethernet garantiza una conexión a Internet más estable y rápida.
Pasar de Internet satelital, u otro sistema más lento, a una conexión de fibra óptica.
Actualice el firmware de su dispositivo para asegurarse de que esté funcionando al máximo de sus capacidades.