¿Qué es la latencia y cómo se puede reducir?

La latencia de la red es una medida del tiempo que tarda un paquete en pasar del cliente al servidor y viceversa. La latencia puede deberse a diversos factores y afecta negativamente a la productividad y a la experiencia del usuario.

Solicite una demostración Más información

¿Qué causa la latencia de la red?

Hay varios factores diferentes que pueden contribuir a la latencia, entre ellos:

  • Distancia física: El tráfico puede fluir sobre una red a través de cables o por el aire a través de redes inalámbricas. Independientemente del medio utilizado, existe una velocidad máxima a la que los electrones, la luz o las ondas de radio pueden propagarse a través del cable o el aire. En consecuencia, cuanto más alejados estén el cliente y el servidor, más tardará un paquete de red en viajar entre ellos.
  • Número de saltos: Aunque el número de dispositivos o "saltos" de red entre dos ubicaciones está relacionado con la distancia física -a mayores distancias es probable que haya más saltos-, cada dispositivo que el paquete encuentra en su camino aumenta su latencia. La razón es que cada enrutador u otro dispositivo necesita leer la cabecera de un paquete y determinar a dónde debe enviarse a continuación. Este proceso lleva tiempo, por lo que un paquete que viaje por una ruta con más saltos tendrá mayor latencia que otro que recorra la misma distancia pero con menos dispositivos en ruta.
  • Congestión de la red: Todos los medios rojos -cables de cobre, fibra óptica, redes inalámbricas, etc.- tienen un ancho de banda máximo o una cantidad de datos que pueden transmitir en un periodo de tiempo determinado. Si la demanda de este ancho de banda excede el suministro disponible, algunos paquetes se pondrán en cola o se descartarán para hacer espacio. Por lo tanto, cuanto más congestionada esté una red, mayor será la probabilidad de que un paquete tenga que esperar su turno o sea descartado y transmitido, dos situaciones que aumentan la latencia de la red.
  • Carga del servidor: Como ya se ha mencionado, la latencia de la red es la medida del tiempo que tarda un paquete en hacer un viaje de ida y vuelta completo del cliente al servidor y viceversa. Dado que el servidor se encuentra en esta ruta, también puede tener un impacto en la latencia de la red. Un servidor sobrecargado con una potencia de cálculo disponible limitada tardará más en procesar una solicitud y tendrá una latencia de red mayor que un servidor que pueda generar y transmitir inmediatamente una respuesta.
  • Arquitectura del lado del servidor: El servidor web que recibe y responde a un paquete de red puede no ser la única parte implicada en la generación de esa respuesta. Por ejemplo, una solicitud a una aplicación web puede desencadenar una o varias consultas a la base de datos a medida que la aplicación web recopila la información necesaria para generar una respuesta. Si estas bases de datos están lejos -es decir, ubicadas on-prem mientras que la aplicación web está alojada en la nube- o sobrecargadas, la latencia de la red aumentará.

Estas son algunas causas comunes de la latencia de la red. Para cualquier solicitud, todos estos, y cualquier otro retraso potencial, contribuyen a la latencia general experimentada por el cliente

¿Cómo reducir la latencia?

La latencia de la red puede deberse a diversos factores, por lo que las organizaciones disponen de diferentes opciones para gestionarla. Algunas formas de reducir la latencia de la red son las siguientes:

  • Calidad de servicio (QoS): Las funciones de QoS optimizan el uso del ancho de banda limitado al priorizar ciertos tipos de tráfico. Esto puede reducir la latencia para aplicaciones críticas para la empresa o sensibles a la latencia, como el tráfico de videoconferencia.
  • Infraestructura actualizada: La latencia puede deberse a un ancho de banda limitado o a servidores y otros activos informáticos sobrecargados. actualizar la infraestructura para aumentar la capacidad puede ayudar a reducir la latencia de la red.
  • Rediseño arquitectónico: las aplicaciones pueden experimentar una alta latencia de red si dependen de bases de datos y otros recursos geográficamente distantes. La colocación de recursos que se comunican con frecuencia puede reducir la latencia de las solicitudes de los usuarios.
  • Red de distribución de contenidos (CDN): Los usuarios pueden experimentar una alta latencia si se encuentran geográficamente alejados de los servidores que gestionan sus peticiones. Las CDN almacenan en caché el contenido estático en varias ubicaciones distribuidas geográficamente. Esto puede reducir la latencia al disminuir la distancia entre un usuario y el nodo de CDN más cercano.

Baja latencia con Quantum Lightspeed

La latencia puede deberse a diversos factores, como los sistemas de red y de seguridad que procesan un paquete de red en ruta hacia su destino. Las soluciones de seguridad de red -como un cortafuegos de última generación (NGFW)- pueden ser una fuente importante de latencia, ya que pueden retrasar un paquete mientras lo inspeccionan en busca de contenido potencialmente malicioso o violaciones de las políticas. Si las soluciones de seguridad de red no se optimizan o escalan adecuadamente, pueden crear colas de paquetes a la espera de ser procesados, aumentando la latencia de la red.

Check Point's Lightspeed NGFW ofrece prevención de amenazas y seguridad de nivel empresarial a la vez que ofrece la rapidez y baja latencia que necesitan los centros de datos corporativos. Para obtener más información sobre Check Point Lightspeed y cómo puede mejorar el rendimiento de la aplicación y otros recursos en el centro de datos de su organización, regístrese para una demostración gratuita hoy mismo.

x
  Comentarios
Este sitio web utiliza cookies para optimizar su funcionalidad y para fines de análisis y marketing.Al seguir usando este sitio web, usted acepta el uso de cookies.Para obtener más información, lea nuestro Aviso de cookies.