22 de febrero de 2013

Actividad 4: Pruebas para QoS

Laboratorio de Redes de Telecomunicaciones
Actividad 4

QoS (Quality of Service) o Calidad de Servicio, se refiere a la calidad en la transmisión y recepción de información a través de una red de datos.

Existen diferentes definiciones para el término de Calidad de Servicio, aquí las más importantes.
  • ITU E.800: Efecto global de las prestaciones de un servicio que determinan el grado de satisfacción de un usuario al utilizar dicho servicio.
  • IETF RFC 2386: Conjunto de requisitos del servicio que debe cumplir la red en el transporte de un flujo.
  • ISO-9000: Grado en el que un conjunto de características inherentes cumple con los requisitos.

En realidad QoS es un concepto abstracto y subjetivo, y no existe una medida estandarizada, es especialmente importante para ciertas aplicaciones tales como la transmisión de vídeo o voz. Se pueden realizan medidas objetivas y/o subjetivas.

Parámetros que definen la QoS


Existen varias medidas que se pueden realizar en una red para evaluar la calidad del servicio, y cada una de ellas puede estar dada por más de un parámetro. Veamos algunas de estas medidas y sus respectivos parámetros.

Medida Parámetros de QoS
Tiempo Latencia, Retraso, Tiempo de recuperación, Garantía, Intervalo de sincronización y Disponibilidad
Volumen de tráfico Throughput y Picos de volumen
Precisión Precisión de direccionamiento, Tasa de error e Integridad
Robustez Confianza, Mantenibilidad, Resistencia y Supervivencia
Contabilidad Costo y Auditabilidad
Manejabilidad Monitorización y Control
Seguridad Autenticación, Confidencialidad y Seguridad del tráfico del flujo

Parámetros más comunes para medir la calidad de servicio:
  • Ancho de Banda
  • Latencia
  • Jitter
  • Perdida de paquetes


Ancho de Banda

Es una medida de recursos disponibles para transmitir datos. También es una medida que se usa para definir la velocidad de nuestra conexión a Internet. Se puede usar para referirse a capacidad o a consumo.

El ancho de banda es la máxima cantidad de datos que pueden pasar por un camino de comunicación en un momento dado. Cuanto mayor sea el ancho de banda, más datos podrán circular por ella al segundo. El ancho de banda se indica generalmente en bits por segundo (bps), kilobits por segundo (Kbps), o megabits por segundo (Mbps).


En el ejemplo de la imagen podemos ver que la prueba de velocidad nos esta arrojando 4.77 Mbps, lo que indica que por cada segundo se es posible enviar casi 5 millones de bits. Hay que saber que este tipo de pruebas hacen un promedio de los picos y bajos que hay al hacer la prueba, ya que no es una velocidad constante siempre.

Este parámetro mientras más grande sea, mucho mejor calidad en el servicio podemos tener.


Latencia

Se refiere al nivel de trafico a través del tiempo. Esta información es útil especialmente en el transito de tráfico de tiempo real e interactivo.

En redes informáticas de datos se denomina latencia a la suma de retardos temporales dentro de una red. Un retardo es producido por la demora en la propagación y transmisión de paquetes dentro de la red.


La medida usada para la latencia es habitualmente ms (milisegundos), y mientras menor sea en una red, nos indica que la capacidad de respuesta para enviar y recibir paquetes, es más rápida.


Jitter (Variación de retardo)

Es el efecto de desplazamiento de la señal o bit con la posición ideal que debería ocupar en el tiempo.

También conocido como variación de retardo, en el caso de transferencia de voz, ocasiona que los paquetes sean descartados por el receptor cuando este no recibe los paquetes a tiempo, en la práctica los usuarios perciben este problema como un entrecortado en la voz.

Debido al retardo mismo del enlace también se pueden descartar paquetes, incluso si tuviera un retardo fijo, pero aquí también se puede aplicar el Jitter Buffer como una alternativa de solución para incrementar el tiempo de espera del receptor sin que descarte los paquetes.

En otras palabras el parámetro Jitter, es como la medida de la varianza en que puede rondar el propio valor de la latencia, como si se tratase de un umbral.

Mientras menor sea el Jitter, indica que la latencia varía mucho menos y por lo tanto tendremos una mejor calidad de servicio.


Pérdida de Paquetes

Se refiere a los paquetes de datos que son desechados cuando las colas de tráfico están colapsadas, perdiéndose información en el camino.

La pérdida del paquete ocurre cuando uno o más paquetes de los datos que viajan a través de la red falla para alcanzar su destino. La pérdida del paquete se distingue como uno de los tres tipos de error principales encontrados en comunicaciones digitales.

Las comunicaciones en tiempo real están basadas en el protocolo UDP. Este protocolo no está orientado a conexión y si se produce una pérdida de paquetes no se reenvían. Además la pérdida de paquetes también se produce por descartes de paquetes que no llegan a tiempo al receptor.

La perdida de paquetes máxima admitida para que no se degrade la comunicación en una transferencia de voz deber ser inferior al 1%.


Para realizar una prueba de pérdida de paquetes, como lo hacen muchos de los servicios en línea para este tipo de pruebas, es enviando una cantidad fija de paquetes, luego se calcula cuantos paquetes llegaron sin problemas, y por último se calcula el porcentaje de paquetes perdidos en la red.

Mientras menor sea el porcentaje de paquetes perdidos, la calidad de conexión será mucho mejor.


Referencias:
Calidad de Servicio (QoS) en redes
Gestión de tráfico y Calidad de servicio
Latencia
Pérdida de paquetes

1 comentario:

Nota: solo los miembros de este blog pueden publicar comentarios.