Retos y Oportunidades en AV Inalámbrico y Contenido Compartido

Un White Paper de  InfoComm International. Tercera parte.

ani-1201hd_stacked

Ancho de Banda-el reto principal

El reto más grande que encontramos al realizar soluciones AV inalámbricas es  el ancho de banda, especialmente el requerido para aplicaciones de video de alta resolución y frames rates altos, como los entregados por diversos dispositivos, tal como se muestra en la siguiente tabla (Cortesía de Kramer).

Resolución y Frame Rates

Ancho de Banda

1280 x 720 pixeles progresivo @ 60 fps

74 MHz

1920 x 1080 pixeles entrelazado @ 30 fps

74 MHz

1920 x 1080 pixeles progresivo @ 24 fps

60 MHz

1920 x 1080 pixeles progresivo @ 60 fps

149 MHz

1920 x 1200 pixeles progresivo @ 60 fps

165 MHz

3840 x 2160 pixeles progresivo @ 60 fps

557 MHz

monoprice

El ancho de banda requerido para una señal de video inalámbrica puede determinarse calculando su pixel clock rate. Primero se multiplica el número total de píxeles horizontales (incluyendo los intervalos de supresión) por el número total de píxeles verticales, incluyendo intervalos de borrado. Los intervalos de supresión se producen cuando un haz de electrones de un monitor de video está en condiciones de iniciar una nueva línea (de borrado horizontal) y un nuevo campo (de supresión vertical).

Ese producto se multiplica por la frecuencia de actualización de la imagen, y el resultado es la velocidad la señal de salida. La mayoría de las tabletas y los teléfonos inteligentes manejan una salida de 1080p / 60 cuando se usan con una pantalla externa. El siguiente ejemplo lo explica:

2200 (H) pixeles × 1125 (V) pixeles × 60 = 148,500,000 or 148.5 MHz

La velocidad de la señal de salida se multiplica por la profundidad de color (bit color rate). Nota: en una señal de 8 bits, el empaquetado de datos agrega 2 bits:

148.5 MHz × (8+2) = 1.485 Gbps

Ese es el índice por el canal de un solo color. Para una señal RGB, este factor se multiplica por tres:

1.485 × 3 = 4.46 Gbps

infocomm-2015-mediacento-video-wallEn beneficio de la comparativa, el resultado de 4.46 Gbps es la velocidad de datos para HDMI. Además de la transmisión de señales de audio y video, un sistema de AV inalámbrico de alto ancho de banda también debe ser compatible con la conexión bidireccional para el intercambio de datos extendidos de identificación de pantalla (EDID) y las claves HDCP.

Regresando a la tabla 1, una velocidad de datos de 4,46 Gbps no cabrá en un par de canales de 20 MHz, por lo que  es necesaria una compresión de la señal de luz para hacer del AV inalámbrico algo practico a los 5 GHz y 60 GHz.

El audio se comprime normalmente usando Advanced Audio Coding (AAC) o MP3 y el video se comprime comúnmente utilizando una codificación H.264 o JPEG 2000. Pero hay muchos otros algoritmos de compresión estándar y propietarios en uso hoy en día. La corriente se envía a través de un protocolo de transporte, tales como el Protocolo de transporte en tiempo real (RTP) y luego controlado por otro protocolo, como Real-Time Streaming Protocol (RTSP), explicado más adelante en esta sección.

Una vez que se codifica el video tiene que ser combinado con otras señales como pistas de audio y pistas de datos auxiliares. Posteriormente se envasan en un recipiente y se pueden guardar (por ejemplo, como .mp4, .avi, o ts) o se transmiten a través de Ethernet.

Lograr eso depende del estándar inalámbrico usado, pero el enfoque más común es hacer un muestreo de color a una tasa más baja que la información de luminancia, lo cual es normal en los formatos H.264 o MPEG-4 Parte 10, Advanced Video Coding (MPEG-4 AVC).

hdbaset_dia2Optimización de Ancho de Banda y Técnicas de Modulación

La modulación ayuda a transportar una señal de AV de forma que pueda pasar a través de un canal de comunicación. En pocas palabras, es un proceso que varía las propiedades de una forma de onda con una señal de modulación que transporta datos AV. La señal portadora es capaz de viajar a través de una física (es decir, un cable) o lógico (es decir, canal de radio) de conexión. La información específica, como el color de vídeo, se extiende sobre subportadoras.

Cuando se trata de transmisión inalámbrica, técnicas como la unión de canales, de múltiples entradas / múltiples salidas (MIMO), la formación de haz, y el aumento de la modulación se han desarrollado para ayudar a optimizar el ancho de banda del canal:

  • La unión de canales aumenta la cantidad de datos que puede ser transmitida usando múltiplos de canales de 20 MHz,  aunque  no puede ser utilizada en el rango de 2,4 GHz debido a la coexistencia de múltiples protocolos inalámbricos (Bluetooth, hornos de microondas) y la superposición de canales y la interferencia. Sin embargo, en los rangos de 5 GHz y superiores, existen canales sin traslape y estos pueden unirse.
  • MIMO es una técnica que permite el envío de múltiples streams al mismo tiempo usando múltiples antenas. El estándar 802.11n utiliza MIMO de un solo usuario, que envía múltiples streams a una sola dirección física usando cuatro antenas. MIMO multiusuario, disponible en 802.11ac, permite la transmisión de múltiples flujos a varias direcciones físicas utilizando ocho antenas.
  • slide_3En la Formación de Haces (Beamforming) se enfoca la señal transmitida hacia el cliente deseado en lugar de irradiar en todas direcciones, logrando que más datos lleguen al cliente y mejore de la calidad de la secuencia de vídeo. El estándar 802.11ac proporciona esta capacidad, aunque tiene que ser utilizado de acuerdo con la especificación del estándar.
  • La técnica de modulación QAM 256, es una variante de la modulación de amplitud en cuadratura (QAM) y  permite para 256 combinaciones de señales. Se utiliza en el estándar 802.11ac. El resultado de usar este tipo de modulación es una velocidad de transmisión de ocho veces la velocidad de señalización (es decir, la tasa total de datos, incluidos los gastos generales, tales como el control y otra información de la señal).

Como se observa en la tabla 1, un par de otras técnicas de modulación se utilizan para diversas tecnologías inalámbricas, con el objetivo principal de reducir la interferencia:

  • Espectro de difusión directa (DSSS) – también conocido como secuencia directa de acceso múltiple por división de código (CDMA-DS) – divide el flujo transmitido en trozos pequeños, cada uno de los cuales se asigna a un canal de frecuencia en todo el espectro. Una señal de datos en el punto de transmisión se combina con una secuencia de mayor tasa de bits de datos (o un código de chipping) que divide los datos de acuerdo con una relación de ensanchamiento. El código de chipping redundante ayuda a resistir la señal de interferencia y también permite que los datos originales para ser recuperados si los bits de datos están dañados durante la transmisión.
  • Multiplexado por división de frecuencias ortogonales (OFDM) divide una señal en varios canales de banda estrecha. Sólo un usuario puede transmitir en todas las subportadoras en un momento dado. Para apoyar técnicas de acceso múltiple por división de frecuencia a los usuarios, el tiempo y / o se aplican.

4x1-full-hd-4k1080p-18gbps-hdmi-switch-hdmi-2-0-switcher-video-audio-converter-amplifier-3dTransporte y protocolos de streaming

Al día de hoy muchos sistemas populares de AV inalámbricos utilizan diferentes protocolos de red para mover el contenido de la fuente a la pantalla. ClickShare de Barco, por ejemplo, utiliza Protocolo de Transporte el Tiempo Real (RTP), mientras que Apple AirPlay usa una variante de propiedad de RTP.

User Datagram Protocol (UDP) y el protocolo de control de transmisión (TCP) son los protocolos de transporte utilizados para transportar datos desde y hacia dispositivos:

  • UDP es un protocolo simple con menos sobrecarga. Se utiliza para comunicaciones de uno a varios y para las transmisiones en tiempo real en el que la sincronización de los datos es importante. UDP no tiene función de re-intento ni mecanismos para corregir errores en los datos.
  • TCP garantiza la entrega con mecanismos de re-intento y controla los errores de datos. Se usa principalmente para las comunicaciones de uno-a-uno. TCP no es la mejor opción para la transmisión de audio y vídeo.

Tanto Protocolo de transporte en tiempo real (RTP), Protocolo de control en tiempo real (RTCP), y Protocolo de Streaming en tiempo real (RTSP) son usados a menudo por los productos AV inalámbricos en streaming TCP o UDP en tiempo real.

  • RTP define un formato estándar para enviar audio y vídeo a través de redes IP. Este protocolo se utiliza ampliamente en los sistemas de comunicación y audiovisuales que implican streaming. Por lo general no está encapsulado, sino que corrientes de RTP viajan separadas para cada stream. Por ejemplo, una sesión con un flujo de video y un flujo de audio tiene dos flujos de paquetes RTP en dos puertos separados. El paquete contiene la información necesaria para identificar caída de paquetes, entrega fuera de orden, el tiempo, y la identificación de la carga útil.
  • RTCP lleva estadísticas e información sobre el stream. Se utiliza para garantizar la calidad de servicio (QoS) mediante el ajuste del flujo RTP para poder lidiar con cambios en las condiciones de la red.
  • RTSP se utiliza en conjunción con RTP y RTCP. Este protocolo no transmite datos sino que actúa como el medio para configurar el transporte y controlar el stream. Ofrece capacidades de control de transporte, como pausa y buscar en los medios de transmisión.

pseg_massive_video_wallLa mayoría de los sistemas basados en Wi-Fi disponibles no incluyen RTP para la transmisión de vídeo, lo que significa que su rendimiento podría ser inestable. El uso de protocolos TCP / IP no garantiza que los paquetes de audio y video llegarán en el orden correcto, y no proporciona ninguna corrección de errores.

Al igual que en las redes cableadas, en las redes inalámbricas las señales AV pueden ser transmitidos a través de conexiones Unicast y Multicast.

Unicast vs Multicast

Unicast es la entrega de mensajes e información a un solo destino identificado por una dirección única. Multicast, por otra parte, permite el envío de datos a múltiples usuarios al mismo tiempo, por ejemplo compartir un video en un entorno de educación. La razón por la que muchas aplicaciones de este tipo utilizan Unicast es porque mucha de la tecnología se origina en el mercado de consumo, donde el contenido está destinado de una o unas pocas conexiones a una sola pantalla.

AirPlay, por ejemplo, utiliza para la transmisión de unicast al receptor, pero emplea un protocolo de multidifusión, Bonjour, para detectar un receptor – en este caso, Apple TV. Una vez establecida la conexión con el Apple TV, Bonjour ya no se utiliza, y AirPlay hace stream en unicast.

El reto con herramientas unicast es cómo aplicar sesiones con diversos usuarios diferentes que tienen que hacer turnos compartir contenido. Apple TV, por ejemplo, incorpora configuración de varios ID de usuario que permite cambiar entre los usuarios.

premier_hdmi_cable_1_2Unicast no se desempeña bien cuando muchos usuarios quieren ver el mismo programa al mismo tiempo. La fuente debe enviar un flujo de paquetes a cada dispositivo conectado, lo que resulta en la duplicación significativa y el consumo de ancho de banda.

Por el contrario, Multicast entrega la información a un grupo de destinos en cada lugar de la red, creando copias sólo cuando los enlaces a los destinos se rompen. Cada fabricante de herramientas de streaming y aplicaciones inalámbricas ha adoptado multicast con pequeñas variaciones de un producto a otro.

Te esperamos el próximo mes con la última entrega de este whitepaper. Para más información de los recursos de InfoComm, escríbenos a sgaitan@infocomm.org. ¡Nos saludamos pronto!