Por Guillermo Zapata, Regional Product Manager Data & Internet Level 3
Usualmente los eventos multitudinarios, como el que acabamos de vivir, generan una gran expectativa en el público y, consecuentemente, una gran demanda por dispositivos receptores de imágenes de todo tipo, no sólo la TV como “primera pantalla” sino también PC, tabletas y celulares, conocidos en el negocio como “pantallas secundarias”. Esta demanda se enfoca especialmente en aquellos servicios que brindan alta definición (HD), ya que los usuarios son cada vez más exigentes y sienten la necesidad de estar en primera fila y no perderse ni el más mínimo detalle de los protagonistas.
El negocio de la electrónica de consumo, consciente de este fenómeno, inunda los comercios con los más sofisticados dispositivos SD (Standard Definition), HD y hasta en algunos casos, presentando futuros prometidos como el 4K.
Ahora bien, es importante señalar que estos dispositivos no son sino uno más, y ciertamente tan sólo el último, de los eslabones de una larga cadena de componentes que deben acudir a la cita en tiempo y forma, ejerciendo presión sobre las empresas difusoras para poder cumplir con esas expectativas generadas. Detrás del telón lo que debe existir es una red de transporte de audio y video los suficientemente “ancha”, flexible y confiable, para poder trasladar los contenidos demandados de extremo a extremo, atravesando todos y cada uno de los segmentos sin interrupción y con la calidad deseada.
Estos segmentos o tramos, que muchas veces pertenecen a distintos operadores son esencialmente tres:
Un primer segmento es el de “contribución”, que traslada el contenido capturado por las cámaras en vivo desde los lugares mismos donde se produce la acción, por ejemplo los estadios, hasta un punto concentrador designado por el comité organizador del evento, sitio donde típicamente cada difusor, o poseedor de los derechos de transmisión, recoge dicha “contribución”, la procesa agregándole algunos elementos adicionales y lo entrega al segmento siguiente.
En este segundo segmento, llamado de “distribución”, el contenido es transportado a los centros “Cabecera” de las empresas de distribución por cable, satélite o hasta los puntos de almacenamiento de redes de distribución de contenidos (CDN) por Internet.
Desde estos centros o puntos de difusión, el contenido inicia su trayecto final, segmento de “Redistribución” hacia el dispositivo receptor del usuario espectador.
La señal debe transitar cada uno de estos segmentos y en especial los dos primeros, con la mayor fidelidad “posible”, manteniendo el mayor detalle de información visual (resolución), para poder ser reflejada por los terminales receptores. Este mayor detalle se consigue a expensas de un mayor ancho de banda en el canal de transporte. Una forma de minimizar el “costoso” ancho de banda es la compresión de la señal a ser transportada, mediante el uso de equipos que utilizan “algoritmos” (estándares) tales como los desarrollados por MPEG (Moving Pictures Expert Group) o JPEG (Joint Photographic Expert Group). Los estándares procesan la señal capturada quitándole la máxima cantidad de información visual o auditiva “redundante” o bien toda aquella que nuestros sentidos no sean capaces de discriminar.
Sin embargo, existen grandes limitaciones a este proceso de compresión (o codificación como suele llamársele en la industria). Cuanto más dinámica sea la imagen a capturar, menor será el contenido de información redundante que esta tendrá y por ende menores las posibilidades de admitir compresión. Este es precisamente el caso de un partido de fútbol, donde la información varía sustancialmente cuadro a cuadro mientras la cámara intenta seguir la trayectoria del balón y los jugadores por todo el campo de juego. Por otro lado una mayor compresión, implica el insumo de un mayor tiempo en el procesamiento de la imagen, que en definitiva sumado a otros elementos, se traduce en un retardo mayor en la transmisión de los acontecimientos que se van sucediendo. Imaginen por un momento el impacto de dos canales transmitiendo el mismo partido de fútbol y que como resultado de las diferencias en su implementación, un mismo gol sea visualizado con una diferencia apreciable de tiempo en uno respecto del otro.
Por todo esto, es que generalmente en los dos primeros segmentos de red se utiliza preferentemente la transmisión de gran ancho de banda por Fibra Óptica, evitando así abusar de la compresión.
Pero además de poseer suficiente capacidad de transporte (“ancho de banda”), la red debe ser lo suficientemente flexible, como para poder rápidamente atender nuevos requerimientos ya sea de capacidad o de cobertura geográfica, y además ser lo confiable, contemplando todo tipo de diversidades y protecciones automáticas ante fallas, para evitar interrupciones en “lo mejor del partido”. En tal sentido, vemos en la actualidad el uso creciente de redes IP sobre fibra, y en particular aquellas tipo MPLS (Multi Protocol Label Switching) que, además de poseer características de auto-sanación por re-enrutamiento, brindan un adecuado manejo de calidades de servicio.
Finalmente resulta importante al contemplar todos estos elementos que el operador de la red en todos sus segmentos, tengan plena conciencia en su gestión, de la criticidad, sensibilidad al retardo, y alta exposición del contenido, brindándole el tratamiento adecuado.
En Conclusión un evento tal como el que se desarrolla en Brasil, crea una inmensa expectativa en el mercado masivo del consumidor. Expectativa que sólo puede ser plenamente satisfecha si el andamiaje detrás del receptor final es el adecuado.
Afortunadamente ya existen globalmente y en la región LATAM quienes pueden cubrir “toda la cancha” ahorrándole al broadcaster esta problemática, de tal forma que este pueda enfocarse en su negocio y cumplir con el compromiso, mientras su cliente sentado expectante tras su LED TV, en el living de su casa, espera que el árbitro del encuentro dé su pitada inicial.