Es curioso que desde el comienzo de la televisión uno de los principales factores y delimitaciones que había que tener en cuenta para la transmisión de la señal de vídeo era qué ancho de banda se necesitaba para dicha transmisión.
Y digo que es curioso, porque este ancho de banda (que es el espacio del que se dispone para transportar los datos de vídeo), también hay que extrapolarlo al flujo de datos que hay que transportar por ejemplo por un cable.
Debido a esto, es muy importante delimitar siempre el flujo de datos que se crea con una señal de vídeo para su transporte. Si tenemos en cuenta que estamos hablando de banda base, o sea, la señal de vídeo sin comprimir, se ha producido un problema cada vez que se ha ido aumentando la calidad de la señal de vídeo.
Más adelante me referiré a los diferentes sistemas que se han inventado para reducir el ancho de banda, pero el primer cambio se produjo en el momento que se pasó de la señal de vídeo en blanco y negro a la señal de vídeo en color. De aquí se pasó a la señal de vídeo digital serie SDI-SD y posteriormente a la señal de vídeo en alta definición en 1,5G.
El siguiente paso en cuanto a calidad y aumento del flujo de datos se refiere es el de la alta definición en 1,5G a la de 3G y por último, la que se está expandiendo en el mercado audiovisual en la actualidad, la UHDTV o QuadHD que baraja un flujo de datos en banda base entre los 12G y los 20G (dependiendo de las combinaciones de frecuencias e imágenes/sg) .
Una vez que hemos visto esto y como se menciona en el título de este post, existen tres factores que influyen en la variación del ancho de banda:
1. Profundidad de color (Color depth): La profundidad de color se la conoce también como bits por píxel o bpp. Este concepto en realidad lo que hace referencia es a qué cantidad de colores se pueden representar por cada píxel de vídeo.
Si nos remitimos al sistema de numeración binario, 1 bit puede tener dos estados, el 0 y el 1, o sea, un píxel con una profundidad de color de 1 bit tiene dos valores, que serían el blanco y el negro. Teniendo esto en cuenta en un píxel con una profundidad de color de 8 bits se pueden generar hasta 256 colores. Lo normal que tenga una cámara de vídeo profesional son 24 bits o más por cada píxel, lo que puede dar unos 16 millones de variaciones colores, a esto es a lo que se le denomina “Truecolor”.
2. Tasa de imágenes (Frame rate): Al hablar de la tasa de imágenes nos estamos refiriendo a la cantidad cuadros o de imágenes por segundo (fps) que se transportan en la secuencia de vídeo que se crea.
Remitiéndonos al sistema europeo en cuanto a la alta definición Broadcast, en nuestro caso, esta cantidad se fija en 50fps aunque en el ámbito americano suele ser de 59,94 fps.
3. Resolución de vídeo (video resolution): Este parámetro se refiere a la cantidad de píxeles que tiene el ancho de la pantalla por el número de píxeles (o líneas) que hay en la altura de la pantalla. La recomendación ITU.R BT-709 e ITU.R BT-1120 definen sistemas de 1125 y 1250 líneas, con exploración progresiva y entrelazada.
Estos factores hacen que se produzcan flujos de datos bastante grandes, por lo que se realizan diferentes sistemas para disminuirlos. Con esto me quiero referir no a los distintos métodos y algoritmos que se utilizan en los sistemas de compresión, sino a sistemas como el entrelazado o como el submuestreo de crominancia.
Veamos este último factor, o sea, el submuestreo de crominancia. Éste, reduce el número de bits necesarios en el color(lo cual repercute en la amplitud del ancho de banda) y esto repercute a su vez en que se puede reducir por ejemplo de 24 a 16 bits de profundidad de color sin que el ojo humano perciba un efecto perceptible por el mismo.
Existe otro caso para la reducción del ancho de banda que es el sistema entrelazado. Este sistema realiza el envío de sólo la mitad de líneas por cuadro, o sea, en uno de los cuadros se envían las líneas pares y en el siguiente cuadro las líneas impares. Como todos los recortes realizados a la señal de vídeo tiene sus pros y sus contras. En este caso el pro ya lo hemos visto, que es la reducción del ancho de banda a la mitad, pero esto es a cambio de efectos como el flickeo de la imagen, o que las líneas de un campo y otro pueden montarse y perderse definición, etc.
Hay más problemas que ocasiona el entrelazado, ¿sabrías comentar alguno?
Seguro que si, así que puedes hacerlo escribiendo un comentario…..