Por Antonio García
Número
45
Introducción
Un mes después de la muerte de Henri Cartier-Bresson,
uno de los máximos exponentes de la fotografía
en blanco y negro, “ILFORD” informaba que iba
a cerrar su planta de papel fotoquímico en el
Reino Unido, pero mantendría su planta en Suiza
de papel para impresoras de chorro de tinta.
Por su parte Kodak está en plena reestructuración,
cerrando algunas de sus plantas de productos
para fotografía tradicional, concentrando su
producción en elementos y accesorios para la
tecnología digital. Que estos dos grandes gigantes
se retiren del mercado fotoquímico presagia un
pronto final para los haluros de plata.
Principios
y finales
Nostalgias a parte, hay que admitir que la tecnología
digital ha revolucionado el proceso fotográfico
ofreciendo un sinfín de ventajas para todos los
actores implicados. Pero el camino que ha recorrido
ha sido largo, y lleno de muchas dudas a pesar
de sus enormes posibilidades, sino por que la
calidad final del proceso estaba muy por debajo
de la fotografía fotoquímica.
En el caso del
vídeo la “revolución digital” ha tenido su punto
fuerte que desde el principio la calidad digital
a sido superior a la analógica. El formato DVcan
ya ofrecía mas líneas de resolución que el estándar
del momento el Betacan SP. Para incorporarlo
al sistema de edición no había más que comprar
la cámara y los magnetos, conectarlos a la mesa
de edición y a trabajar.
El cambio sustancial
se produjo en el proceso de edición y postproducción
con las posibilidades que ofrecían las ediciones
no lineales basadas en ordenadores, muy caras
y complejas en esos momentos, pero que cambiarían
sustancialmente el concepto de montaje.
A nivel domestico
el vídeo se estaba popularizando cuando irrumpió
el primer formato digital doméstico el miniDV3,
Que doblaba la calidad de sus predecesores (el
8mm y el VHSC) y con más calidad que los semiprofesionales
(Hi8 y SVHS). Además ofrecían una salida digital
para editar tu película en un ordenador.
Hoy en día,
manejar vídeo digital no requiere de grandes
equipos, ni de una cualificación excesiva que
tenemos que agradecer a una serie de avances:
1.- Los ordenadores
y sus accesorios son cada vez más rápidos. Los
discos duros tienen una tasa de transferencia
muy alta, las tarjetas gráficas aceleradoras
se han convertido en estándar, e incorporan
busesde entrada de datos con un caudal de transmisión
de hasta 400Mb/seg (el “Firewire” o el “USB-2”).
2.- El software de edición es asequible al gran
público, ha bajado su precio y simplificado
las tareas más comunes.
3.- La popularización de las cámaras de vídeo
digitales con formatos que ofrecen una alta
calidad y un bajo coste.
4.- Aparición de nuevos formatos de archivos
y sistemas de compresión / descompresión (codec)
que optimizan el manejo de la información. Esta
popularización se ha reflejado en el aumento
espectacular en el uso de los archivos de video
en la educaticion, en el arte, en la web, etc.
La necesidad
de comprimir
La información de vídeo consta de una serie fotografías
o "cuadros” que se reproducen a una velocidad
constante de 25 por segundo en el sistema PAL
(30 en NTSC) que al verlas secuencialmente dan
la sensación de movimiento continuo. Cuando queremos
manejar vídeo en un ordenador cada imagen o “frame”
tiene que ser procesado en 0,04 segundos (1/25
segundos). Pongamos un ejemplo, una imagen en
mapa de bits (*.BMP) de 352 x 288 pixels (tamaño
utilizado en VCD) tendremos que procesar 101,376
pixels. Como la profundidad de color es de 3
bytes (1 byte por color) obtenemos un tamaño
de 304,128 bytes. En su segundo hay 25 con lo
que el ordenador tiene que procesar 7,5 MB por
segundo de video. En vídeo profesional se utiliza
una resolución de 720 x 576 pixels, lo que eleva
la cifra a unos de 30 MB/segundos (sí hacemos
cuentas es prácticamente lo mismo en NTSC 720x480x3x30).
Suponiendo que
tuviéramos espacio suficiente para almacenar
la información, la relación de cantidad de información
por tiempo de proceso es excesiva incluso para
los ordenadores actuales sobre todo en el proceso
de captura (digitalización de imágenes analógicas)
cuyos discos duros son capaces de soportar un
flujo continuo entre 10 y 15 MB en la alta gama.
Se evidencia
la necesidad de utilizar un sistema para bajar
el flujo de datos a unos niveles aceptables que
se centran en tres grandes bloques. La codificación
de la señal de vídeo, la captura o digitación,
los compresores de imagen final.
La señal
de vídeo y su codificación
Para comprender los procesos de compresión debemos
conocer un poco los sistemas de codificación
de la señal de vídeo:
El R.G.B. Las
siglas RGB provienen del inglés, Red (rojo),
Green (verde) y Blue (azul). Se fundamenta en
el principio de la síntesis aditiva del color,
por la que con las diferentes combinaciones de
estos tres elementos se pueden conseguir todos
los demás colores y matices del espectro visible.
A cada uno de estos tres canales se le asigna
una profundidad de color de 8bits es decir 256
niveles a cada canal. Es un formato sin compresión
con un flujo muy alto por lo que no se usa en
video digital.
El YUV es la
simplificación de la señal estándar en la transmisión
de vídeo, que intentaba asegurar que los televisores
en blanco y negro no tuvieran problemas en las
emisiones a color, ni los televisores en color
con las de blanco y negro y que a su vez cupiera
en un canal.
Consiste en
la transformación de la señal RGB en otras tres
señales equivalentes (Y, U, V). Y es la luminosidad
(Brillo) y para ello se utiliza el 30% de la
señal de R más el 59% de la señal G y el 11%
de la señal B. La señal de crominancia se forman
con “U” y ”V” que sus valores se consiguen restando
la señal “Y” de las señales de color “B” y “”R”
respectivamente.
Y = 0,30R +
0,59G + 0,11B
U = (B-Y)
V = (R-Y)
La señal de
luminancia no tiene información sobre el color
y es preciso tener alguna información adicional
que contribuya a restituir el color. En la matriz,
además de la luminancia se obtienen, algebraicamente
las señales de crominancia (tono y saturación).
Por simple suma
algebraica, se pueden obtener las relaciones
siguientes:
(R – Y) + Y
= R
(G – Y) + Y = G
(B – Y) + Y = B
Las ventajas
son evidentes, mientras en RGB cada color ocupa
un ancho de banda de 5MHz., en YUV la luminancia
ocupa 5MHz. Pero las componentes U y V solo ocupan
1MHz. Cada una ahorrando mas del 50% del ancho
de banda.
La cámara
como primer elemento de compresión
Cuando grabamos una toma con una cámara de vídeo,
estamos convirtiendo una imagen proyectada en
un CCD (siglas de Charge Couple Device o dispositivo
de carga acoplada) en una sucesión de ceros y
unos, es decir, digitalizando.
Este proceso
consta de las siguientes fases:
Conversión.
Muestreo.
Cuantificación.
Codificación.
Mediante la
conversión hacemos corresponder una tensión (voltaje)
a la cantidad de luz que recibe cada celda del
CCD. A más intensidad de luz, mas voltaje. Esta
tecnología es común en los aparatos digitales
y en los analógicos. (Si este voltaje se convierte
en impulsos magnéticos que se registran en una
cinta tendremos el fundamento de una cámara analógica).
El muestreo
es el proceso mediante el cual se inspecciona
la señal obtenida. Cuanto más rápida sea la toma
de muestras mayor será la capacidad de apreciar
las variaciones de magnitud (en este caso luz).
La cuantificación consiste en asignar un valor
numérico al voltaje obtenido.
El valor de
todo el CCD en su conjunto es analizado por la
electrónica de la cámara a dos niveles. El primero
es una recodificación de la señal de video (Subsampling)
y el segundo es un sistema de compresión por
un CODEC basado en M-JPEG (Motion-JPEG), que
genera un código binario de forma ordenada y
píxel a píxel.
El "Subsampling"
(submuestreo) aprovecha una característica de
la visión humana que es más sensible a la luminosidad
que a la crominancia. Para comprender el subsampling
hay que recordar que la imagen de vídeo es entrelazada
y está formada por dos campos que son explorados
alternativamente, línea a línea y de izquierda
a derecha empezando por la superior. El Subsampling
consiste en reducir la información de color preservando
intacta la luminosidad. Eso se expresa con tres
números separados por dos puntos (A:B:C). La
“A” representa la luminosidad (valor “Y” en YUV)
las otras dos son los datos de crominancia (“UV”)
pero en diferentes campos “B” serían los valores
de crominancia del campo inferior (lower o B),
y “C” los del campo superior (upper o A). Y significa
que de cada 4 pixels que codifico de luminosidad,
voy a codificar “B” de crominancia en un campo
y “C” en el otro.
Vamos a verlo
con un ejemplo con el 4:2:0 del formato miniDV
o DVcam. Significa que de cada 4 pixels que explora
la cámara del campo inferior tienen en cuenta
para la formación del color de la imagen solo
2 y del otro campo ninguno (dominancia en el
campo inferior). Los datos de luminosidad siempre
(o casi) se tienen en cuenta todos.
El subsampling
es una característica del formato. Cada formato
ha adoptado un subsampling adecuado a la capacidad
de procesar información que tiene el equipo.
Como de la como de resultados obtenidos. Los
más utilizados son “4:2:2” Reduce el muestreo
del color a la mitad (calidad muy cercana a la
RGB24) y reduce el flujo de datos en un 25% frente
al 33% del “4:1:1” y del DVCpro (panasonic) ó
4:2:0. del Dvcam. Pero hay muchos tipos de Subsampling
en YUV utilizados básicamente en digitalización
de fuentes analógicas.
Entre los formatos
YUV más comunes y curiosos nos encontramos:
YUV2: Equivale
al 4:2:2. Se obtiene la luminosidad de cada píxel
y el color de cada dos. Se obtiene una calidad
muy cercana a la RGB24 con una compresión bastante
buena. Se emplea en grandes producciones y cine
digital.
YUV8: Se elimina por completo la información
de color dejando tan sólo la luminosidad. Es
la famosa escala de grises de 8 bits por píxel
y 256 tonos.
YUV9: La luminosidad se toma de cada píxel, mientras
que para el color se obtiene un valor medio de
una matriz de 3x3 píxels.
BTYUV: Es equivalente a 4:1:1. La luminosidad
de cada píxel se conserva. Para el color, se
agrupan 4 píxeles por cada línea y se obtiene
la media.
YUV12: Este formato es muy empleado en compresión
MPEG y explica el porqué de la frecuente pixelación
con flujos de datos bajos, ya que se obtiene
un valor medio de luminosidad y color por cada
matriz de 2x2 píxeles
Motion-JPEG
o M-JPEG
Al comprimir una imagen en mapa de bits (BMP)
a formato JPEG (Joint Photographic Experts Group)
reducimos su tamaño entre 10 y 20 veces sin perdida
de calidad aparente. Esta es la base de uno de
los primeros CODECs de video profesional el “Motion-JPEG”
o M-JPEG, en el que cada “frame” del video se
comprime con un codec similar al JPEG basado
en la transformada discreta del coseno (DCT)
, obteniendo como resultado una sucesión de cuadros
jpg que han sido comprimidos individualmente
(compresión intraframe o dentro de cuadro).El
nivel de comprensión se expresa indicando la
relación entre datos sin comprimir y comprimidos
(4:1) y varía según el formato pero lo normal
es entre 2,5:1 y 5:1. Además tiene a su favor
su sencillez para implementar el decodificador
en los chips de las tarjetas de captura con un
bajo coste, y en la posibilidad de definir el
nivel de compresión para adaptarlo a nuestras
necesidades, teniendo en cuenta que a mayor compresión
mayor perdida de datos.
Entre sus defectos
destaca el que cada fabricante de tarjetas digitalizadores
desarrolla su versión del COCEC y el chip especial
para trabajar con él, lo que limita su compatibilidad
con los codecs de otros fabricantes (CODECs propietarios).
Este codec es el más recomendable para digitalizar
señales de video analógico.
La captura
y digitalización
Estos términos se usan indistintamente para dos
procesos que son diferentes, y que se resumen
en conseguir que una secuencia de vídeo acabe
en nuestro ordenador. Simplificando, llamaremos
captura a la transferencia de imágenes contenidas
en diversos soportes digitales al disco duro
del ordenador. Mientras que la digitalización
es el proceso de conversión de imágenes analógicas
a formatos digitales. La calidad y complejidad
del proceso está relacionada con el tipo de conexión
empleada entre ambos componentes, que a su vez
determinan el tipo de señal que se va a transportar.
El Firewire
también llamado IEEE 1394 o iLink es una entrada
de datos digital que es capaz da transmitir hasta
400Mb/s de forma continua. Fue diseñada como
entrada de dispositivos variados (grabadoras,
Discos duros, escáner, etc.) pero no logró consolidarse
porque para estos dispositivos era suficiente
con el USB que venía incorporado de serie en
los ordenadores. El firewire se impuso como estándar
de transmisión de vídeo donde realmente son aprovechadas
son funciones.
El USB-2 es
una evolución del USB y compatible con él. Es
capaz de transmitir 440Mb/s con lo que se convierte
en el gran rival del firewire. El USB-2 se está
convirtiendo en un bus estándar debido principalmente
a que los dispositivos USB son totalmente compatibles
con el USB-2 (al revés puede haber problemas),
Y es un elemento estándar en los ordenadores
actuales.
Ambos buses
digitales no son propiamente de captura, pues
lo único que hacen es transmitir la información
de la cinta (que ya es digital) al ordenador,
por lo tanto todas las tarjetas de digitalización
que nos ofrezcan ese puerto, nos van a dar exactamente
la misma calidad que la cinta, ya sea de 650
€ ó una 25 €. La diferencia de precio estará
en el software que las acompaña, en las características
para acelerar el renderizado de las transiciones
y efectos, o si ofrecen otras entradas para digitalización
analógica, pero nunca en la calidad de la imagen
que captura el ordenador.
Otra de las
ventajas que ofrecen estos puertos es que permiten
el manejo remoto de la cámara desde el propio
programa de edición, facilitando enormemente
el proceso de “captura”.
Por Componentes:
las tres componentes de la señal de vídeo se
codifican independientemente Y, (B-Y) y (R-Y).
Para ello se necesitan tres vías de conexión
cada una con clavijas BNC o RCA. Proporción una
calidad muy buena siendo el método de digitalización
y de copia analógica profesional.
El S-VHS es
un conector miniDIM de 4 pines que transporta
separadamente la señal de luminancia y la de
crominancia, de hay que también se llame Y/C.
La primera transmite la intensidad lumínica de
cada píxel mientras que la segunda le aportaría
el color mezclando las componentes “U” y “V”
en uno solo “C” . De esta forma las imágenes
son más nítidas y el color se define mejor. Lo
implementan casi todas las tarjetas de captura.
El vídeo compuesto
consta de una vía en la que se ha mezclado la
señal de luminancia y las de crominancia. Se
transmite por una conexión RCA (normalmente amarilla)
y aunque la imagen tiene poca definición y los
colores se empastan proporciona una calidad más
que digna para trabajos a resolución pequeña
similar al VHS (350x288).
Los
CODECs y tipos de compresores.
Un CODEC es un algoritmo con el cual se procesan
los datos para su compresión y con el que es
necesario trabajar para su restauración. Por
tanto son bidireccionales (comprimen y descomprimen).
Sea cual sea el CODEC que utilicemos se basa
en un método de compresión de los que podemos
hacer dos divisiones. Los que comprimen sin pérdida
de datos y los que comprimen con pérdida. Para
entendernos, los CODEC sin pérdida tratarían
a cada fotograma como lo haría cualquier compresor
de archivos (WinZip, Rar; etc.). Buscaría redundancias
en las cadenas de datos y las sustituiría por
una “clave” más pequeña.
Ej. JUAN▒QUEROL▒COME▒EL▒QUESO▒QUE▒QUIERE
JUAN#EROL▒COME▒EL#ESO#E▒#IERE
En la de abajo
hemos sustituido “▒QE” por “#” y la frase
es más pequeña y cuando tengamos que reconstruirla
nos quedaría exactamente igual que la original.
Estos métodos de compresión no se suelen utilizar
en captura por que tienen todavía un caudal muy
alto y genera unos archivos muy grandes (unos
3 minutos/Gb). Pero si son muy prácticos a la
hora de reconvertir archivos o para exportar
nuestro proyecto desde una edición “no-lineal”
a disco duro, donde no sea necesaria una compresión
en tiempo real. De entre estos los usados son
el huffyuv, el LEAD y el Ligos Indeo.
Como métodos de compresión con perdidas se emplean
normalmente 2 el Motion-JPEG, ya tratado anteriormente,
y el MPEG. Ojo, no confundir con el tipo de archivo
“.mpg” que obviamente utiliza este método de
compresión, con el método en sí, porque mucos
archivos”.avi” están comprimidos en mpeg.
El MPEG
(Motion Picture Experts Group)
A finales de los 90, varios fabricantes unieron
esfuerzos para desarrollar un algoritmo de compresión
que permitiera almacenar una secuencia de vídeo
en un disco compacto normal con la calidad de
un VHS. El resultado fue el formato MPEG-1 y
su evolución el MPEG-2, que utiliza un conjunto
de estrategias más elaborado que el M-JPEG. Los
sistemas MPEG (protocolo del Motion Picture Experts
Group) utilizan, además del intraframe del M-JPEG,
unos algoritmos de compresión más complejos que
buscan la información redundante entre cuadros
próximos suprimiéndola (compresión interframe).
La diferencia
que hay entre un cuadro y el siguiente en una
secuencia de vídeo es escasa, por lo tanto no
es necesario grabar todos los fotogramas, basta
con grabar uno completo (key-frame o I-frame)
y luego guardar las evoluciones de ese cuadro.
Si tenemos un busto parlante delante de una pared
con la cámara fija, el fondo y gran parte del
comentarista no cambia de un cuadro a otro, por
lo tanto se utiliza la información del cuadro
anterior y sólo se graban las partes que ha cambiado
(rasgos de la cara).
Un archivo MPEG
está compuesto de unas secuencias cíclicas llamadas
GOP (Group Of Pictures - grupo de imágenes) formada
por tres tipos de cuadros. I-frame (Intraframes)
también llamados “imagen-I”, “key-frames” o “cuadros
internos”: Son los únicos estrictamente necesarios
y la referencia sobre la que calcular los cambios,
por lo tanto se graban enteros con una compresión
"Intraframe”. Por defecto se graba un I-frame
cada 15 cuadros. Si nuestro GOP tan sólo contara
con cuadros-I tendríamos una secuencia de JPG's,
el llamado Motion JPEG o MJPG (JPG en movimiento)
P-picture (Predictive
frames). Los cuadros-P analizan los cambios con
respecto a los cuadros I, y con otros cuadros
P anteriores.
B-picture (Bidirectionally-predictive
frames) los cuadros-B pueden analizar los cambios
de cuadros-P anteriores y posteriores ("B"
de bidireccionales) alcanzando los mayores grados
de compresión.
Una secuencia
GOP típica constará de 15 cuadros repartidos
de la siguiente forma:I BB P BB P BB P BB P BB.
La estructura de la secuencia GOP se puede grabar
en la cabecera del archivo, a no ser que se produzca
un cambio significativo en el medio de la cadena
(por ejemplo en un cambio de plano) entonces
se graba un cuadro I al principio de la toma.
Es importante que los fotogramas no se graben
enteros convierte a los codec MPEG en los menos
idóneos para la captura, por dos motivos principalmente,
primero porque comprimir un archivo ya comprimido
genera uno de peor calidad y de mayor tamaño.
Se puede hacer
la prueba con una imagen BMP o TIFF con varios
objetos pequeños, degradados de luces, etc. La
abrimos y la guardamos como “primer.jpg”con una
compresión media. Abrimos el jpg resultante y
lo volvemos a guardar como “segundo.jpg” utilizamos
el mismo nivel de compresión. Vamos a ir más
allá, volvemos a abrir “primer.jpg” y lo guardamos
como “mínima.jpg”. A continuación abrimos los
tres archivos creados y analizamos, y ampliamos
el mismo fragmento de la imagen. A simple vista
“segundo.jpg” debe tener peor calidad que “primero.jpg”
pero “mínima.jpg” también pierde calidad sobre
todo en las gradaciones de luz y en los pequeños
detalles. Vamos a ver que ocurre con el tamaño
de los archivos. Es más que probable que “segundo”
sea mayor que “primero” lo que sí es seguro es
que “mínima” es mucho mayor. Esta es una compresión
intraframe, y que sólo se produce una vez cada
15 cuadros, y que esa degeneración de los I-frame
por muy pequeña que sea va ha influir de manera
decisiva en la formación de los cuadros “P” y
“B”.
El segundo problema
viene al editar. Y más en algunos programas de
edición antiguos porque al intentar avanzar un
fotograma el programa no encuentra suficiente
información para completar la imagen y avanza
15, es decir al siguiente “key-frame”. Las últimas
versiones de los programas más populares ya han
solucionado este problema y se editan sin dificultad
y con precisión “al frame”.
Actualmente
se emplean tres estándares MPEG en sus versiones
1.2 y 4 (la versión 3 se descarto por dar peores
resultados que la dos) y está en desarrollo la
versión 7.
El MPEG-1 es
un formato de compresión con perdidas de datos
a un tamaño máximo de 352x 288 que es el equivalente
a la calidad de las cintas VHS. La codificación
se produce por software por lo que se usa en
las tarjetas sintonizadoras de TV para la captura
analógica y la grabación de programas a modo
de VTR digital. Es el utilizado en el VCD formato
de video sobre CD y como formato de vídeo para
internet.
El MPEG-2 puede
trabajar video a tamaño completo (760x576) y
25 (ó 30) fotogramas con dos campos cada uno
por segundo. Tenemos control sobre la ratio de
transferencia que es inversamente proporcional
a la compresión, a ratio más alto, menor compresión,
mayor tamaño, mejor calidad. Es el estándar actual
de la industria del vídeo, es el usado en los
DVD's, en los SVCD, y en las televisiones digitales
(satélite y cable).
El MPEG-4 fue
en un principio desarrollado por microsoft y
lo usaban sus archivos “.asf” y “.wmv“ que no
eran totalmente acordes al estándar MPEG-4. Es
un estándar complejo, ya que entre sus especificaciones
hay manejo de objetos 3D, síntesis de voz, implementa
una librería java para la ejecución de comandos
y acceso aleatorio al contenido del archivo,
etc. En lo que a vídeo se refiere consigue unas
tasas de compresión muy altas con una calidad
excelente. Soporta vídeo entrelazado hasta una
resolución de 4096 x 4096 e implementa un canal
alfa nativo para manipulación de transparencias.
A nivel de compresión
el codec es una versión mejorada del MPEG-2,
sobre todo en la predicción de frame, con algunas
características particulares. El MPEG-4 es capaz
de segmentar fondo y figura, esto quiere decir
que si tenemos un plano en el que aparece un
fondo con objetos que se mueven delante de él,
es capaz de recordar el fondo y grabar sólo los
datos referentes a los objetos.
Fue un hacker
francés que copió el código de Microsoft y lo
puso al servicio público (a Microsoft no pareció
importarle) denominándose “DivX;-)” (emoticon
incluido), y que pronto se convirtió en un formato
muy utilizado en internet, y en la grabación
de copias de seguridad de DVDs en CDs.
El “DivX”. Este
mismo grupo creó un codec totalmente nuevo (por
tanto legal) y que cumplía con las especificaciones
MPEG-4 que era compatible con las versiones anteriores
y que mejoraba prestaciones y servicios, entre
otros la digitalización en múltiples lecturas.
Este método
(que actualmente se usa también en MPEG-2) consiste
en hacer lecturas previas del archivo de vídeo
para establecer la estructura GOP más conveniente
y analizar cuales son las necesidades flujo de
datos y gestionarlas, reservando mas caudal a
las escenas más difíciles de comprimir.
La información
se almacena en una base de datos llamada ECL
(Encoder Control List o Lista de Control de Codificación)
y a la hora de comprimir se gestiona el flujo
de datos según las necesidades de la escena detectadas.
Esta técnica produce un flujo de datos variable
VBR (Variable Bit Rate) y produce una sustancial
mejora del archivo final, a costa de emplear
mucho más tiempo en el proceso.
El “XviD” tiene
los mismos inicios que el anterior pero mantiene
el código abierto lo que hace que esté en constante
evolución. Es compatible con los anteriores y
con unas prestaciones similares al DivX pero
mucho más baratas (es gratuito).
Estoy seguro
que no ha mucho tardar los codecs basados en
MPEG-4 serán el próximo estándar de la industria
audiovisual, Prueba de ello es que cada vez es
más el número de reproductores de DVD que incorporan
decodificación mpeg-4. Pero donde realmente va
a desarrollar sus múltiples características es
en los nuevos modelos de televisión que se están
gestando.
La aplicación
más evidente esta en la televisión digital (terrestre
o por satélite) que se van a beneficiar de su
bajo flujo de datos y elevada calidad para ofertar
más canales sobre el mismo ancho de banda. Al
mismo tiempo pueden ofertar programación o servicios
interactivos.
También contiene
todos los elementos necesarios para ser el soporte
de la futura televisión en alta definición con
su elevada resolución muy superior a todas las
normas, y con unas capacidades de audio impresionantes
suministrando multitud de canales que a su vez
dispondrían de varias capas. De tal forma que
sería posible grabar los instrumentos de un grupo
de musical por separado y emitirlos en capas
diferentes y que fuera el usuario el que hiciera
la mezcla final acorde a sus preferencias y desde
su propia casa.
El acceso aleatorio
a la información y la posibilidad de ejecutar
comandos le hace imprescindible en el video interactivo
y en video bajo demanda. Y no solo del manejo
del reproductor (atrás, play, pausa, stop) también
como ayuda a la gestión generando información
sobre que películas ha visto el cliente, en que
punto de visionado se encuentra, hasta cuando
tiene acceso al visionado, etc.
Transmisión
de Vídeo por Internet : el “Streaming”
El Streaming consiste el visionado continuo y
sin cortes de un vídeo a través de internet y
desde el momento en que se requiere al servidor
de origen (se pulsa el enlace). Esta definición
descarta casi todos los enlaces actuales a archivos
de vídeo. Cuando “picamos” en un enlace de vídeo
nos aparece a los pocos segundos el interface
del reproductor, pero la imagen la vemos a ráfagas
más o menos largas según el vídeo se va descargando
en la carpeta temporal de nuestro disco duro
(memoria caché). Y eso con suerte porque en muchos
casos podemos verlo entero y sin cortes pero
tenemos que esperar a que este todo descargado.
El Streaming consigue ese pequeño milagro adaptando
la calidad del visionado a la velocidad de conexión
que tiene el usuario en cada momento. Si la red
está lenta el vídeo se transmite con menos calidad
y si de repente la red va rápida vemos como nuestro
vídeo aumenta en su calidad. Hay tres compañías
desarrollando productos streaming. Microsoft
con el “Windows Media Video”, Real con su “Real
Video” y Apple con el “Quicktime”.
Para poder ajustar
el flujo de datos de trasmisión del vídeo a las
características de mi conexión se necesita que
el servidor donde está alojado el vídeo tenga
capacidades de servidor de vídeo y tener instalado
un software que gestione esa descarga. Los archivos
han de ser codificados con un codec específico
. La forma de actuar de este codec es la de grabar
dentro del mismo fichero el vídeo en varias resoluciones
(que son definas por el usuario mediante elecciones
en menús). Para poder acceder a el en streaming
es necesario tener instalado el codec en el ordenador
(que suelen ser gratuitos).
El Windows Media
Video ha tenido mucha aceptación por que funciona
con el reproductor Windows media player desde
la versión 6.2 incluida el windows 2000. Utiliza
las extensiones “.asf” y “wmv” para “wma” para
el audio y tanto el reproductor como el codificador
se pueden descargar gratis. El adobe premier
y el vegas pueden exportar el proyecto en este
formato.
Real Video necesita
un reproductor especial “el real player” o el
más reciente “real one”. Es servidor debe tener
instalado el del Real Server de la cual podemos
descargarnos una versión gratuita (y limitada).
Para codificar los archivos necesitamos el “Real
Producer” o exportarlo desde “premiere” o “el
vegas video”. Utiliza las extensiones “rm” y
ra” para vídeo y audio respectivamente.
Apple tiene
dos alternativas de servidores web, El Darwind
Streaming Server y el Quicktime Server ambos
para plataformas mac. Los archivos tienen que
ser reproducidos con quicktime del que existen
dos versiones (tanto para Mac, windows y linux),
la gratuita es el reproductor (viene incluida
en los sistemas operativos de Mac), la de pago
además nos ofrece la posibilidad de codificar
y hacer algunos ajustes de edición.
Si empezamos
el artículo con la agonizante situación de la
fotografía tradicional, queremos terminarlo con
su hermano mayor, el cine. El incipiente cine
digital ha empezado a andar y algunos directores
le están buscando sus aplicaciones y los directores
de fotografía están trabajando para sacarle el
máximo partido (la imagen final es un poco más
contrastada). Se utilizan formatos con una estructura
de componentes 4:2:2 y un flujo de datos por
encima de 50Mb/s como el D9-HD, el HDCAM y el
HD-5. Simplificando, el cine digital es como
el cine tradicional pero en lugar de filmar sobre
una película transparente se graba en una cinta
de vídeo. Las ventajas son evidentes pero las
vamos a recordar.
Los costes de
producción son sensiblemente menores, porque
nos ahorramos la película y su procesado el laboratorio.
El minuto de grabación en cinta digital es sensiblemente
más barato que la película y encima es reutilizable.
La fase de edición
es otro de sus puntos fuertes. En el montaje
tradicional se hace una copia de todo el material
seleccionado (copión de montaje) y las escenas
se construyen cortando y pegando (literalmente)
la película en la moviola. El sonido se graba
y edita digitalmente pero separado de la imagen
y se incorporará al final del montaje en la “copia
maestra”.Todo lo que no sea empalmar (desde un
simple fundido a negro hasta la incorporación
de texto) tiene que pasar por laboratorio.
En cine digital
todo el proceso de montaje se hace en el ordenador
tanto de imagen como de sonido, utilizando software
de edición “no lineal”, donde podemos incorporar
todo tipo de efectos especiales y ver el resultado
final en el acto.
Una vez terminado
el proceso se envía el master en vídeo a un laboratorio
para que lo impresionen en película de 35mm.
(cinescopado), con lo que su distribución y exhibición
sigue los cauces habituales.
Al igual que
en la fotografía los puristas, y Cartier-Bresson
lo era, ven con recelo la llegada de la nueva
tecnología, tal vez por el miedo a lo desconocido,
no lo sé. Lo que si sé es que el “arte
cinematográfico” se va a beneficiar de la libertar
de los directores para repetir tomas, cambiar
ángulos, y arriesgarse a grabar tomas que, de
ser en película se lo pensarían. El abaratamiento
de la producción cada vez animará a mas gente
a embarcarse en proyectos, de hecho cada vez
hay más directores de cortometrajes que han podido
llevar su proyecto a buen puerto gracias a la
tecnología digital.
No nos debe
preocupar si la muerte del cine tradicional está
próxima o no, al final lo importante no es la
tecnología, sino para que se usa.
Antonio
García Díez
Profesor Ayudante del Área de Comunicación
Audiovisual de la Universidad
de Extremadura, España |