viernes, 4 de febrero de 2011

4.1 Justificación del filtraje vs análisis de la fuente.

Como ya se presento en capítulos anteriores, durante el proceso de
Codificado de un vídeo para terminales móviles se generan dos
flujos de datos básicos, el “stream elemental”(ES) de audio y el ES
de vídeo que contiene la información referente a la parte visual. En el
ES de vídeo se envía una secuencia de imágenes separadas
temporalmente según la tasa frames/s configurada. El tamaño de
cada una de las imágenes es variable dependiendo de su contenido
así como del esquema de codificación. Los estándares de vídeo
permiten diferentes esquemas de codificación para cada una de las
imágenes:

  • Imágenes intra I: Las imágenes I son frames comprimidos
mediante una transformada de coeficientes discretos. Una vez
obtenidos estos coeficientes realizamos un proceso de cuantificación
donde se filtran los coeficientes principales (coeficientes de baja
frecuencia). A partir aquí se reordenan los coeficientes, se les aplica
una codificación entrópica y obtenemos la imagen intra I. Los frames
tipo I son indicados para cambios de escena y la re-sincronización
del stream de vídeo, no necesitando ninguna referencia temporal
anterior o posterior para poder ser decodificado.


Fig. 4.1 Codificador de Imágenes I

  • Imágenes inter, P,B: Las imágenes tipo P son codificadas a
partir de la predicción respecto al frame anterior, codificando
únicamente las diferencias entre ambos. Como consecuencia la
información a transmitir en el caso de una frame tipo P es menor que
en los frames tipo I. Los frames B extienden la predicción,
permitiendo la predicción de movimiento bi-direccional. En el caso de
los frames B puede realizarse la predicción sobre frames I o frames
P. En ambos casos los frames tipo I son imprescindibles para la
decodificación del stream de vídeo, ya que son utilizados como
imágenes de referencia.

En la figura siguiente, a diferencia de la Fig. 4.1, encontramos los
bloques ME (“Motion Estimation”) y MCP (“Motion Compensation
Predictor”) encargados de predecir identificar y los movimientos
experimentados por los macrobloques.


Fig. 4.2 Codificador de Imágenes P.

El grupo de frames comprendido entre dos fotogramas tipo I es
conocido como GOP, “group of pictures”.



Fig. 4.3 Grupo de imágenes.

A modo de ejemplo presentamos las siguientes figuras donde se
representa las ideas anteriormente presentadas.


Fig. 4.4 Imagen de referencia n.


Fig. 4.5 Imagen n+1


Fig. 4.6 Diferencia entre la imagen n y n+1



Fig. 4.7 Estimación de los vectores de movimiento.

La ( Fig. 4.4 ) contiene el inicio de una secuencia de vídeo, con lo
que esta imagen se consideraría frame de referencia o imagen tipo I.

En la imagen siguiente (Fig. 4.5) se obtiene una imagen similar a la
anterior, con lo que si se realiza la diferencia entre los dos frames se
obtiene la (Fig. 4.6) donde se observa una disminución considerable
de la información a codificar. Finalmente en la (Fig. 4.7) representa
la predicción de movimiento realizada para cada bloque, con lo que
la imagen P esta formada por la codificación entrópica de los
vectores que han realizado una estimación del movimiento.

Del proceso de codificación anterior, y matizando la inexistencia de
Las imágenes B en los perfiles de vídeo para terminales móviles,
Obtenemos frames I con mucha información, junto con frames P con
información referencial respecto las I. Teniendo en cuenta las
restricciones anteriores planteamos la diferenciación del canal en
función del tipo de frame que viaja por el mismo, obteniendo una
arquitectura donde podemos priorizar las condiciones de canal
observadas para cada tipología de frame.

No hay comentarios:

Publicar un comentario