Compresión de vídeo
La compresión de vídeo es un método de compresión de datos, que es reducir la cantidad de datos, reduciendo al mínimo el impacto en la calidad visual del vídeo. La ventaja de compresión de vídeo es reducir el costo de almacenamiento y transmisión de archivos de vídeo.
Las secuencias de vídeo contienen una muy alta redundancia estadística, tanto en el dominio del tiempo y en el campo espacial.
La propiedad estadística fundamental sobre el que se basan las técnicas de compresión, es la correlación entre los píxeles. Esta correlación es a la vez el espacio, los píxeles adyacentes de la imagen actual son similares, y el tiempo, los píxeles del pasado y marcos de futuros son también muy cerca del píxel actual.
Por lo tanto, se supone que la importancia de un píxel particular de la imagen se puede predecir a partir de los píxeles vecinos de la misma imagen (utilizando técnicas de codificación intratrama) o píxeles de una imagen vecina (utilizando técnicas inter-frame). Intuitivamente, es evidente que, en determinadas circunstancias, por ejemplo, al cambiar de plan de una película, la correlación temporal entre los píxeles vecinos entre las imágenes es pequeño o cero. En este caso, se llama Intra técnicas que son más adecuados para explotar la correlación espacial para lograr la compresión de datos eficaz codificación.
Algoritmos de compresión de vídeo MPEG utilizan una transformación llamada DCT (transformada discreta del coseno a cualquiera «DCT») en bloques de 8×8 píxeles, para analizar eficazmente las correlaciones espaciales entre píxeles vecinos de la misma imagen. Se han propuesto otros métodos, el uso de fractales, wavelets, o incluso matching pursuit.
Sin embargo, si la correlación entre los píxeles en fotogramas adyacentes es grande, es decir, en el caso en que dos tramas consecutivas tienen un contenido similares o idénticos, es deseable utilizar una técnica de codificación llamada Inter por ejemplo DPCM (PCM diferencial), que utiliza la predicción temporal (predicción por compensación de movimiento entre cuadros).
En el esquema clásico de compresión de vídeo, la combinación de adaptación entre los dos movimientos de la información (temporal y espacial) se utiliza para hacer una compresión de datos significativa (video híbrido de codificación DPCM / DCT).
Técnicas de más compresión (incorrectamente llamados codificación porque no había pérdida de información) se describen en esta parte son el muestreo y la cuantificación antes de codificación de la información. El concepto básico de la sub-muestreo es reducir las dimensiones (horizontal y vertical) de la imagen de vídeo y por lo tanto reducir el número de píxeles que se va a codificar.
Algunas aplicaciones de vídeo submuestra también el movimiento temporal para reducir la velocidad de cuadros antes de la codificación. El receptor debe decodificar las imágenes e interpolar antes de mostrarlos.
Esta técnica de compresión puede ser considerada uno de los más básicos, que tiene en cuenta las características fisiológicas del ojo y que elimina la redundancia contenida en los datos de vídeo.
Los ojos humanos son más sensibles a los cambios en el brillo de color. Debido a este defecto del ojo, la mayoría de los algoritmos de compresión de vídeo representan las imágenes en el espacio de color YUV, que incluye un componente de brillo y dos de crominancia. A continuación, los componentes de color son sub-muestreada de acuerdo con la componente de luminancia con una relación Y: U: V específico para una aplicación particular (por ejemplo, MPEG-2, la relación es de 4: 1: 1 o 4: 2: 2).
Compresión vídeo MPEG-1 funcionalidad:
Para acceder a un archivo multimedia, MPEG-1 algoritmo fue diseñado para soportar diferentes características tales como acceso aleatorio, la búsqueda hacia delante velocidad (FF-avance rápido) y hacia atrás (FR-retroceso rápido) en la secuencia de vídeo, etcétera
Para incorporar estas características y más para tomar ventaja de la compensación de movimiento y de interpolación de movimiento, MPEG-1 algoritmo introduce el concepto de marcos bi-direccionalmente predichos e interpolados).
Se consideran tres tipos de tramas:
Marcos: Estos marcos son codificados sin referencia a otra imagen de la secuencia de vídeo, como se explicó anteriormente. Tramas I se utilizan para realizar acceso aleatorio y características FF / FR, aunque sólo permiten una tasa de compresión muy baja.
Tramas P: Estos marcos están codificados con referencia a la trama anterior (trama I o P-frame). Estas tramas se utilizan para predecir futuras o pasadas marcos, y no pueden ser utilizados para realizar el acceso aleatorio y las características FF / FR.
B-frames: Necesitan el futuro y el pasado como referencia para codificarse. Se utilizan para conseguir una relación de compresión muy alta. Ellos nunca se usan como referencia.
El usuario puede organizar la secuencia de los diferentes tipos de trama en función de los requisitos de la aplicación. Por lo general, una secuencia de vídeo codificado utilizando sólo fotogramas I (IIIII …) da un alto grado de acceso aleatorio, FF / FR y la edición, pero una compresión muy baja. Una secuencia de vídeo codificado sólo con tramas P (IPPPPPPIPPPP …) Proporciona un grado medio de acceso aleatorio y FF / FR.
Si se usan tres tipos de marcos (IBBPBBPBBIBBP …) Llegamos a una gran relación de compresión y un grado razonable de acceso aleatorio y FF / FR, pero aumenta en gran medida el tiempo de codificación. Para aplicaciones tales como telefonía de video o video conferencia este tiempo puede llegar a ser intolerable.
Compresión vídeo MPEG-2
El algoritmo MPEG-2 ha sido diseñado para tener una calidad equivalente como mínimo a la NTSC / PAL y más alto que el CCIR 60.
Básicamente, el algoritmo MPEG-2 es idéntica a la de MPEG-1 y es por lo tanto compatible. Cada decodificador MPEG-2 debe ser capaz de decodificar un flujo de MPEG-1 válida. Varios algoritmos se han añadido para dar cabida a las nuevas necesidades. MPEG-2 permite el procesamiento de imágenes entrelazadas.
MPEG-2 introdujo el concepto de «perfiles» y «niveles» para ser compatible con sistemas que no implementan todas estas características.
Cada nivel especifica el rango de los diversos parámetros utilizados para la codificación.
El nivel de soporte principal para una densidad máxima de 720 píxeles horizontalmente y 576 píxeles verticales, una velocidad de 30 fotogramas por segundo y una velocidad de flujo de 15 Mbit / s.