Compresión de datos
La compresión de datos o codificación de la fuente es la etapa de calcular una transformación de bits A en una serie de bits más cortos B que puede entregar la misma información utilizando un algoritmo particular. Codificación de operación, se acorta el tamaño (transmisión o almacenamiento) de los datos con un esfuerzo de compresión y descompresión. Descompresión es la inversa de la compresión.
Un algoritmo de compresión sin pérdida regresa después de sucesivas operaciones de compresión y descompresión, precisamente, la misma secuencia de bits al original. Los algoritmos de compresión sin pérdida son útiles para los documentos, archivos, archivos ejecutables o archivos de texto.
Compresión de datos sin pérdida
Para la compresión de datos sin pérdida, hay principalmente dos tipos de codificación: codificación de entropía y la codificación algorítmica.
En la primera categoría se encuentran entre otros la codificación Huffman. La entropía de codificación se basa en una priori de la fuente. De ello es, por ejemplo obligado a la codificación de Huffman hacia adelante tabla de probabilidad para los símbolos de la fuente en contraste con algorítmica de codificación. Codificación algorítmica de hecho, no tiene necesidad de transmitir información que no sea el resultado de la codificación. Podemos tomar el ejemplo del diccionario de codificación como LZ77, LZ78 y LZW.
Con un algoritmo de compresión con pérdida, la secuencia de bits obtenido después de las operaciones de compresión y descompresión es diferente de la original. Los algoritmos de compresión con pérdida son útiles para las imágenes, sonido y vídeo.
Los formatos de datos, tales como ZIP, RAR, gzip, algoritmos de compresión de datos ADPCM, MP3 y JPEG de uso.
Gane 5% en la eficiencia de compresión en comparación con las grandes algoritmos comunes típicamente pueden multiplicar por 100 el tiempo necesario para compressión.
Teoría de la compresión de datos
La teoría de compresión de datos utiliza una consideración de la teoría de la información: la entropía que el sentido de Shannon.
La compresión se llama sin pérdida cuando no hay pérdida de datos sobre la información original. Hay mucha información después de la compresión que antes, sólo se reescribe de una manera más concisa (por ejemplo el caso de la compresión gzip para cualquier formato de PNG tipo de datos o para imágenes de síntesis para la Web). La compresión sin pérdida es también conocida como la compactación.
La información que se comprime se ve como la salida de un símbolo fuente que produce artículos acabados de acuerdo a ciertas reglas. El objetivo es reducir el tamaño medio de los textos obtenidos después de la compresión, mientras que tiene la posibilidad de encontrar exactamente el mensaje original (también es la fuente de la oposición designación en la codificación de codificación de canal que se refiere a la codificación de corrección de error).
La compresión con pérdida sólo se aplica a los datos de «notable» en general, sonido o visual, que puede sufrir cambios, a veces importantes, pero no perceptible por los humanos. La pérdida de información es irreversible, es imposible recuperar los datos originales después de dicha compresión. La compresión con pérdida es por qué a veces se llama compresión irreversible o no conservador.
Esta técnica se basa en una idea simple: sólo un pequeño subconjunto de todas las imágenes posibles (los que se obtendrían por ejemplo, tomando los valores de cada píxel por un generador aleatorio) tiene una útil e informativo para el ojo.¿Cuáles son esas imágenes que buscarán codificar el camino corto. En la práctica, el ojo necesita identificar áreas que son correlaciones entre píxeles vecinos, es decir que hay áreas contiguas de colores vecinos. Programas de compresión están trabajando para descubrir estas áreas y codificar la forma lo más compacto posible. JPEG 2000, por ejemplo, pasa a ser codificado en general imágenes fotográficas de 1 bit por píxel sin pérdida visible de calidad en una pantalla, un factor de compresión de 24: 1.
Dado que el ojo no percibe necesariamente todos los detalles de una imagen, es posible reducir la cantidad de datos de manera que el resultado es muy similar a la original, si no idéntico, para el ojo humano. La cuestión de la compresión con pérdida es reducir la cantidad de datos mientras se mantiene un archivo de calidad perceptible y evitando la aparición de artefactos.
Del mismo modo, sólo un pequeño subconjunto de posibles sonidos es explotable por el oído que hay regularidades ellos mismos generan redundancia (código fielmente ruido de la respiración no sería de interés). Codificación eliminar esta redundancia y la restauración de la llegada sigue siendo aceptable, incluso si el sonido reproducido no es completamente idéntico al sonido original.
Hay tres grandes familias de compresión con pérdida:
-Por la predicción, por ejemplo, ADPCM;
-Por transformación. Estos son los métodos más eficaces y más utilizados. (JPEG, JPEG 2000, todos los estándares MPEG)
-Compresión basado en patrones de repetición fractal (compresión fractal).
Formatos MPEG son formatos de compresión con pérdida para las secuencias de vídeo. Incluyen como tales codificadores de audio, como el famoso MP3 o AAC, que perfectamente puede ser utilizado de forma independiente, y de los codificadores de vídeo del curso – por lo general simplemente hace referencia la norma de la que dependen (MPEG-2, MPEG-4) y como soluciones para la sincronización de los flujos de audio y vídeo, y para transportarlos a diferentes tipos de redes.