pt
Moulé à la louche depuis 1999
Les trucs qui m'énervent... et je vais pas prendre de pincettes
Internet, informatique, logiciel libre, économie, politique, vie courante et tout le reste...

Compression: Toujours plus fort

Jeudi 16 novembre 2006

La compression est un enjeu majeur en informatique. Le formidable succès des formats ZIP, MP3 ou DivX est là pour en témoigner, et la recherche est toujours active dans ce secteur.

Si les algorithmes destructifs tels que MP3 ou DivX ont fait d'énormes progrès, on était un peu sur le statu quo concernant les algorithmes non destructifs (tels que Zip, Gz ou Bzip2). 7-Zip avait déjà apporté une nette amélioration avec son algorithme LZMA capable de produire des fichiers 30% plus compact que le format ZIP.

Le prix Hutter récompense de 50000 dollars les progrès dans la compression "du savoir humain". Le but n'est pas seulement d'inciter à la recherche sur la compression, mais également sur l'intelligence artificielle (puisque la compression nécessite de créer une "représentation" interne des données).

Le challenge est le suivant: Compresser au mieux un extrait de 100 Mo de Wikipedia.

Là où Zip n'arrive à réduire le fichier qu'à 35 Mo, là où 7-Zip n'arrive qu'à 25,2 Mo (en mode Ultra), l'algorithme paq8hp5 d'Alexander Ratushnyak descend à seulement 17 Mo !
C'est un progrès non négligeable qui sera difficile à battre.
En moyenne, paq8hp5 produit des fichiers 50% plus petits que les fichiers ZIP (au prix d'une certaine lenteur de compression/décompression).

Les progrès dans ce domaine nous permettront de stocker plus de données dans un même espace et de télécharger plus rapidement.


Source: http://prize.hutter1.net/
Voir tous les billets