Akademik

COMPACTAGE DE DONNÉES
COMPACTAGE DE DONNÉES

COMPACTAGE DE DONNÉES

Le compactage de données consiste à transmettre un message sur un canal (ligne téléphonique, voie hertzienne, etc.) en tolérant une certaine perte d’information. Le compactage se distingue en cela de la compression, où toute perte d’information est interdite. Le niveau de tolérance est, bien entendu, subjectif mais susceptible d’être défini par des normes internationales. Le compactage concerne plus particulièrement la transmission des sons et celle des images, la perte d’une partie croissante de l’information se traduisant non pas par des erreurs, mais par une dégradation progressive, qui, du fait de l’imperfection de nos sens, n’est pas perceptible tant qu’elle reste inférieure à un certain seuil.

On ne s’intéressera ici qu’au son numérisé, c’est-à-dire aux signaux binaires obtenus après passage du son par un convertisseur analogique-numérique, qui est caractérisé par sa fréquence d’échantillonnage et par le nombre de bits par échantillon. Un son haute-fidélité ayant la qualité de celui qui est délivré par un disque compact correspond à un échantillonnage à 44 kilohertz avec 16 bits par échantillon, soit 40 millions de bits par minute. Le stockage comme la transmission de telles quantités d’information à la vitesse requise pour sa restitution posent de sérieux problèmes que les algorithmes de compression (conservatifs), avec leurs gains de l’ordre de 25 à 50 p. 100 dans les cas favorables, sont incapables de résoudre. Dans la plupart des micro-ordinateurs, le son est échantillonné à 11 kilohertz (ce qui élimine toutes les fréquences supérieures à 5,5 kilohertz) et les échantillons sont codés sur 8 bits, soit un maximum de 128 niveaux sonores. La restitution sonore est, dans ce cas, tout juste acceptable, bien que le volume de données atteigne encore 5 millions de bits par minute.

On peut améliorer le taux de compactage en opérant en deux étapes. On utilise un convertisseur analogique-numérique non linéaire qui permet de gagner un facteur 2 ou 3 en volume, puis on applique un algorithme de compression qui, curieusement, donne souvent de meilleurs résultats que lorsqu’on l’applique «brutalement» au son initial, mais le gain reste assez modeste si on cherche une restitution de qualité haute-fidélité. Des techniques plus complexes, comme le codage linéaire prédictif ou la modulation delta, éventuellement adaptative, permettent des gains en compactage de 2 à 10 avec une perte de qualité qui reste acceptable pour la transmission de la voix.

Une technique de compactage appelée PASC, repose sur une étude détaillée de la perception du son en présence de fréquences et de niveaux simultanés. Les résultats obtenus permettent de montrer que l’on peut, dans de nombreux cas, supprimer un certain nombre de fréquences sans trop altérer le résultat final. On arrive ainsi à diviser le volume d’information par trois ou quatre sans perte sensible de qualité. Cet algorithme de compactage a été utilisé pour les enregistrements sur les cassettes audionumériques compactes (Digital Compact Cassette, ou D.C.C.).

Dans les micro-ordinateurs, la communication entre la machine et l’utilisateur se fait principalement par voie graphique, et les moniteurs couleurs sont devenus la règle plutôt que l’exception. Par ailleurs, l’apparition des écrans à haute définition et la généralisation du multimédia ont massivement accru le rôle des images en informatique.

Toutes ces évolutions ont conduit à stocker et à transmettre des quantités d’information de plus en plus grandes. Un écran standard possède une définition de 640 憐 480 pixels avec 8 bits pour coder la couleur de chaque pixel, ce qui signifie qu’une image en couleurs en définition standard représente 2,5 millions de bits; si on passe à 24 bits pour coder la couleur (définition photographique), c’est 7,5 millions de bits qui sont alors nécessaires, et si on passe en haute définition, à savoir 1 024 憐 1 024 pixels, on atteint 25 millions de bits pour une seule image! Jusque vers le début des années 1980, les recherches ont essentiellement porté sur des algorithmes de compression et ont donné naissance à des normes qui permettaient des économies de l’ordre de 10 à 90 p. 100, mais qui ont été très vite insuffisantes devant les problèmes que posaient le stockage de milliers d’images (banques d’images) ou l’utilisation de séquences vidéo sur ordinateur.

Devant l’importance de l’enjeu, le C.C.I.T.T. (Comité consultatif international télégraphique et téléphonique) et l’I.S.O. (International Standard Organisation) ont réuni leurs forces en créant, vers la fin des années 1980, le J.P.E.G. (Joint Photographic Expert Group), qui eut pour tâche de définir une norme internationale de compression d’images afin de faciliter la libre circulation de celles-ci. La norme J.P.E.G., publiée en 1992, comporte plusieurs parties, dont la plus intéressante est relative au compactage (non conservatif), qui se décompose en trois étapes: une transformation appelée «transformation en cosinus discrète», qui transforme le code en une matrice tridimensionnelle, suivie de la multiplication par une matrice de quantification, qui fixe le niveau de perte d’information, elle-même suivie d’une phase terminale de compression. L’utilisateur peut, en agissant sur la matrice de quantification lors du compactage, choisir le volume du code final, sachant que la qualité de l’image compactée sera d’autant plus mauvaise que le volume du code sera plus faible. On peut, grâce à la norme J.P.E.G., compacter dans un rapport de 1 à 20 sans pertes sensibles de la qualité de l’image et dans un rapport de 1 à 100 avec une dégradation notable.

Pratiquement en parallèle, à la demande pressante des studios de Hollywood, le C.C.I.T.T. réunissait un autre groupe, intitulé M.P.E.G. (Motion Picture Expert Group), chargé de proposer des normes pour la compression des images animées à la fois pour les vidéoconférences, mais aussi pour la télévision numérique à haute définition. La norme proposée consiste, schématiquement, à comparer deux images successives et à ne coder que les différences, sauf si celles-ci sont trop importantes, auquel cas on code la nouvelle image. De cette manière, on obtient des gains en compactage qui peuvent atteindre un facteur 20 sans dégradation notable de l’image.

Encyclopédie Universelle. 2012.