Cours information compression 1
Compression de Données Ghislain PANDRY Chercheur Traitement du signal et des images janvier CI-Théorie de l'information II Codages statistique C I- Alphabet et Code I- Dé nition Longueur d'un mot I- L'entropie et théorème de Shannon INTRODUCTION Alphabet La théorie de l'information donne le cadre mathématique aux codes compresseurs On rappelle qu'un alphabet est un C ensemble ni qui sert à former les messages contenant l'information à coder ou l'information codée L'ensemble des lettres du message source est l'alphabet source et l'ensemble des lettres du code l'alphabet du code Ghislain PANDRY Compression de Données CI-Théorie de l'information II Codages statistique C I- Alphabet et Code I- Dé nition Longueur d'un mot I- L'entropie et théorème de Shannon Exemple Alphabet Par exemple l'alphabet latin est l'ensemble des lettres que nous utilisons pour écrire ou est l'alphabet qui sert à écrire les messages qui doivent transiter dans la plupart des canaux numériques Ghislain PANDRY Compression de Données CI-Théorie de l'information II Codages statistique C I- Alphabet et Code I- Dé nition Longueur d'un mot I- L'entropie et théorème de Shannon C Dé nition Code L'ensemble des séquences sur un alphabet V est noté V et l'image de l'alphabet source par la fonction de codage est un V sous- ensemble de appelé l'ensemble des mots de code à qui on donne parfois le C nom de code Un code C sur un alphabet V est alors un sous-ensemble ni de V Le code est constitué des briques de base à partir desquelles les messages transmis seront construits Un élément m de C est appelé mot de code Sa longueur est notée l m L'arité du code est le cardinal de V Ghislain PANDRY Compression de Données CI-Théorie de l'information II Codages statistique C I- Alphabet et Code I- Dé nition Longueur d'un mot I- L'entropie et théorème de Shannon Example Code C est un code binaire d'arité sur l'alphabet V Ghislain PANDRY Compression de Données CI-Théorie de l'information II Codages statistique C I- Alphabet et Code I- Dé nition Longueur d'un mot I- L'entropie et théorème de Shannon Longueur Tous les mots de code n'étant pas toujours de la même longueur on utilise une mesure dépendant des fréquences d'apparition pour estimer la longueur des messages qui coderont une source Une source d'information est constituée d'un alphabet S et d'une distribution de probabilités P sur S Pour un symbole si d'une source S S P P si est la probabilité d'occurrence de si et l m désigne la longueur d'un mot m de source ou de code Ghislain PANDRY Compression de Données CI-Théorie de l'information II Codages statistique C I- Alphabet et Code I- Dé nition Longueur d'un mot I- L'entropie et théorème de Shannon Formule Soient S S P ou S s sn et C un code de S dont la fonction de codage est f C est l'image de S par f La longueur moyenne du code C est n l C l f si P si i Ghislain PANDRY Compression de
Documents similaires










-
41
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Aucune attribution requise- Détails
- Publié le Mar 07, 2022
- Catégorie Law / Droit
- Langue French
- Taille du fichier 33.9kB