Codage entropique wikipedia 1

Codage entropique - Wikipédia http fr wikipedia org wiki Codage entropique Le codage entropique ou codage statistique à longueur variable est une méthode de codage de source sans pertes dont le but est de transformer la représentation d'une source de données pour sa compression et ou sa transmission sur un canal de communication Les principaux types de codage entropique sont le codage de Hu ?man et le codage arithmétique Le codage entropique utilise des statistiques sur la source pour construire un code c'est-à-dire une application qui associe à une partie de la source un mot de code dont la longueur dépend des propriétés statistiques de la source On utilise donc en général un code à longueur variable qui attribue les mots de codes les plus courts aux symboles de source les plus fréquents Le codage entropique est issu de la théorie de l'information et traite de ces codes et de leurs propriétés L'information à coder est représentée par une variable aléatoire à valeur dans un alphabet de taille ?nie Un résultat important est le théorème du codage de source qui établit la limite à la possibilité de compression et établit cette limite comme étant l'entropie Historiquement développé dans les années - avec la théorie de l'information le codage entropique est devenu une technique fondamentale en compression de données et est présent dans de nombreux programmes de compression et de normes de compression d'image et de compression vidéo Dé ?nitions Propriétés des codes de source Inégalité de Kraft Code optimal Théorème du codage de source Types de codes Codage de Shannon-Fano Codage de Hu ?man Codage arithmétique Code universel Applications Voir aussi Article connexe Bibliographie Notes et références On considère une source discrète c'est-à-dire un dispositif qui fournit aléatoirement des séquences de symboles issus d'un ensemble discret ?ni Une source peut être un texte une image ou plus généralement tout signal numérique Une source est modélisée par un ensemble de variables aléatoires à valeur dans un alphabet de taille ?nie est appelé l'ensemble des symboles de source sur CCodage entropique - Wikipédia http fr wikipedia org wiki Codage entropique Dé ?nition ?? Une source est dite sans mémoire si la séquence de symboles générée par la source est une suite de variables indépendantes et identiquement distribuées Dé ?nition ?? Un code de source C pour une variable aléatoire de distribution de probabilité est une application de vers l'ensemble des cha? nes de symboles d'un alphabet D-aire L'ensemble des cha? nes de symboles d'un alphabet D-aire est noté En général cet alphabet est binaire et on a est alors l'ensemble des cha? nes de caractères de taille ?nie formées de et de Un code associe à un symbole de source un mot de code Ce mot de code est de longueur variable la longueur étant son nombre de bits Ces codes sont appelés codes à longueur variable L'espérance de la longueur d'un code ou longueur moyenne selon la loi de probabilité de X est donnée par peut également se voir comme le

  • 33
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Aucune attribution requise
Partager
  • Détails
  • Publié le Fev 11, 2022
  • Catégorie Law / Droit
  • Langue French
  • Taille du fichier 38.5kB