Fr wikipedia org wiki entropie de shannon text l entropie 20

Accueil Portails thématiques Article au hasard Contact Contribuer Débuter sur Wikipédia Aide Communauté Modi ?cations récentes Faire un don Outils Pages liées Suivi des pages liées Téléverser un ?chier Pages spéciales Lien permanent Informations sur la page Citer cette page Élément Wikidata Imprimer exporter Créer un livre Télécharger comme PDF Version imprimable Dans d ? autres projets Wikimedia Commons Dans d ? autres langues Deutsch English Espa? ol Italiano ? ? ? ? ? ? ? ? ? ? Ti ? ng Vi ??t Article Discussion Lire Modi ?er Modi ?er le code Voir l ? historique Rechercher dans Wikipédia Entropie de Shannon Pour les articles homonymes voir Entropie L'entropie de Shannon due à Claude Shannon est une fonction mathématique qui intuitivement correspond à la quantité d'information contenue ou délivrée par une source d'information Cette source peut être un texte écrit dans une langue donnée un signal électrique ou encore un ?chier informatique quelconque collection d'octets Du point de vue d'un récepteur plus la source émet d'informations di ?érentes plus l'entropie ou incertitude sur ce que la source émet est grande Ainsi si une source envoie toujours le même symbole par exemple la lettre 'a' alors son entropie est nulle c'est-à-dire minimale En e ?et un récepteur qui conna? t seulement les statistiques de transmission de la source est assuré que le prochain symbole sera un 'a' Par contre si la source envoie un 'a' la moitié du temps et un 'b' l'autre moitié le récepteur est incertain de la prochaine lettre à recevoir L'entropie de la source dans ce cas est donc non nulle positive et représente quantitativement l'incertitude qui règne sur l'information émanant de la source L'entropie indique alors la quantité d'information nécessaire pour que le récepteur puisse déterminer sans ambigu? té ce que la source a transmis Plus le récepteur reçoit d'information sur le message transmis plus l'entropie incertitude vis-à-vis de ce message cro? t En particulier plus la source est redondante moins elle contient d'information En l'absence de contraintes particulières l'entropie est maximale pour une source dont tous les symboles sont équiprobables Sommaire masquer Historique Dé ?nition formelle Justi ?cation de la formule Exemples simples Tirage aléatoire dans une urne Entropie d'un texte Propriétés Utilité pratique Bibliographie Notes et références Voir aussi Articles connexes Historique modi ?er modi ?er le code Create PDF in your applications with the Pdfcrowd HTML to PDF API PDFCROWD C ? de plus Modi ?er les liens Au début des années les télécommunications étaient dominées par le mode analogique Les sons et les images étaient transformés en signaux électriques dont l'amplitude et ou la fréquence sont des fonctions continues du signal d'entrée Un bruit ajouté pendant la transmission résultait en une dégradation du signal reçu L'archétype de ce type de bruit prend la forme de grésillement pour la radio et de neige pour la télévision Aujourd'hui les signaux sont également codés sous forme numérique Un bruit ajouté pendant la transmission se traduira par une erreur sur les données numériques transmises se

  • 49
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager