L'application par A. Markov de ses chaînes au poème Eugénie Onéguine est-elle l
L'application par A. Markov de ses chaînes au poème Eugénie Onéguine est-elle la plus importante ou la moins importante de nos cinq applications ? L'application des chaînes de Markov par AL Scherr (1965) aux performances des systèmes informatiques est-elle inférieure à l'application de Brin et Page à la recherche sur le Web (1998) ? Pour le moment, nous reportons ces questions difficiles. Nos cinq demandes, présentées dans les sections 2 à 6, apparaissent dans l'ordre chronologique certes injuste. Dans la section 7, nous corrigeons les torts de cet ordre imposé et dévoilons notre ordre approprié, en classant les applications de la moins importante à la plus importante. Nous terminons par une explication de cet ordre. Nous espérons que vous apprécierez ce travail, et en outre, espérons que ce travail sera discuté, débattu et contesté. CHAÎNES DE MARKOV À première vue, les résultats de Markov semblent être très spécifiques, mais en même temps son application était une nouveauté d'une grande ingéniosité au sens très général. Jusqu'alors, la théorie des probabilités ignorait les aspects temporels liés aux événements aléatoires. Mathématiquement parlant, aucune différence n'a été faite entre les deux événements suivants : un dé 1. Introduction. Les cinq applications que nous avons sélectionnées sont présentées dans l'ordre chronologique ennuyeux mais traditionnel. Bien sûr, nous convenons que ce schéma de commande est un peu injuste et problématique. Parce qu'il apparaît en premier chronologiquement, est A. DE La propre application de Markov de ses chaînes au poème d'Alexandre S. Pouchkine "Eugeny One gin". En 1913, pour le 200e anniversaire de la publication de Jakob Bernoulli [4], Markov fait publier la troisième édition de son manuel [19]. Cette édition comprenait son article de 1907, [20], complété par les matériaux de son article de 1913 [21]. Dans cette édition, il écrit : « Finissons l'article et tout le livre par un bon exemple d'épreuves dépendantes, qui peuvent être considérées approximativement comme une simple chaîne. Dans ce qui est maintenant devenu la célèbre première application des chaînes de Markov, AA Markov a étudié la séquence de 20 000 lettres dans le poème de AS Pouchkine "Eugeny Onegin", découvrant que la probabilité de voyelle stationnaire est p = 0,432, que la probabilité d'une voyelle suivant un voyelle est p1 = 0,128, et que la probabilité qu'une voyelle suive une consonne est p2 = 0,663. Dans le même article, Markov donne également les résultats de ses autres tests ; il a étudié la séquence de 100 000 lettres dans le roman de ST Aksakov "L'enfance de Bagrov, le petit-fils". Pour ce roman, les probabilités étaient p = 0,449, p1 = 0,552 et p2 = 0,365. LES CINQ PLUS GRANDES APPLICATIONS 2. Application d'AA Markov à Eugénie Onéguine. Toute liste prétendant contenir les cinq plus grandes applications des chaînes de Markov doit commencer par Andrei A. Mots clés. Chaînes de Markov, applications de Markov, vecteur stationnaire, PageRank, modèles de Markov cachés, évaluation des performances, Eugene Onegin, théorie de l'information ÿMax Planck Institute for History of Science, Berlin, Allemagne (philgers@mpiwg-berlin.mpg.de) †Department of Mathematics, College of Charleston, Charleston, SC 29424, (langvillea@cofc.edu) Abstrait. A cent ans du développement de ses chaînes par AA Markov, nous faisons le point sur le champ qu'il a généré et l'empreinte mathématique qu'il a laissée. En hommage à Markov, nous présentons ce que nous considérons comme les cinq plus grandes applications des chaînes de Markov. Classifications des sujets AMS. 60J010, 60J20, 60J22, 60J27, 65C40 155 PHILIPP VON HILGERSÿ ET AMY N. LANGVILLE† Machine Translated by Google 156 PHILIPP VON HILGERS ET AMY N. LANGVILLE Figure 2.1. Arrière-plan de gaucheÿ: les 800ÿpremières lettres sur un total de 20ÿ000ÿlettres compilées par Markov et extraites du premier chapitre et demi du poème de Pouchkine "Eugeny Onegin". Markov a omis les espaces et les caractères de ponctuation lorsqu'il a compilé les lettres cyrilliques du poème. Avant-plan droit : nombre de voyelles de Markov dans la première matrice de 40 matrices totales de 10 × 10 lettres. La dernière ligne de la matrice de nombres 6 × 6 peut être utilisée pour montrer la fraction de voyelles apparaissant dans une séquence de 500 lettres. Chaque colonne de la matrice donne plus d'informations. Plus précisément, il montre comment les sommes de voyelles comptées sont composées de plus petites unités de voyelles comptées. Markov a fait valoir que si les voyelles sont comptées de cette manière, leur nombre s'est avéré Machine Translated by Google 3. Application de CE Shannon à la théorie de l'information. Lorsque Claude E. Shannon a introduit « A Mathematical Theory of Communication » [30] en 1948, son intention était de présenter un cadre général pour la communication basé sur les principes des nouveaux médias numériques. La théorie de l'information de Shannon donne des réponses formulées mathématiquement à des questions telles que la façon dont les signaux analogiques pourraient être transformés en signaux numériques, comment les signaux numériques pourraient alors être codés de telle manière que le bruit et les interférences ne nuisent pas au message original représenté par ces signaux, et comment une utilisation optimale d'une bande passante donnée d'un canal de communication pourrait être assurée. Une célèbre formule d'entropie associée à la théorie de l'information de Shannon est H = ÿ(p1 log2 p1 + p2 log2 p2 + . . . + pn log2 pn), où H est la quantité d'information et pi est la probabilité d'occurrence des états en question. Cette formule est l'entropie d'une source d'événements discrets. Pour reprendre les termes de Shannon, cette formule « donne des valeurs allant de zéro - lorsque l'un des deux événements est certain de se produire (c'est-à-dire, probabilité 1) et que tous les autres sont certains de ne pas se produire (c'est-à-dire, probabilité 0) - à une valeur maximale de log2 N lorsque tous les événements sont également probables (c'est-à-dire probabilité ). Ces situations correspondent intuitivement à l'information minimale produite par un événement particulier (quand on est déjà certain de ce qui va se passer) et à l'information la plus grande ou à la plus grande incertitude a priori de l'événement » [31]. Cette hypothèse conduit à l'idée de déterminer a priori les probabilités de transition des symboles de communication, c'est-à-dire la probabilité qu'un symbole suive un autre symbole ou groupe de symboles. Si, par exemple, la source d'information est constituée de mots de la langue anglaise et exclut les acronymes, alors la probabilité de transition de la lettre « u » suivant la lettre « q » est de 1. Il est évident que si quelque chose est connu au sujet d'un message à l'avance, alors le récepteur dans un système de communication devrait d'une manière ou d'une autre être en mesure de profiter de ce fait. Shannon a suggéré que toute source transmettant des données est un processus de Markov. lancé mille fois contre mille dés lancés une fois chacun. Même les événements aléatoires dépendants n'impliquent pas nécessairement un aspect temporel. En revanche, un aspect temporel est fondamental dans les chaînes de Markov. La nouveauté de Markov était la notion qu'un événement aléatoire ne peut dépendre que du passé le plus récent. Lorsque Markov a appliqué son modèle au poème de Pouchkine, il a comparé la probabilité de différentes distributions de lettres tirées du livre avec des probabilités de séquences de voyelles et de consonnes en fonction de ses chaînes. Ce dernier modélise un processus stochastique de lecture ou d'écriture tandis que le premier est simplement un calcul des propriétés statistiques d'une distribution de lettres. La figure 2.1 montre les notes originales de Markov dans le calcul des probabilités nécessaires pour sa chaîne de Pouchkine. Ce faisant, Markov a démontré à d'autres chercheurs une méthode de comptabilisation des dépendances temporelles. Cette méthode a ensuite été appliquée à la diffusion des molécules de gaz, aux expériences génétiques de Mendel et au comportement de marche aléatoire de certaines particules. Shannon a appliqué le modèle mathématique de Markov d'une manière similaire à celle de Markov La première réponse à la première candidature de Markov a été émise par un collègue de l'Académie des sciences de Saint-Pétersbourg, le philologue et historien Nikolai A. Morozov. Morozov a crédité avec enthousiasme la méthode de Markov comme une « nouvelle arme pour l'analyse des écritures anciennes » [24]. Pour démontrer son affirmation, Morozov lui-même a fourni des statistiques qui pourraient aider à identifier le style de certains auteurs. Dans son style exigeant, exigeant et critique typique [3], Markov a trouvé que peu d'expériences de Morozov étaient convaincantes. Markov, cependant, a mentionné qu'un modèle plus avancé et un ensemble étendu de données pourraient mieux réussir à identifier un auteur uniquement par une analyse mathématique de ses écrits [22]. 157 LES CINQ PLUS GRANDES APPLICATIONS DES CHAÎNES DE MARKOV 1 N Machine Translated by Google 158 Kolmogorov a émis l'hypothèse que si la physique en Russie avait atteint le même niveau élevé que dans certains pays d'Europe occidentale, où les théories avancées des probabilités s'attaquaient aux distributions de gaz et de fluides, Markov n'aurait pas pris le livre de Pouchkine sur l'étagère pour ses propres expériences [33 ]. uploads/Litterature/ mcapps7-fr.pdf
Documents similaires










-
48
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Attribution requise- Détails
- Publié le Jui 11, 2022
- Catégorie Literature / Litté...
- Langue French
- Taille du fichier 0.7466MB