Chaines de markov CHA? NES DE MARKOV Cha? nes de Markov Les cha? nes de Markov sont des outils statistiques et probabilistes simples et puissants mais dont la forme de présentation mathématique prête parfois à l'horreur Nous allons tenter ici de simpli ?e

CHA? NES DE MARKOV Cha? nes de Markov Les cha? nes de Markov sont des outils statistiques et probabilistes simples et puissants mais dont la forme de présentation mathématique prête parfois à l'horreur Nous allons tenter ici de simpli ?er un maximum les notations pour introduire cet outil formidable très utilisé au sein des entreprises pour gérer la logistique les ?les d'attentes aux centrales d'appel ou aux caisses de magasins jusqu'à la théorie de la défaillance pour la maintenance préventive en physique statistique ou en génie biologique et la liste est encore longue et pour plus de détails le lecteur pourra se reporter aux chapitres concernés disponibles sur le site Dé ?nition Nous noterons un processus probabiliste fonction du temps c'est donc un processus stochastique dont la valeur à chaque instant dépend de l'issue d'une expérience aléatoire Ainsi à chaque instant t X t est donc une variable aléatoire Si nous considérons un temps discret nous notons alors un processus stochastique à temps discret Si nous supposons que les variables aléatoires ne peuvent prendre qu'un ensemble discret de valeurs Nous parlons alors de processus à temps discret et à espace discret Remarque Il est tout à fait possible comme dans l'étude du télétra ?c d'avoir un processus à temps continu et à espace d'état discret Dé ?nition est une cha? ne de Markov si et seulement si en d'autres termes c'est très simple la probabilité pour que la cha? ne soit dans un certain état à la n-ème étape du processus ne dépend que de l'état du processus à l'étape n - et pas des étapes précédentes Remarque En probabilité un processus stochastique véri ?e la propriété markovienne si et seulement si la distribution conditionnelle de probabilité des états futurs étant donné l'instant présent ne dépend que de ce même état présent et pas des états passés Un processus qui possède cette propriété est donc appelé processus de Markov Dé ?nition Une cha? ne de Markov homogène est une cha? ne telle que la probabilité qu'elle a pour passer dans un certain état à la n-ème soit indépendante du temps En d'autres termes la loi de probabilité caractérisant la prochaine étape ne dépend pas du temps de l'étape précédente et en tout temps la loi de probabilité à tout moment de la cha? ne est toujours la même pour caractériser la transition à l'étape en cours CNous pouvons alors dé ?nir la loi de probabilité de transition d'un état i vers un état j par Il est alors naturel de dé ?nir la matrice de transition ou matrice stochastique Les cha? nes de Markov peuvent être représentées graphiquement sous la forme d'un graphe orienté G cf chapitre de Théorie Des Graphes ayant pour sommet les point i et pour arêtes les couples orientés i j Nous associons alors à chaque composante un arc orienté et sa de probabilité de transition Exemple Ainsi les seules transitions permises par les états matrice x sont celles indiquées par les èches Ce qui fait

  • 32
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Aucune attribution requise
Partager