Chaine de markov Processus de Markov M LOGISTIQUE ET SUPPLY CHAIN MANAGEMENT Azouz Menel Bergaoui Malek Gharbi Nour Moumni Sarra Somrani Imèn Zhar Fatma CI- Présentation des chaines de Markov Historique En mathématiques un processus de Markov est un proce

Processus de Markov M LOGISTIQUE ET SUPPLY CHAIN MANAGEMENT Azouz Menel Bergaoui Malek Gharbi Nour Moumni Sarra Somrani Imèn Zhar Fatma CI- Présentation des chaines de Markov Historique En mathématiques un processus de Markov est un processus stochastique possédant la propriété de Markov Dans un tel processus la prédiction du futur à partir du présent n'est pas rendue plus précise par des éléments d'information concernant le passé Les processus de Markov portent le nom de leur inventeur Andre? Markov mathématicien russe juin - juillet Dé ?nitions Une chaine de Markov est une suite de variables aléatoires Xn n ?? N qui permet de modéliser l ?évolution dynamique d ? un système aléatoire Xn représente l ? état du système à l ? instant n Pour une cha? ne de Markov on fait l ? hypothèse qu ? il y a plusieurs évolutions possibles états à partir de la situation présente chacune d ? elles ayant une certaine probabilité de se réaliser C ? est cette incertitude sur l ? avenir qui est prise en compte par les modèles markoviens que l ? on appelle pour cette raison dynamiques aléatoires ou stochastiques Il existe bien d ? autres dynamiques aléatoires que les chaines de Markov mais celles-ci ont une propriété bien spéciale que l ? on appelle absence de mémoire ou simplement propriété de Markov que nous allons indiquer à présent Lorsqu ? un système a plusieurs avenirs possibles à partir de son état présent il se pourrait que la probabilité que l ? un ou l ? autre de ces avenirs se réalise dépende non seulement de son état présent mais aussi de son histoire récente L ? évolution future ne dépend du passé qu ? au travers de sa valeur actuelle Une chaine de Markov est dite irréductible lorsque tous ses états communiquent c ? est-à-dire lorsque pour toute paire d ? états xi xj la probabilité d ? aller de l ? un a l ? autre est strictement positive Un état xi ?? S tel que lorsque la chaine est issue de ce point elle y retourne en un temps ?ni avec une probabilité strictement positive s ? appelle un état récurrent sinon l ? état est dit transitoire C Lorsqu ? un état est récurrent chaque trajectoire issue de ce point y revient presque certainement une in ?nité de fois Par contre lorsqu ? il est transitoire chaque trajectoire issue de ce point n ? y revient presque surement qu ? un nombre ?ni de fois Soit X Xn n ?? N une chaine de Markov de matrice de transition P On dit que x est un état absorbant de la chaine X si P x x On représente une cha? ne de Markov avec une matrice de transition Chaque rangée de la matrice correspond à un état et donne la probabilité de passer à un autre état Une matrice P P x y x y ?? E est dite matrice stochastique si ses coe ?cients

  • 25
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Aucune attribution requise
Partager