Processus de Markov M1 LOGISTIQUE ET SUPPLY CHAIN MANAGEMENT 2013/2014 Azouz Me

Processus de Markov M1 LOGISTIQUE ET SUPPLY CHAIN MANAGEMENT 2013/2014 Azouz Menel Bergaoui Malek Gharbi Nour Moumni Sarra Somrani Imèn Zhar Fatma 2 I- Présentation des chaines de Markov : 1. Historique : En mathématiques, un processus de Markov est un processus stochastique possédant la propriété de Markov. Dans un tel processus, la prédiction du futur à partir du présent n'est pas rendue plus précise par des éléments d'information concernant le passé. Les processus de Markov (1906) portent le nom de leur inventeur, Andreï Markov (mathématicien russe- 2 juin 1856 - 20 juillet 1922). 2. Définitions : Une chaine de Markov est une suite de variables aléatoires (Xn, n ∈ N) qui permet de modéliser l´évolution dynamique d’un système aléatoire : Xn représente l’état du système à l’instant n. Pour une chaîne de Markov on fait l’hypothèse qu’il y a plusieurs évolutions possibles (états) à partir de la situation présente, chacune d’elles ayant une certaine probabilité de se réaliser. C’est cette incertitude sur l’avenir qui est prise en compte par les modèles markoviens que l’on appelle pour cette raison dynamiques aléatoires ou stochastiques. Il existe bien d’autres dynamiques aléatoires que les chaines de Markov mais celles-ci ont une propriété bien spéciale, que l’on appelle absence de mémoire (ou simplement propriété de Markov) que nous allons indiquer à présent. Lorsqu’un système a plusieurs avenirs possibles à partir de son état présent, il se pourrait que la probabilité que l’un ou l’autre de ces avenirs se réalise dépende non seulement de son état présent mais aussi de son histoire récente. (L’évolution future ne dépend du passé qu’au travers de sa valeur actuelle). Une chaine de Markov est dite irréductible lorsque tous ses états communiquent, c’est-à-dire lorsque, pour toute paire d’états (xi, xj) la probabilité d’aller de l’un `a l’autre est strictement positive. Un état xi ∈ S tel que, lorsque la chaine est issue de ce point, elle y retourne en un temps fini avec une probabilité strictement positive, s’appelle un état récurrent (sinon l’état est dit transitoire). 3  Lorsqu’un état est récurrent, chaque trajectoire issue de ce point y revient presque certainement une infinité de fois.  Par contre, lorsqu’il est transitoire, chaque trajectoire issue de ce point n’y revient presque surement qu’un nombre fini de fois.  Soit X = (Xn, n ∈ N) une chaine de Markov de matrice de transition P. On dit que x est un état absorbant de la chaine X si P(x, x) = 1. On représente une chaîne de Markov avec une matrice de transition. Chaque rangée de la matrice correspond à un état et donne la probabilité de passer à un autre état. Une matrice P = (P(x, y), x, y ∈ E) est dite matrice stochastique si ses coefficients sont positifs et la somme sur une ligne des coefficients est égale à 1 Une matrice de transition se reconnaît parce que toutes les valeurs sont entre 0 et 1 inclusivement et que la somme de chaque rangée est 1. Naturellement, pour avoir une chaîne de Markov, il faut répéter le nombre de transitions possibles. Une matrice de transition est dite régulière si elle ne contient aucun zéro. Une matrice de transition est dite ergodique si elle permet de passer de n’importe quel état à n’importe quel autre (mais pas nécessairement en une seule étape). Observez que si la matrice de transition n’a aucun zéro, alors, dans une seule étape, il est possible de passer de n’importe quel état à n’importe quel autre. Les applications des chaînes de Markov sont très nombreuses (réseaux, génétique des populations, mathématiques financières, gestion de stock, algorithmes stochastiques d’optimisation, simulation ...). 3. Exemple (chaîne de Markov à deux états) : On pense qu’un individu non endetté a une possibilité sur 3 de devenir endetté. Un individu endetté a une possibilité sur 6 de régler ses dettes. Comme dit précédemment, on représente une chaîne de Markov avec une matrice de transition. Chaque rangée de la matrice correspond à un état et donne la probabilité de passer à un autre état. 4 Dans le cas de notre individu endetté, la matrice de transition est : Pour avoir une chaîne de Markov, il faut répéter le nombre de transitions possibles. Dans notre cas, supposons qu’à chaque jour qui passe, la matrice de transition s’applique. Si l’individu n’est pas endetté au départ, après un jour il y aura une probabilité de 1/3 qu’il soit endetté : Après deux jours, il aura autant de possibilités d’être endetté que de ne pas l’être : Et ainsi de suite. On peut se demander ce qui se passera après un très long délai, disons un an ? Il suffit alors de savoir calculer les puissances de la matrice de transition. Dans tous les cas qui nous concernent, ces puissances convergent rapidement vers une matrice fixe : cela signifie qu’après avoir calculé 2, 3, 10 ou 20 puissances, la matrice ne change pratiquement plus : 5 On voit, par ces matrices, qu’après un an, 2 ans ou 10 ans, un individu, qu’il débute avec une dette ou sans dette, aura une probabilité de 2/3 d’être endetté ! II- Etude théorique : Une chaine de Markov est une suite de variables aléatoires toutes définis sur un même ensemble. On prend l’exemple de cette chaine où 0 et 1 sont deux états vrai faux, sécurité et insécurité. Le système peut basculer d’un état a l’autre avec les probabilité p et q . L’arc qui va de l’état 0 à l’état 1 auquel est associée à une probabilité p, c’est la probabilité de se retrouver à l’état 1 au temps n+1 étant donné qu’au temps précédent n il été a l’état 0. C’est une probabilité conditionnelle. - Le passage de l’état 1 à l’état 0 est donné par la probabilité q. - La probabilité de rester dans le même état 1 est de 1-q. - La probabilité de rester dans le mm état 0 est de 1-p. Ceci est illustré par les formules suivantes : 6 La chaine de Markov nous permet de calculer la probabilité de trouver ma chaine dans un certain état c-à-d si on arrive a un moment inconnu t et que la chaine tourne, quelle est la probabilité qu’à ce moment t on est à l’état 0. On cherche donc la probabilité Xn+1 =0 au temps n+1 en ignorant la valeur de n. Donc on distingue 2 cas : je me retrouve a l’état 0 au temps n+1 soit je viens de Xn=0 ou Xn=1 au temps n. Je fais l’intersection avec 2 évènements Xn=0 et Xn=1, qui sont disjoint et complémentaire Je peux reformuler en faisant apparaitre les probabilités conditionnelles. Je remplace par les probabilités définit précédemment . Et maintenant je me retrouve avec 2 termes ou apparait la probabilité que Xn=0 . On calcule P(Xn+1=0) qui dépend de la probabilité de Xn =0 Et si je résonne de la même manière je vais voir que ça dépend de P(Xn-1=0) ainsi de suite puis Xn-2 et Xn-3 et finalement je vais dérouler cette récurrence pour faire apparaitre la probabilité que X0 =0 7 Et lorsqu’on rassemble les termes la probabilité s’exprime en fonction de la probabilité de X0=0 plus une somme géométrique on obtient finalement cette expression III- Etude empirique : Etude de cas 1. Présentation du cas : - Cadre de la recherche : La sécheresse constitue un fléau redoutable pour l'économie tunisienne fondée essentiellement sur la production agricole pluviale. L'analyse de la récurrence et de la persistance de ce phénomène par des méthodes scientifiques cherche à établir une estimation des probabilités qui pourrait contribuer à la planification de stratégies de mobilisation et de gestion des ressources en eau. La Tunisie se situe dans une zone de transition entre la zone tempérée et la zone subtropicale. De par cette position, elle subit alternativement les influences des perturbations tempérées, d'une part, et les influences sahariennes qui avancent plus ou moins profondément à l'intérieur du pays, d'autre part. Elle possède également deux façades maritimes : l'une septentrionale et l'autre orientale. Les perturbations de nord-ouest et les situations de retour d'est constituent la principale source de pluie. Par ailleurs, l'économie du pays, fondée sur l'agriculture, reste tributaire de la pluviométrie. Pour cela, des ouvrages hydrauliques ont été aménagés afin de lutter contre la sécheresse. Mais, si la sécheresse perdure deux ou trois années successives, les autorités doivent faire face à cette éventualité en planifiant les priorités de satisfaction des demandes en eau (eau potable, eau domestique, industrie, irrigation, etc.) et en adaptant la capacité des réservoirs de stockage de l'eau. Or, la fréquence relative d'un événement comme la sécheresse annuelle peut être étudiée en termes de probabilité. Pour décrire la persistance de la sécheresse, nous allons appliquer la méthode des chaînes de Markov à des données pluviométriques annuelles. 8 Nous voulons donc, par cette étude, établir une estimation des probabilités d'avoir des années sèches successives. Cette estimation peut servir à la planification et à la gestion des ressources en eau. - Données et méthodes L'information pluviométrique uploads/Industriel/ chaine-de-markov.pdf

  • 71
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager