Option pour la prise de décisions et l'utilisation des modèles Théories mathéma
Option pour la prise de décisions et l'utilisation des modèles Théories mathématiques appliquées à la décision Définition des principaux concepts Recherche opérationnelle, calculs de probabilités, classification automatique… la vision mathématique de la décision ne considère que l’aspect calculatoire de la rationalité. On ne se focalise en effet ici que sur la phase de modélisation-simulation ou sur la phase de choix (décision en univers incertain, classification, choix multi-critères…): la recherche opérationnelle a pour objectif l’aide à l‘optimisation par une modélisation mathématique de problèmes courants; le calcul de probabilités a pour objectif l’aide au choix dans les situations de risques calculables; les méthodes de classement ont pour pour objectif de résoudre les dilemmes de choix, qu’ils soient sur un critère, multi-critères ou collectifs; la classification automatique est à la base des nouvelles méthodes utilisées en informatique : fouille de données, analyse textuelle, Intelligence artificielle… 1. La recherche opérationnelle : optimisation, théorie des graphes, programmation linéaire La recherche opérationnelle (R.O.) s’est développée depuis la seconde guerre mondiale, quand l’armée fit appel à des équipes de mathématiciens pour résoudre des problèmes de choix militaires (organisation de convois maritimes, organisation de réseaux de radars…). La théorie des graphes étudie sous forme d’arbres les chemins possibles à travers un réseau constitué de sommets reliés par des d’arêtes: algorithmes du meilleur « flot » dans un graphe, problèmes d’ordonnancement de tâches, de réseaux de transport, de chemin optimal PERT, de planning, d’optimisation de flux… La programmation linéaire est utilisée pour les problèmes d’affectation, il s’agit de maximiser une fonction objectif en respectant des contraintes de ressources : résolution de systèmes d’équations et d’inéquations linéaires, méthode du simplexe… 2. Le calcul des probabilités : la décision bayésienne, les files d’attente, la simulation L’aide à la décision en univers incertain est basée sur le calcul de probabilités. Dans la théorie bayésienne de la décision, l’objectif est de choisir l’action qui maximise l’espérance de gains en fonction des probabilités sur « l’état du monde ». On considère ici que nos décisions combinent un calcul des probabilités avec une estimation de la valeur probable et des conséquences de nos choix (probabilité conditionnelle / probabilité totale : si je choisis le café plutôt que le chocolat qui a une probabilité p de donner la migraine, je dois reconsidérer mon choix en apprenant que le café est aussi un antidépresseur avec une probabilité p’). La théorie des files d’attente modélise par des lois de probabilités (Gauss, Poisson, Exponentielle…) les fréquences d’arrivée des clients dans une queue et les temps d’exécution d’un service rendu par le fournisseur. La simulation de Monte-Carlo, quand on ne connait pas une loi probabilité, consiste à simuler un échantillon pseudo-aléatoire qui respecte les densités de fréquences connues dans le passé. Sur cet échantillon fictif on peut alors faire une approximation de l’espérance mathématique ou bien se contenter de tester plusieurs choix possibles. 3. Les méthodes de classement : critères de choix, choix multi-critères, choix collectifs Même en ne considérant que la rationalité calculatoire au niveau du choix, il reste encore de nombreux critères possibles. Par exemple si on envisage plusieurs alternatives, chiffrées dans différentes hypothèses : selon le critère de Laplace il est raisonnable de considérer les éventualités comme équiprobables si on a peu d’information, il faut alors adopter l’alternative qui rapporte « le meilleur » des résultats (par une moyenne arithmétique dans chacune des hypothèses) ; selon le critère MiniMax, dit critère de Wald, il faut minimiser les pertes maximales, c’est l’option pessimiste. Pour chaque alternative on envisage les plus mauvaises conditions de réalisation et on choisi « la moins pire », l’alternative qui coûterait le moins; selon le critère de Savage, on construit une matrice des regrets : pour chaque alternative et dans chaque hypothèse, on affecte un regret calculé comme un manque à gagner (différence entre le résultat qui aurait pu être obtenu dans la meilleure hypothèse possible et le résultat de l’hypothèse sélectionnée). C’est sur ces regrets qu’on applique alors le critère MiniMax : il s’agit ici de regretter le moins possible mais dans le pire des cas ; selon le critère de l’espérance mathématique, il faut affecter une probabilité de réalisation aux différentes alternatives (par analyse ou par sentiment personnel) et faire alors un calcul de moyenne, pondérée par ces probabilités subjectives. Le meilleur choix serait donc celui qui obtient le meilleur rapport résultats/chances de réussite. Les méthodes de choix multicritères dépassent la simple analyse coûts/bénéfices d’une fonction économique unique : en réalité il y a rarement un seul critère et lorsqu’il y a plusieurs objectifs il est impossible de les atteindre tous à la fois. B. Roy parle alors d’une « approche du surclassement de synthèse, acceptant l’incomparabilité » : on ne peut comparer les alternatives que deux à deux et on vérifie si, selon certaines conditions préétablies, l’une des deux alternatives surclasse l’autre et à quel degré. On tente ensuite une synthèse à partir de toutes ces comparaisons multiples. La théorie des choix collectifs a pour objectif d’agréger un ensemble de préférences individuelles en un ensemble de préférences sociales : classement des candidats à une élection, classement global de différents projets, réponse à un appel d’offre… à la suite du paradoxe de Condorcet sur la transitivité des choix individuels mais sur la non-transitivité d’une majorité (A>B, B>C… mais C>A) et sous l’hypothèse que les individus n’expriment que des préférences (un simple classement, mais sans notations), le théorème de K. Arrow démontre l’impossibilité d’une procédure d’évaluation collective qui respecterait les quatre conditions : universalité (absence de restriction pour chacun), non-dictature (pas d’imposition par un individu), unanimité (une option unanimement préférée est collectivement classée devant), indifférence aux options non pertinentes (choix entre A et B, sans option sur C). Il y aura donc toujours des situations problématiques et aucune règle de vote n’échappe à la critique; en analysant notamment les élections aux USA, D. Saari montre que traiter les problèmes séparément (paire par paire) fait perdre des informations dans le processus d’agrégation de données : il faudrait garder une trace de la rationalité des individus dans le processus d’agrégation et cela serait possible avec les classements par points. 4. La classification automatique, pour la fouille de données Dans la fouille de données ou Datamining, on cherche des structures particulières sur un large échantillon, ce qui peut permettre de faire apparaitre des relations et donc de faire des prévisions: déclencher une alerte suivant certains signaux reçus par des capteurs, accorder un prêt bancaire suivant la classe d’appartenance d’un client, détecter une fraude suivant certaines anomalies… Les méthodes de classification automatique ont pour but d’identifier les classes auxquelles appartiennent des données (objets, individus, images, textes…) à partir de certains traits descriptifs. On parle de régression quand les variables sont quantitatives et de clustering quand les variables sont qualitatives. Dans la classification supervisée toutes les observations doivent d’abord être « étiquetées » selon un ensemble d’attributs (par exemple pour un patient, des symptômes et des mesures) et le classement automatique consiste à attribuer une classe à chaque observation. L’analyse factorielle discriminante (AFD) prédit l’appartenance d’une observation à une classe en fonction de variables latentes, formées par des combinaisons linéaires des variables prédictives de départ. La classification ascendante hiérarchique (CAH) classe les observations par un algorithme itératif en partant de l’ensemble de ces observations (à chaque étape, une nouvelle partition agrège les classes « proches » déterminées lors de la partition obtenue à l’étape précédente). Dans la classification non supervisée les observations ne sont pas préalablement étiquetées. Ici nous sommes plutôt en « apprentissage peu supervisé », puisqu’on cherche d’abord à déterminer automatiquement des paramètres discriminants d’une bonne segmentation sur des données d’entrainement (à partir du choix de variables cibles), ce qui permettra ensuite de prédire les valeurs de ces cibles pour les nouveaux arrivants (par exemple pour détecter une anomalie, une faille, une fraude…). Dans la méthode des k plus proches voisins (k-NN k-nearest neighbor) on attribue à une nouvelle observation la même classe que celle des k plus proches observations qui appartiennent à l’ensemble initial (« les plus proches » sont définies avec une fonction de distance et « la même classe« est par exemple la classe majoritaire, voir cet exemple). Dans la méthode des k-moyennes (k-means, nuées dynamiques) le partitionnement par agrégation se fait autour de centres mobiles (distance d’un point à la moyenne des points de son groupe). Dans la méthode des forêts d’arbres de décision on descend dans un arbre des règles selon les réponses à différents tests pour l’observation considérée, mais il s’agit de choisir automatiquement les tests à chaque nœud ainsi que l’élagage optimal de l’arbre; CART est un des algorithmes les plus connus. Construire et utiliser un arbre de décision Quelle méthode employer lorsque vous devez choisir entre plusieurs alternatives ? L'arbre de décision est en ce sens un outil bien pratique. Surtout lorsque la complexité de la situation requiert une analyse approfondie des options pour faire le bon choix. Cet outil offre uploads/Management/ option-pour-la-prise-de-decisions.pdf
Documents similaires
-
18
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Attribution requise- Détails
- Publié le Nov 18, 2021
- Catégorie Management
- Langue French
- Taille du fichier 0.1383MB