Coopération et évaluation cognitive d’agents artificiels pour la supervision Gi
Coopération et évaluation cognitive d’agents artificiels pour la supervision Gilles Dumont d’Ayot, Louise Travé-Massuyès et Joseph Aguilar-Martin LAAS-CNRS, Université de Toulouse, 7, avenue du Colonel Roche, 31077 Toulouse Cedex 4, {gdumont, louise, aguilar@laas.fr} Résumé L’objectif de ces travaux est d’évaluer la plausibilité cognitive de modèles de raisonnement couramment utilisés en Intelligence Artificielle en les mettant en correspondance avec le raisonnement humain, ceci dans des situations de supervision de systèmes dynamiques. Pour cela, un micro-monde lié au domaine de la physique hydraulique est utilisé. Il s’agit en premier lieu de développer des opérateurs artificiels capables de superviser ce processus, chacun dans un “style cognitif” spécifique. Trois types d’agents ont ainsi été mis au point, basés sur le raisonnement qualitatif, la classification à partir d’exemples, et le raisonnement à base de cas. La seconde phase consiste à comparer les séquences d’actions correspondant aux raisonnements d’un opérateur humain et d’un agent artificiel durant la tâche de supervision. Cela est réalisé par l’intermédiaire d’une notion d’intention associée aux actions. Dans un dernier temps, la coopération entre ces trois modes fondamentaux de raisonnement est envisagée. Mots-clés : Supervision de procédés, raisonnement qualitatif, classification à partir d’exemples, raisonnement à base de cas, plausibilité cognitive, intention associée à une action, logique floue. Abstract This work aims at evaluating cognitive plausibility of the main reasoning paradigms proposed by Artificial Intelligence by comparing their outputs to human reasoning in situation of process supervision. For this purpose, a micro-world in the fluids domain is used. Artificial operators able to supervise this process and corresponding to specific « cognitive styles » are then developed. Three types of agents are presented , based on qualitative reasoning principles, classification from examples, and case based reasoning, respectively. In a second phase, the work compares the action sequences corresponding on one hand, to human operators reasoning, and on the other hand to artificial operators reasoning during the process supervision task. This is performed thanks to a notion of intention associated to actions. Finally, the coopération of the three reasoning styles is considered. Keywords : Process supervision, qualitative reasoning, classification from examples, case base reasoning, cognitive plausibility, intention of an action, fuzzy logic. 1. INTRODUCTION La supervision de procédés est mise en œuvre dans plusieurs domaines, tels que les centrales nucléaires, la médecine, la navigation aérienne,… Des erreurs de la part de l’opérateur de supervision peuvent avoir des conséquences graves. Pour limiter ces erreurs, on peut soit automatiser le processus de façon poussée (voire ne plus utiliser d’opérateur humain), ce qui est possible pour des tâches simples et routinières, soit fournir à l’opérateur humain une aide intelligente, ce qui implique une compréhension fine de son raisonnement, aussi bien lorsqu’il y a réussite de l’opération de supervision que lorsqu’il y a des erreurs. En effet, le raisonnement mis en jeu dans la supervision fait appel à divers processus cognitifs : perception, anticipation, buts (diagnostic, prédiction, commande,…), plans pour atteindre un but, prise de décision, retour-arrière. Divers travaux ont été menés afin de modéliser l’activité cognitive d’un opérateur de supervision. On peut citer l’approche KADS [34] qui tente de modéliser la connaissance et l’activité d’expertise quel que soit le domaine, et l’approche de Rasmussen qui propose une modélisation spécifique de l’opérateur en situation de contrôle de procédé [25], et précise les activités selon leur degré d’automatisation. Des travaux ultérieurs ont tenté de palier certaines limitations de ce modèle, notamment grâce à la notion de rétroaction adaptative et de représentation occurente de la situation [13], de mise en correspondance avec des expériences passées [5], et de contrôle contextuel [14]. Cette aide peut s’appuyer naturellement sur des solutions issues de l’Intelligence Artificielle (IA). Nous avons choisi de développer trois types d’opérateurs artificiels, qui chacun possède une caractéristique essentielle du raisonnement humain, et en outre sont complémentaires : • un humain a très souvent tendance à raisonner de manière qualitative, par opposition à un raisonnement numérique. Il est capable d’approximer et simplifier une réalité physique complexe sans utiliser les concepts mathématiques et numériques lourds, voire inaccessibles. Il est alors amené à modéliser de façon imprécise et incertaine, mais dans la grande majorité des situations, la justesse du raisonnement n’en est pas affectée. Ainsi, un opérateur artificiel basé sur un modèle causal de raisonnement qualitatif a été mis au point. • un humain utilise très souvent ses expériences passées, qu’il s’agisse de réussites ou bien d’échecs, afin de résoudre un problème courant, puis apprend à partir de ce problème résolu. Cela consiste généralement à rechercher en mémoire une expérience similaire survenue dans le passé, à adapter cette expérience au contexte présent, à la valider, la réutiliser, puis enfin à la stocker en vue d’une réutilisation future. Dès lors il paraît intéressant de développer un opérateur artificiel basé sur le raisonnement à base de cas. • un humain a une très forte propension à catégoriser, qu’il s’agisse de reconnaître un objet (une forme visuelle, un type de problème, un concept, un événement), ou d’attribuer une propriété à un objet. Ainsi, un opérateur artificiel basé sur la classification a été mis au point. Le but étant de s’approcher au mieux des processus cognitifs du cerveau humain, il est utile de comparer le raisonnement d’un opérateur humain en situation de supervision avec le raisonnement simulé grâce à une technologie d’IA afin d’évaluer la plausibilité cognitive de cette aide [24]. Sachant également que chaque technologie d’IA modélise en général une seule caractéristique du raisonnement humain, il paraît intéressant de vouloir faire coopérer ces diverses technologies afin de s’approcher du raisonnement humain dans ses diverses composantes (voir [9] pour une analyse détaillée de la coopération entre agents). La base de notre étude repose sur un environnement de supervision. Plutôt que de placer l’opérateur dans un environnement industriel réel, par essence très complexe et non contrôlable, ce qui peut rendre très délicate la comparaison entre les raisonnements des opérateurs humain et artificiel, il semble préférable d’effectuer les expérimentations dans un environnement contrôlable, appelé simulateur ou micro-monde. La mise en œuvre d’un micro-monde est soumise à des contraintes : il est important de modéliser un environnement qui soit simple, reproductible, flexible, présente suffisamment de réalisme du point de vue industriel, fasse référence à des phénomènes communs. En outre cet environnement expérimental doit être dynamique, décomposable, non linéaire. Ainsi, nous avons utilisé un micro-monde lié au domaine hydraulique repris de précédents travaux [30] [23]. Il est composé principalement de réservoirs, de conduites reliant les réservoirs et de vannes sur ces conduites. Les paramètres sont les suivants : • Pour chaque réservoir Ti, on donne ses dimensions (hauteur Hi, largeur Li, profondeur Pi), les cotes en x (axe horizontal) et z (axe vertical), et Vi max sa capacité (Vi max = Hi.Li.Pi). En outre, à chaque instant t, on connaît sa hauteur d’eau hi(t), et son volume d’eau Vi(t) = hi(t).Li.Pi. • Pour chaque conduite, on donne son diamètre, sa longueur. On peut placer une vanne Vij sur une conduite reliant les deux réservoirs Ti et Tj. Les vannes ne prennent que deux positions : ouvertes (ON) ou fermées (OFF). Les vannes sont donc les moyens d’action de l’opérateur sur le système. La notion d’alarme d’un réservoir correspond à une situation où le niveau d’eau est proche de la hauteur du réservoir, donc à une situation potentielle de débordement. Il s’agit d’une zone floue chez un humain, mais d’un seuil d’alarme αi définit arbitrairement par une valeur numérique pour les agents artificiels (voir 2.1.) : Vi max – αi.Li.profi = ΔValarme avec ΔValarme un paramètre du modèle représentant une marge en volume avant débordement. Les configurations de réseau envisagées présentent toute un réservoir “source” (dont la cote en z est la plus élevée) et un réservoir “puit” (dont la cote en z est la plus faible). Pour les réservoirs, les hypothèses sont les suivantes : deux réservoirs peuvent être reliés par au plus une conduite, le réservoir “source” et le réservoir “puit” ont la même capacité, et en début de test, tous les réservoirs sont vides sauf le réservoir “source”. Il est possible d’ajouter divers éléments hydrauliques tels que des pompes, des apports ou des fuites aléatoires de fluide, ce qui permet de construire des micro-mondes de degrés de difficultés divers. Un opérateur passe un test de supervision sur ce simulateur, et une consigne est donnée en début de session. Celle-ci reflète les buts à optimiser et les contraintes. Par exemple, une consigne peut être : “ Transférer l’eau du réservoir le plus haut vers le réservoir le plus bas en un minimum de temps et en évitant les débordements des réservoirs intermédiaires, en agissant sur les vannes binaires. ” FIG. 1 — Une configuration du micro-monde Enfin, la mise au point d’un agent artificiel nécessite la définition du pas de temps de calcul ∆t. Ce pas est très variable chez un humain, et d’un humain à un autre. Dans le cadre de la supervision, on peut imaginer que l’observation d’une situation d’urgence constitue un point de focus et il faut agir vite (réduction du pas de temps), quitte à abandonner uploads/Philosophie/ cooperation-et-evaluation-cognitive-d-x27-agents-artificiels-pour-la-supervision.pdf
Documents similaires










-
31
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Attribution requise- Détails
- Publié le Jan 03, 2023
- Catégorie Philosophy / Philo...
- Langue French
- Taille du fichier 0.6798MB