AMCP_294 / DOSSIER / MISE AU POINT Principes généraux et définitions en Intelli

AMCP_294 / DOSSIER / MISE AU POINT Principes généraux et définitions en Intelligence Artificielle General principles and definitions in Artificial Intelligence O. Pallanca a,b, J. Read a a. Laboratoire d'Informatique (LIX), Ecole Polytechnique, Institut Polytechnique de Paris, 5 avenue Le Chatelier, 91764 Palaiseau France b. Département de Neurophysiologie et de pathologies du sommeil, Hôpital de la Pitié- Salpêtrière, 47-83 boulevard de l’Hôpital, 75013 Paris, France. olivier.pallanca@polytechnique.edu Encadré : Sciences et technologies permettant d’imiter, d’étendre et/ou d’augmenter l’intelligence humaine avec des machines. Il est évidemment illusoire de pouvoir résumer l’Intelligence Artificielle en quelques pages, si tant est que les auteurs aient tout compris à cette discipline, ce qui là aussi est illusoire. Le but est plutôt de donner un angle de vue partagé par un professionnel et enseignant du domaine et d’un médecin s’étant immergé dans la problématique afin d’essayer d’éclairer les principaux concepts. Plutôt que de faire un listing de tous les algorithmes disponibles qui resterait opaque, nous avons préféré donner une vision globale pour comprendre justement d’où viennent les algorithmes. Des références utiles seront données pour ceux qui veulent aller plus loin et dans le détail. Sciences et technologies permettant d’imiter, d’étendre et/ou d’augmenter l’intelligence humaine avec des machines. L’intelligence artificielle Le nom «Intelligence Artificielle» fut proposée en 1956 par John McCarthy [1]. Il recouvre les sciences et technologies qui permettent d’imiter, d’étendre et/ou d’augmenter l’intelligence humaine avec des machines. Ce terme, toujours sujet à débat sur sa sémantique, était plus une déclaration d’intention pour la création d’une nouvelle discipline qui voulait se différencier de © 2020 published by Elsevier. This manuscript is made available under the Elsevier user license https://www.elsevier.com/open-access/userlicense/1.0/ Version of Record: https://www.sciencedirect.com/science/article/pii/S1261694X20302510 Manuscript_9152a25d17651be949bcd23125495799 champs plus formalisés comme les mathématiques ou l’informatique qu’une véritable science aboutie. En effet, le champ de l’intelligence artificielle fait appel à de nombreuses disciplines qui ont aidé à en façonner les aspects théoriques et pratiques. Les principales disciplines imbriquées mériteraient chacune un article pour en dégager le concept (Fig. 1). Ce premier constat sur l’hétérogénéité des origines de l’intelligence artificielle donne un aperçu de la complexité à en dessiner les contours qui rend vaine toute tentative de définition unique. Le terme Intelligence artificielle correspond plus à une volonté performative de simplification qu’une réalité concrète, et par là-même porte en lui-même une certaine confusion. On s’aperçoit que le champ est tellement large que différents systèmes de réflexions et donc de pensées se sont construit en parallèle pour répondre à cette question. En fonction de l’angle posé, les disciplines schématisées sur la figure 1 vont avoir une importance variable. Une, cependant, sera toujours au cœur de la mise en œuvre et de l’architecture pratique, l’informatique, dont l’essor a été le principal catalyseur de la mise en production des algorithmes dont certains ont été imaginés dès les années 1960. Certains auteurs, piliers du domaine, ont cependant essayé de définir ce concept. Selon Russel et Norvig [2], quatre type de système de pensées permettent de circonscrire le problème posé par la définition du champ de l’intelligence artificielle. En effet, la problématique est de définir ce que recouvre l’intelligence et ce qui peut être considéré comme une imitation de cette intelligence. Le premier système est celui qui considère que l’intelligence artificielle doit conduire à penser humainement. Le but est de donner aux ordinateurs la capacité de penser comme un humain. On l’appelle aussi approche cognitive, ce qui revient à donner aux machines la capacité de penser dans le sens plein et littéral en s’inspirant de la pensée humaine. Cela nécessite de déterminer comment les humains pensent et fait donc appel aux sciences cognitives. Ainsi, cette approche interdisciplinaire de la science cognitive réunit des modèles informatiques issus de l’intelligence artificielle et des techniques expérimentales de la psychologie pour tenter de construire des théories précises et vérifiables du fonctionnement de l’esprit humain. Le deuxième système est celui de la loi de la pensée ou comment penser rationnellement. Ce système originellement formulé par Aristote (Logique aristotélicienne et pensée formelle) traite de la forme des raisonnements, indépendamment de leurs contenus ou des objets sur lesquels ils portent. Ces lois de la pensée sont censées gouverner le fonctionnement de l’esprit et ont initié le champ de la logique. Le développement de la logique formelle a fourni une notation précise pour les formulations sur toutes sortes de choses dans le monde et leurs interrelations. Dès les années 1960, il existait des programmes qui pouvaient, avec suffisamment de temps et de mémoire, décrire un problème en notation logique et trouver la solution au problème, s’il existe... (S’il n’y a pas de solution, le programme pourrait ne jamais arrêter de le chercher). Le troisième système est celui de de l’agent rationnel (agir rationnellement). En effet, le champ de l’intelligence artificielle comprend l’étude et la construction d’« agent intelligent ». Ce que l’on appelle « agent intelligent » est un système qui est capable de percevoir son environnement et de prendre des décisions qui optimisent ses chances de réussite dans l’exécution d’une tache. Un agent peut être représenté/défini par une fonction (F), qui accepte une perception du monde et décide sur une action à prendre (Fig. 2). Pour être considéré un agent intelligent (c.a.d., intelligence artificielle), il faut prendre en compte les éléments suivants : 1. Perception, 2. Représentation de la connaissance, 3. Raisonnement, 4. Planification, 5. Apprentissage. Les éléments1,2 et 3 sont les prérequis minimaux pour pouvoir réussir une tâche. Donc, un agent perçoit son environnement et encode cette perception grâce à une représentation particulière (par exemple un vecteur) qu’il va comparer ensuite avec une base de connaissance (de la même représentation). Ensuite, il raisonne avant de décider de l’action à réaliser. Mais, sans l’apprentissage, l’agent ne sera pas capable de s’adapter ou de s’améliorer dans son environnement et sera limité à quelques règles codifiées par un être humain sur un modèle purement déterministe. De même, sans la planification, il ne lui sera pas possible d’avoir une vision à long terme. De plus, quand on parle de « réussite » dans une tache, on peut parler plus spécifiquement d’une fonction de perte/erreur (à minimiser) ou de performance (à maximiser). C’est crucial - mais pas toujours évident - de définir la tâche selon nos intuitions et notre morale. Par exemple, si un agent doit prendre des décisions pour minimiser la mortalité globale (nombre de vies perdues) dans un hôpital d’enfants prématurés, l’agent pourrait logiquement suggérer de prioriser les prématurés de sexe féminin après avoir déduit que c’était ceux qui avaient le plus de chance de survie, ce qui évidemment poserait un problème éthique ! Quoi qu’il arrive, l’humain doit rester derrière l’agent intelligent pour comprendre ses décisions. Le quatrième système est celui qui propose à l’ordinateur d’agir humainement. Cette vision conduit à l’étude des ordinateurs pour faire des choses qui, à l’heure actuelle, sont mieux réalisées par les humains. Cette école de pensée a commencé avec Alan Turing en 1950 [3], quand il a publié son document « Machines informatiques et intelligence » dans lequel il a défini ce que nous appelons le test de Turing ou le jeu d’imitation qui est schématisé sur la figure 3. Turing définit le comportement intelligent comme la capacité d’égaler la performance humaine dans toutes les tâches cognitives, suffisante pour tromper un interrogateur. Cependant pour atteindre cet objectif l’ordinateur doit posséder dans sa programmation les capacités suivantes : • Traiter le langage naturel (NLP) pour lui permettre de communiquer avec succès ; • Traiter les connaissances et la représentation des connaissances pour stocker ce qu’il sait ou entend ; • Avoir une représentation automatisée, c’est-à-dire un raisonnement automatisé pour utiliser l’information stockée pour répondre aux questions et tirer de nouvelles conclusions ; • Gérer l’apprentissage automatique pour s’adapter à de nouvelles circonstances et pour détecter et extrapoler des modèles. Si l’ordinateur doit rentrer en interaction avec l’examinateur, il doit posséder deux caractéristiques supplémentaires : • la vision par ordinateur qui doit lui permettre de reconnaître des objets, • la robotique qui lui permet de manipuler et bouger des objets. Ces six disciplines constituent la plupart des champs étudiés dans l’intelligence artificielle. Cependant, ce test de Turing n’est pas souvent proposé. La question d’agir comme un humain se pose principalement quand les programmes d’intelligence artificielle doivent interagir avec les gens, comme quand un système expert explique comment il est arrivé à son diagnostic, ou un quand un système de traitement du langage naturel fournit un dialogue avec un utilisateur. C’est précisément ce genre de tâche qui sera demandé dans le champ de la médecine. Cependant, ces approches ont été bousculées par l’avènement récent de l’apprentissage profond qui, grâce à la puissance informatique qui double tous les 18 mois depuis les années 1960 grâce à la performance croissante des semi-conducteurs, a autorisé une approche algorithmique non centrée sur la logique ou le raisonnement mais sur l’analyse de grandes quantités de données pour en extraire un sens caché à l’humain et correspond maintenant à deux manières d’aborder l’intelligence artificielle, le connexionnisme et le symbolisme. Les connexionnistes se focalisent sur la perception. Les techniques uploads/Philosophie/ pallanca-2020-principes-generaux-et-definitions-en-intelligence-artificielle.pdf

  • 29
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager