1 Cognition et connaissance Objectifs de l’enseignement Les étudiants devront s

1 Cognition et connaissance Objectifs de l’enseignement Les étudiants devront savoir expliquer, savoir décrire comment fonctionne une inférence ontologique, comment fonctionne un raisonnement analogique, devront savoir présenter les différentes facettes d’un problème d’ingénierie des connaissances. Les étudiants doivent aussi à travers ce module savoir comment faire une bonne gestion des connaissances au niveau d’une organisation. Chapitre 1 introduction à l’intelligence Artificielle 1.1 Historique de l’IA Les recherches en intelligence artificielle (IA) visent à concevoir et à développer des logiciels capables d’effectuer des tâches qui requièrent une certaine forme d’intelligence humaine. Plusieurs techniques ont été développées permettant de programmer des systèmes capables, dans une certaine mesure, de raisonner, d’apprendre, de planifier, de prendre des décisions rationnelles dans plusieurs domaines ou de comprendre ou de parler un langage naturel. Les technologies actuelles issues de l’intelligence artificielle comprennent les interfaces vocales, les systèmes experts, les robots mobiles et les assistants intelligents sur le Web. Pour concevoir des systèmes dits intelligents, capables de traiter des problèmes difficilement résolubles d’une manière similaire à celle qu’adopterait l’être humain. La mise en application de l’intelligence artificielle exige des connaissances de la perception, du raisonnement, du traitement des informations et de l’apprentissage. 2 Plusieurs pays, comme les Etats Unis, la Chine, l’Angleterre, l’Allemagne et la France, ont déjà investi des sommes considérables pour la recherche et le développement des systèmes intelligents dans différents domaines tel que la médecine, l’économie, l’industrie et beaucoup d’autre... Tout commence vers la fin des années 40, l’idée de faire le lien entre le fonctionnement des machines et des êtres humains. L’objectif ultime de Norbert Wiener, pionnier de la cybernétique, était d’allier différents domaines qui sont les mathématiques, l’électronique et l’automatisation tout en conjuguant la dimension animale. Ce projet avait déjà été entamé par les scientifiques Warren McCulloch et Walter Pitts en créant le tout premier neurone biologique modélisé mathématiquement par un neurone formel. Donald Hebb, neuropsychologue, invente en 1949, la règle du neurone formel doté de capacités d’apprentissages. Selon lui, quand un axone d’une cellule A est assez près d’une cellule B, de manière répétitive, un processus de croissance et de métabolisme de changement se mettent en place, ce qui augmente l’efficacité de ces cellules. En 1950, la logique décimale et la logique binaire se mettent en place dans des machines automatisées, les premiers véritables ordinateurs, qui permettent d’exécuter ce qu’on leur a programmé. Le scientifique qualifie cet effet de « jeu de l’imitation ». Il entame le débat sur le questionnement de la limite entre l’humain et la machine. Entre 1980 et 1990 apparaissent les systèmes experts qui s’appuient sur un « moteur d’inférence », c’est à dire un logiciel qui correspond à un algorithme de simulation des raisonnements déductifs, qui était programmé pour être un miroir logique d’un raisonnement humain. De ce fait, en entrant des données, le moteur fournit des réponses d’un haut niveau d’expertise. - Le système expert DENDRAL, a été conçu dans les années 60 pour aider les chimistes à identifier la structure de molécules organiques. - MYCIN, été un système expert qui permettait d’aider le médecin dans son diagnostic médical. Depuis quelques années, l’Intelligence Artificielle (IA) connaît un regain d’intérêt sans précédent grâce à d’importantes avancées technologiques, notamment dans le domaine de l’apprentissage machine (machine learning), qui étendent les capacités des ordinateurs et accroissent leurs performances dans un grand nombre de domaines (traitement du langage naturel, compréhension de la parole, reconnaissance d’images, robotique, etc.). Ces avancées ouvrent de vastes perspectives en termes d’innovation technologique et d’automatisation. 3 Depuis l’année 2010, un nouvel essor est apparu, il est dû à la collecte de données massives et d’une nouvelle puissance de calcul, c’est le Big Data, ou volumes massifs de données, qui se traduit par une explosion quantitative de données numériques. Il s’agit de stocker un nombre infini d’informations, ou métadonnées, sur une base numérique. 1.2 Apport de l’IA à l’entreprise Les travaux réalisés en IA, symbolique notamment, ont progressivement abouti à des applications pratiques pour les situations de travail, en particulier sous la forme de systèmes dits « experts ». Un système expert est supposé reproduire l’expertise cognitive d’un humain, en particulier ses raisonnements et ses connaissances, dans un domaine particulier. L’expertise est modélisée comme un ensemble de règles de type « si-alors ». Ces systèmes ont été développés dans de nombreux secteurs (médecine, industrie, etc.) avec différentes finalités (diagnostic, résolution de problèmes, prise de décision, etc.). Dès l’an 2010, l’IA suscite une forte attention avec les performances obtenues grâce à l’apprentissage machine (machine learning) et, plus particulièrement, l’apprentissage profond (deep learning) qui repose sur des réseaux de neurones artificiels (approche connexionniste). De façon générale, l’apprentissage machine, parfois appelée apprentissage statistique, consiste à apprendre à une machine à réaliser des tâches (par exemple : reconnaissance d’objets dans des images) en l’entraînant sur des données du domaine concerné (par exemple, des images qui comportent des voitures). Dans ce domaine, on distingue habituellement les algorithmes des modèles d’apprentissage. 4 Un modèle résulte de l’apprentissage qui se construit à partir de l’application des algorithmes aux données utilisées dans la phase d’apprentissage. Ce modèle peut être vu comme un arrangement et une mise en relation mathématique complexe de paramètres ou coefficients. L’apprentissage profond (deep learning), dont on parle beaucoup aujourd’hui, est une technique qui se distingue par l’utilisation de plusieurs couches de réseaux de neurones artificiels qui extraient et traitent de manière successive des informations spécifiques d’une entrée (par exemple, une image). Cette technique n’est pas nouvelle puisque son développement est amorcé à la fin des années 80 avec notamment les réseaux convolutifs, mais a été délaissé entre le milieu des années 90 et 2012 du fait de la difficulté à la faire fonctionner avec les ordinateurs de cette époque, car ils n’étaient pas assez puissants. L’année 2012 est importante, car c’est le moment où ces réseaux de neurones ont permis d’atteindre des performances inédites (dans la reconnaissance vocale et la vision par ordinateur), notamment grâce à l’augmentation importante des capacités de calcul des machines informatiques et la disponibilité de volumes de plus en plus grands de données (Big Data). Cette technique, qui prend une place prépondérante en IA, est de plus en plus utilisée dans la conception d’applications ou de produits (par exemple, les assistants vocaux, les véhicules autonomes, les robots dits « sociaux », ou les systèmes d’analyse d’images comme dans l’imagerie médicale). Enfin, avec les performances atteintes par les machines apprenantes actuelles ressurgit le débat concernant la possible émergence d’une IA générale, autrement dit qui serait la même que celle de l’humain ou la dépasserait « Superintelligence ». Chapitre 2 Rappel sur les bases logiques de l'IA 2.1 Les fondements logiques de l'IA L'Intelligence Artificielle (IA) se propose de modéliser de manière formelle nos connaissances et de simuler nos raisonnements. L'Intelligence Artificielle a, dans de nombreux domaines, utilisé des théories et des méthodes issues d’autres disciplines, en les adaptant à sa propre problématique. Les mathématiques jouent bien sûr un rôle essentiel dans ces 5 développements, apportant notamment une méthodologie générale de formalisation et une approche rigoureuse des concepts. C’est donc dans ce cadre que les liens entre la logique mathématique et l'Intelligence Artificielle se sont établis, faisant apparaître de nombreuses préoccupations communes aux deux disciplines. Très tôt, la logique s’est trouvée étroitement liée à l’informatique, tant au niveau de la conception des machines que de l’informatique théorique. Ce mariage de longue date entre les deux disciplines s’est donc prolongé de façon naturelle avec les développements de l'Intelligence Artificielle. De plus, ces rapports ne s’effectuent pas en sens unique : si la logique a indiscutablement apporté, au départ, des outils et des résultats fondamentaux, mis en place indépendamment de toute considération liée à l’informatique, l'Intelligence Artificielle, à son tour, a mis en évidence un certain nombre de problèmes, liés à la logique. Cela a conduit non seulement à un renouveau de certaines théories logiques, mais parfois même à des développements théoriques entièrement originaux au sein de la logique formelle. C’est donc plutôt comme une suite d’échanges que l’on doit désormais envisager les rapports entre la logique et l’Intelligence Artificielle, de la même façon, par exemple, qu’entre les mathématiques et la physique. Comme nous l’avons dit, de nombreux ponts ont été je tés entre la logique et l’informatique, et ce depuis l’origine de cette dernière. Cependant, si l’IA a poursuivi cette tendance, c’est, dans l’ensemble, pour des raisons très différentes de celles de l’informatique traditionnelle. Les développements logiques en IA ont été davantage motivés par des besoins de formalisations théoriques, rejoignant des préoccupations philosophiques plus anciennes. Deux aspects fondamentaux de la logique en ont fait un outil privilégié dans de nombreux domaines d’IA : son aspect déductif et son aspect représentation des connaissances. Rappelons, sans prétendre être exhaustif, quelques-uns des domaines où la logique intervient en IA. • Aspect déductif : les notions de déduction, d’inférence, de preuve et de raisonnement sont évidemment de première importance en IA. L’étude des multiples types de raisonnements, et notamment les raisonnements de sens commun, est, par exemple, typiquement une préoccupation commune avec la philosophie, uploads/Philosophie/ cours-cognition-et-conn-de-master2isilgsi.pdf

  • 21
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager