Histoire de l'Intelligence Artificielle 3- naissance de l'Intelligence Artifici

Histoire de l'Intelligence Artificielle 3- naissance de l'Intelligence Artificielle Frédéric Fürst - www.u-picardie.fr/~furst Les années 1940 et 1950 voient l'apparition des premiers véritables ordinateurs. Ils sont Turing complets et électroniques, donc (relativement) rapides. Les entrées/sorties se font par cartes perforées et impression papier. Il n'existe que très peu d'ordinateurs, uniquement dans quelques universités ou grandes entreprises. Ces machines couteuses servent surtout à faire des calculs massifs (statistiques pour l'état, calculs scientifique pour la recherche nucléaire, calculs balistiques pour l'armée, ...). Par exemple, l'UNIVAC I (Universel Automatic Computer) est installé en 1951 au bureau du recensement américain. Les langages de programmation au sens moderne du terme n'existent pas encore : le premier langage évolué, FORTRAN (FORmula TRANslator) ne verra le jour qu'en 1954. La programmation de telles machines est compliquée, très longue. Mais l'apparition des ordinateurs semble rendre possible le rêve de l'IA. Les deux approches de l'IA vont émerger dans les années 1940 : le connexionnisme et le cognitivisme. La machine ORACLE (Oak Ridge Automatic Computer and Logical Engine) est développée en 1954 au laboratoire de recherche nucléaire d'Oak Ridge. L'informatique n'existe pas encore : les spécialistes des ordinateurs sont essentiellement des mathématiciens, ou des électroniciens. De 1942 à 1953, une dizaine de conférences Macy (du nom d'une fondation consacrée à la santé) vont se tenir à New York et réunir des mathématiciens, des neurologues, des psychologues ou des économistes avec pour but de dégager les principes de la cybernétique. Ces conférences vont surtout montrer à quel point l'esprit humain est une terra incognita. Paradoxalement, alors que la modélisation globale de l'esprit comme boite noire n'aboutit pas, certains participants à la conférence vont obtenir des résultats concernant la modélisation des constituants de base du cerveau, les neurones. Norbert Wiener (1894-1964), mathématicien, lance dans les années 1940 la cybernétique, comme science du fonctionnement de l'esprit humain. Wiener veut modéliser l'esprit comme une « boite noire » dotée d'un comportement dépendant de mécanismes de rétroaction (feedback). Warren McCulloch (1898-1969), et Walter Pitts (1923-1969), neurologues, inventent en 1943 le premier modèle mathématique du neurone biologique, le neurone formel. Une nouvelle approche émerge : le connexionisme. Puisqu'il semble hors de portée de modéliser le comportement global du cerveau, McCulloch et Pitts proposent de reproduire dans une machine le fonctionnement interne du cerveau humain. Mais cette approche postule que le cerveau et l'architecture de ses centaines de milliards de cellules est mathématiquement modélisable, et qu'il puisse exister un ordinateur assez puissant pour faire tourner un tel modèle. Un neurone formel modélise mathématiquement un neurone biologique Donald Hebb (1904-1985), neuropsychologue, invente en 1949 la règle qui porte son nom et permet de doter les neurones formels de capacités d'apprentissage : When an axon of cell A is near enough to excite B and repeatedly or persistently takes part in firing it, some growth process or metabolic change takes place in one or both cells such that A’s efficiency, as one of the cells firing B, is increased (The Organization of Behavior, 1949) Ce principe qui explique la mémoire va être formalisé comme un processus de rétroaction dans les réseaux de neurones formels. Mais cette approche « par le bas » (simuler le cerveau pour reproduire la pensée) semble moins prometteuse que l'approche « par le haut » (simuler la pensée en tant que manipulation symbolique). Le cognitivisme considère que la pensée peut être décrite à un niveau abstrait comme manipulation de symboles, indépendamment du support matériel de cette manipulation (cerveau, machine électronique, etc). Cette approche établit un lien entre la pensée et le langage (système de symboles). Une approche « par le haut » du cognitivisme consiste à permettre aux machines de manipuler le langage, en supposant que cela les rendra intelligentes. En 1949, Warren Weaver (1894-1978) écrit un mémorandum où il spécule, à la suite de Leibniz, sur l'existence de règles linguistiques communes à toutes les langues et veut appliquer ce principe à la traduction automatique sur ordinateur. En 1954, un premier programme, écrit à l'université de Georgetown permet de traduire plusieurs dizaines de phrases simples. Le programme utilise 250 mots et seulement 6 règles de grammaire et tourne sur un IBM 701. Exemples : Mi pyeryedayem mislyi posryedstvom ryechyi → We transmit thoughts by means of speech Vyelyichyina ugla opryedyelyayetsya otnoshyenyiyem dlyini dugi k radyiusu → Magnitude of angle is determined by the relation of length of arc to radius Dans le contexte de la guerre froide, la traduction automatique du russe en anglais ou de l'anglais au russe parait cruciale. Des crédits sont rapidement alloués aux recherches sur la traduction automatique (aussi bien aux USA qu'en URSS). Les premiers travaux visent la traduction directe, presque mot à mot, à l'aide de dictionnaires bilingues et de règles simples. Les problèmes de polysémie (amateur, blanc) ou d'homonymie (mousse, avocat, …) apparaissent très rapidement. La traduction directe de The spirit is willing but the flesh is weak (l'esprit est fort mais la chair est faible), après un aller-retour anglais-russe- anglais, devient The vodka is strong but the meat is rotten (la vodka est forte mais la viande est pourrie). L'approche cognitiviste « par le bas » consiste à représenter dans la machine les mécanismes de la pensée, indépendamment de tout langage à l'aide de la logique. Le premier système logique de reproduction du raisonnement humain est le Logic Theorist de Newell et Simon. Herbert Simon (1916-2001) étudie l'économie à Chicago et y obtient son doctorant en science politique en 1943. Simon cherche à comprendre comment les individus prennent des décisions, en particulier dans le cadre des organisations. Simon introduit la notion de rationalité limitée : la rationalité d'un individu est limitée par son environnement, son histoire et par le manque d'information nécessaire à la prise de décision (Administrative behavior, 1947). A partir de 1949 il travaille à l'université Carnegie-Mellon de Pittsburg sur le comportement des acteurs économiques et l'utilisation des ordinateurs pour à la fois comprendre et aider la prise de décision. Simon recevra le prix Nobel d'économie en 1978, mais également le prix Turing en 1975, conjointement avec Allen Newell. Allen Newell (1927-1992), après un Bachelor of Science en physique à Stanford, rejoint Princeton en 1949 pour mener une thèse en mathématiques. Durant ses études, il a été fortement influencé par le mathématicien hongrois Georges Polya (1887-1985), qui avait introduit la notion d'heuristique pour la résolution de problème (How to solve it, 1945). Une heuristique (du grec eurisko, je trouve) est une méthode empirique de résolution de problème, dont la validité ou l'efficacité n'est pas prouvée. Exemples : protéger la reine aux échecs, choisir la caisse où la file est la plus courte, ... Trouvant finalement les mathématiques trop abstraites, Newell accepte en 1950 un poste à la RAND Corporation de Santa Monica, pour mener des travaux plus concrets, sur l'aéronautique de défense notamment. Simon est également consultant à la RAND (Research ANd Development) association de recherche à but non lucratif mais liée au complexe militaro- industriel américain. La RAND, créée pour étudier la mise au point d'un satellite artificiel, va peu à peu étendre ses travaux à l'informatique, l'économie, la géopolitique, etc. Les idées de Simon et de Newell convergent : La rationalité limitée de Simon implique que la prise de décision repose sur des procédures permettant de palier aux manques d'information en tenant compte du contexte. Pour Newell, ces procédures sont des heuristiques. Simon et Newell considèrent que la condition nécessaire et suffisante pour qu'une machine puisse faire preuve d'intelligence est qu'elle soit un système physique de symboles. Mais ils mettent au coeur de leurs travaux la notion d'heuristique : être intelligent, c'est aussi être capable de construire des heuristiques, de les tester, de les faire évoluer. Aidés par un programmeur de la RAND, Cliff Shaw, ils développent Logic Theorist en 1956, un programme de démonstration automatique de théorème (voir l'article The logic theory machine: A Complex Information Processing System, 1956). Newell et Simon s'inspirent des Principia Mathematica de Russel et Whitehead, des mathématiciens de Cambridge qui ont tentés de fonder toutes les mathématiques sur des bases logiques. Logic Theorist utilise les connecteurs logiques NON (noté ¬) et OU (noté v). L'implication (notée =>) se construit à partir d'eux car P => Q équivaut à ¬ P v Q. Logic Theorist contient 5 axiomes : (P v P) => P (idempotence du OU) P => (Q v P) (P v Q) => (Q v P) (commutativité du OU) (P v (Q v R)) => (Q v (P v R)) (associativité du OU) (P => Q) => ((P v R) => (Q v R)) Deux règles d'inférences sont utilisées : Règle de substitution : si A(P) est une formule vraie contenant la variable P, alors quelque soit la formule B, A(B) est une formule vraie. Regle de détachement : si A est une formule vraie et A => B est une implication vraie, alors B est une formule vraie. Comment Logic Theorist démontre t-il que (P => ¬ P ) => ¬ P ? Il part du premier axiome : (P v P) => uploads/Philosophie/ 3-naissance-ia.pdf

  • 19
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager