Plan du cours • Algorithmes de recherche • Algorithmes de recherche et heuristi
Plan du cours • Algorithmes de recherche • Algorithmes de recherche et heuristiques • Problème de satisfaction de contraintes • Jeux à deux joueurs minimax, élagage α-β, MCTS Good old fashion AI (GOFAI) M1 Informatique 2018–2019 Intelligence Artificielle– (Stéphane Airiau) Réseaux de Neurones Artificiels 1 Plan du cours • Algorithmes de recherche • Algorithmes de recherche et heuristiques • Problème de satisfaction de contraintes • Jeux à deux joueurs minimax, élagage α-β, MCTS Good old fashion AI (GOFAI) M1 Informatique 2018–2019 Intelligence Artificielle– (Stéphane Airiau) Réseaux de Neurones Artificiels 2 Plan du cours • Algorithmes de recherche • Algorithmes de recherche et heuristiques • Problème de satisfaction de contraintes • Jeux à deux joueurs minimax, élagage α-β, MCTS Good old fashion AI (GOFAI) • Réseaux de neurones • Apprendre un arbre de décision Apprentissage automatique M1 Informatique 2018–2019 Intelligence Artificielle– (Stéphane Airiau) Réseaux de Neurones Artificiels 3 Plan du cours • Algorithmes de recherche • Algorithmes de recherche et heuristiques • Problème de satisfaction de contraintes • Jeux à deux joueurs minimax, élagage α-β, MCTS Good old fashion AI (GOFAI) • Réseaux de neurones • Apprendre un arbre de décision Apprentissage automatique • AlphaGo et AlphaGo-Zéro M1 Informatique 2018–2019 Intelligence Artificielle– (Stéphane Airiau) Réseaux de Neurones Artificiels 4 Plan du cours • Algorithmes de recherche • Algorithmes de recherche et heuristiques • Problème de satisfaction de contraintes • Jeux à deux joueurs minimax, élagage α-β, MCTS Good old fashion AI (GOFAI) • Réseaux de neurones • Apprendre un arbre de décision Apprentissage automatique • AlphaGo et AlphaGo-Zéro • Intelligence Artificielle et Ethique M1 Informatique 2018–2019 Intelligence Artificielle– (Stéphane Airiau) Réseaux de Neurones Artificiels 5 Apprentissage Automatique Apprentissage supervisé : on a des exemples (beaucoup !) et une étiquette pour chaque exemple on veut utiliser un algorithme pour faire ensuite de la prédiction pour l’étiquette : on donne un exemple, il faut devinier l’étiquette Apprentissage non supervisé : on a des exemples, mais pas d’étiquette clustering ´ découvrir une structure cachée dans les données apprentissage par renforcement : un agent interagit avec un environnement il reçoit une observation et un signal qui dépendent de l’action exécutée par l’agent ´ le but est de maximiser ce signal M1 Informatique 2018–2019 Intelligence Artificielle– (Stéphane Airiau) Réseaux de Neurones Artificiels 6 Apprentissage Automatique Apprentissage supervisé : cours AFD, puis en M2-ID, M2 ISI on a des exemples (beaucoup !) et une étiquette pour chaque exemple on veut utiliser un algorithme pour faire ensuite de la prédiction pour l’étiquette : on donne un exemple, il faut devinier l’étiquette Apprentissage non supervisé : on a des exemples, mais pas d’étiquette clustering ´ découvrir une structure cachée dans les données apprentissage par renforcement : cours en M2 ISI un agent interagit avec un environnement il reçoit une observation et un signal qui dépendent de l’action exécutée par l’agent ´ le but est de maximiser ce signal Dans ce cours, on va voir deux exemples d’apprentissage supervisé arbres de décision réseaux de neurones M1 Informatique 2018–2019 Intelligence Artificielle– (Stéphane Airiau) Réseaux de Neurones Artificiels 7 Apprentissage supervisé on a un ensemble d’exemples on a une étiquette pour chaque exemple un exemple : données médicales sur un patient étiquette : est-ce que ce patient est atteint par une maladie X ? apprendre : pas apprendre "par coeur" ´ on voudra utiliser ce qu’on apprend pour de la prédiction sur un exemple jamais vu, on devra deviner l’étiquette ´ l’apprentissage doit permettre de généraliser au delà des exemples donnés ´ comment valider une méthode ? M1 Informatique 2018–2019 Intelligence Artificielle– (Stéphane Airiau) Réseaux de Neurones Artificiels 8 Réseaux de Neurones Artificiels M1 Informatique 2018–2019 Intelligence Artificielle Stéphane Airiau LAMSADE M1 Informatique 2018–2019 Intelligence Artificielle– (Stéphane Airiau) Réseaux de Neurones Artificiels 9 S’inspirer du cerveau humain pour construire un système Ici, on s’inspire des neurones ´ batir des réseaux de neurones artificiels vieille idée, McCulloch et Pitts ont présenté un modèle mathématique d’un neurone dès 1943. M1 Informatique 2018–2019 Intelligence Artificielle– (Stéphane Airiau) Réseaux de Neurones Artificiels 10 Inspiration le cerveau : réseau interconnecté très complexe de neurones ´ Réseau de Neurones Artificiels (RNA) : réseau densémment connecté de simples unités de calcul le cerveau ≈1011 neurones chaque neurone est connecté à 10,000 autres neurones le temps de réaction d’un neurone est autour de 10−3s (lent par rapport à un ordinateur) 0.1s pour réaliser une tâche de reconnaissance (ex : montre la photo d’une personnalité ou d’un ami) ´ au plus quelques centaines d’étapes pour le calcul. ´ calcul vraissemblablement massivement parallèle réseaux de neurones pour comprendre mieux le cerveau humain réseaux de neurones comme source d’inspiration pour un méchanisme d’apprentissage efficace M1 Informatique 2018–2019 Intelligence Artificielle– (Stéphane Airiau) Réseaux de Neurones Artificiels 11 Réseau de neurones domaine de recherche ancien ex dès 1993, un RNA a été utilisé pour gérer le volant d’une voiture roulant sur une autoroute (aux Etats Unis) input : images d’une caméra avec une résolution de 30x32 pixels ´ chaque pixel est connecté à un neurone d’entrée 4 neurones cachés 30 neurones pour la sortie (un neurone va correspondre à un angle du volant) M1 Informatique 2018–2019 Intelligence Artificielle– (Stéphane Airiau) Réseaux de Neurones Artificiels 12 Situations pour utiliser un RNA entrée est un vecteur de large dimension de valeurs discrètes ou continues (e.g. sortie d’un capteur) la sortie est discrète ou continue la sortie est un vecteur de valeurs les valeurs d’entrées peuvent avoir du bruit (ou contenir des erreurs) on n’a pas d’hypothèse sur la fonction à apprendre il n’y a pas besoin qu’un humain puisse lire le résultat (par ex pour le vérifier ou comprendre ce qui est appris) un temps d’apprentissage long est acceptable l’utilisation du RNA est rapide Exemples : Apprendre à reconnaître des sons Classification d’images Prédictions financiaires M1 Informatique 2018–2019 Intelligence Artificielle– (Stéphane Airiau) Réseaux de Neurones Artificiels 13 Deep Learning Coloration d’images en noir et blanc Traduction automatique classification d’objets dans des photos Game Playing. M1 Informatique 2018–2019 Intelligence Artificielle– (Stéphane Airiau) Réseaux de Neurones Artificiels 14 Modèle d’un neurone : le perceptron P −10 −5 5 10 −0.4 −0.2 0.2 0.4 aj a0 a1 ai−1 ai w1,j w2,j ... wi−1,j wi,j Σ −10 −5 5 10 −0.4 −0.2 0.2 0.4 Σ −10 −5 5 10 −0.4 −0.2 0.2 0.4 Σ −10 −5 5 10 −0.4 −0.2 0.2 0.4 Σ −10 −5 5 10 −0.4 −0.2 0.2 0.4 Agrégation des inputs i X i=0 wi,jai Fonction d’activation Output M1 Informatique 2018–2019 Intelligence Artificielle– (Stéphane Airiau) Réseaux de Neurones Artificiels 15 Modèle d’un neurone : le perceptron P −10 −5 5 10 −1 −0.5 0.5 1 aj a0 a1 ai−1 ai w1,j w2,j ... wi−1,j wi,j Σ Σ Σ Σ Agrégation des inputs i X i=0 wi,jai Fonction d’activation Output Fonction d’activation : fonction de Heaviside perceptron représente un hyperplan − → w ·− → x = 0 et les instances d’un côté de l’hyperplan seront positives et négatives de l’autre on peut représenter des fonction booléennes avec un seul perceptron, mais pas toutes (XOR). avec un réseau de perceptrons, on peut représenter toutes les fonctions booléennes M1 Informatique 2018–2019 Intelligence Artificielle– (Stéphane Airiau) Réseaux de Neurones Artificiels 16 Apprendre pour un perceptron on doit apprendre les poids wi entre les entrées 1,2,...,n et le perceptron. on peut commencer par des poids pris au hasard on présente une série d’instances et on corrige les poids après chaque erreur t est la vraie classification de la sortie o est la sortie générée par le perceptron xi est l’état de l’entrée numéro i wi ←wi +∆wi où ∆wi = η(t−o)xi η est le taux d’apprentissage (une petite valeur comme 0.1 est habituellement utilisée) si les données peuvent être apprises par un perceptron (on dit que les données sont alors linéairement séparables), ce simple algorithme converge. M1 Informatique 2018–2019 Intelligence Artificielle– (Stéphane Airiau) Réseaux de Neurones Artificiels 17 Apprendre pour un perceptron linéaire la fonction d’activation est l’identité. Si les données sont linéairement séparables, la méthode précédente converge et sinon ? ´ garantir convergence à la meilleure approximation on va utiliser le principe la descente de gradient (la plus grande pente) L’erreur d’apprentissage est souvent mesurée par E(− → w) = 1 2 X d∈D (td −od)2 où D est l’ensemble de exemples d’apprentissage td est la vraie classification de l’instance d od est la réponse du peceptron pour l’instance d M1 Informatique 2018–2019 Intelligence Artificielle– (Stéphane Airiau) Réseaux de Neurones Artificiels 18 Descente uploads/Science et Technologie/ ia-08-ann.pdf
Documents similaires
-
18
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Attribution requise- Détails
- Publié le Sep 06, 2021
- Catégorie Science & technolo...
- Langue French
- Taille du fichier 0.2059MB