Chapitre II Réseaux de Neurones Artificiels Cours : Techniques de l’Intelligenc
Chapitre II Réseaux de Neurones Artificiels Cours : Techniques de l’Intelligence Artificielle 17 Dr. BEKAKRA Youcef Chapitre II : Réseaux de Neurones Artificiels II.1. Introduction : Le cerveau humain est un modèle dans le développement de l'intelligence artificielle. De simples enchevêtrements de neurones lui donnent toutes ses capacités, et c'est ce que tentent de reproduire les chercheurs grâce à l'électronique. L'intelligence artificielle est en continuelle progression depuis l'invention de l'ordinateur et l'utilisation de programmes informatiques. Il existe en effet de nombreux programmes capables de réaliser des choses de plus en plus complexes: diriger un robot, résoudre des problèmes... Mais ils sont très rarement capables de rivaliser avec le cerveau humain, et c'est pour cela que de nombreuses taches sont encore irréalisables par les ordinateurs. D'où vient cette différence ? La première chose est évidemment la capacité de calcul, le cerveau est une machine assurément incroyable. Cependant, les ordinateurs n'ont pas cette faculté d'apprentissage, ils ne connaissent pas le progrès si personne ne les modifie. Voila le challenge pour l'intelligence artificielle: savoir apprendre. D'un autre côté, la biologie a apporte un grand nombre d'informations sur le fonctionnement du cerveau, des neurones... Des mathématiciens alors ont tente de reproduire le fonctionnement du cerveau en intégrant ces connaissances en biologie dans des programmes informatiques, et en leur donnant la possibilité d'apprendre. Cela a commencé en 1943 avec Mc Culloch et Pitts, mais en 1969, Minsky et Papert publièrent un livre pour montrer que le type de réseau élaboré à l'époque était limité. Heureusement, des progrès ont pu être réalisés par la suite. Ces recherches sur les "réseaux de neurones artificiels" ont maintenant beaucoup progressées. II.1. Historique : 1890 : W. James, célèbre psychologue américain introduit le concept de mémoire associative, et propose ce qui deviendra une loi de fonctionnement pour l’apprentissage sur les réseaux de neurones connue plus tard sous le nom de loi de Hebb. Chapitre II Réseaux de Neurones Artificiels Cours : Techniques de l’Intelligence Artificielle 18 Dr. BEKAKRA Youcef 1943 : J. Mc Culloch et W. Pitts laissent leurs noms à une modélisation du neurone biologique (un neurone au comportement binaire). Ceux sont les premiers à montrer que des réseaux de neurones formels simples peuvent réaliser des fonctions logiques, arithmétiques et symboliques complexes (tout au moins au niveau théorique). 1949 : D. Hebb, physiologiste américain explique le conditionnement chez l’animal par les propriétés des neurones eux-mêmes. Ainsi, un conditionnement de type pavlovien tel que, nourrir tous les jours à la même heure un chien, entraîne chez cet animal la sécrétion de salive à cette heure précise même en l’absence de nourriture. La loi de modification des propriétés des connexions entre neurones qu’il propose explique en partie ce type de résultats expérimentaux. II.4. Le Système Nerveux : Le cerveau humain, est le meilleur modèle de machine, polyvalente incroyablement rapide et surtout douée d’une incomparable capacité d’auto-organisation. Son comportement est beaucoup plus mystérieux que le comportement de ses cellules de base. Il est constitue d’un grand nombre d’unités biologiques élémentaires (environ 1012 neurones), chacune reçoit et envoie des informations (1000 à 10000 synapse par neurone). Les cellules nerveuses appelées " neurones ", sont les éléments de base du système nerveux centrale. Elles sont constituées de trois parties essentielles : le corps cellulaire, les dendrites et l’axone (Figure II.1). Figure II.1 Structure d’un neurone biologique Chapitre II Réseaux de Neurones Artificiels Cours : Techniques de l’Intelligence Artificielle 19 Dr. BEKAKRA Youcef II.2. Modèle Biologique du Neurone : Le cerveau humain est constitué d’un grand nombre de neurones, d’unités biologiques élémentaires, extrêmement interconnectés. Chacun reçoit et envoie des informations à plusieurs milliers de ses congénères. Le neurone biologique, qui est la cellule de base du système nerveux central, est constitué de trois parties essentielles (Figure II.1). Le corps cellulaire (ou soma) : C’est un corps cellulaire, de 20 µm de diamètre et de forme variable. Il contient le noyau du neurone qui effectue la transformation biologique nécessaire à la synthèse des enzymes et d’autres molécules qui assure la vie du neurone. Les dendrites : Chaque neurone possède une "chevelure" de dendrites qui entourent le corps cellulaire. Celles-ci se ramifient, pour former une espèce d’arborescence autour du corps cellulaire. L’axone : Est la fibre nerveuse qui sert à transporter les signaux émis par le neurone. Les connexions entre les neurones se font dans des endroits appelés synapses où ils sont séparés par un espace synaptique d’ordre de centième de micron. II.3. Le Neurone Formel : Un neurone formel (artificiel) ou simplement neurone est un élément de traitement de l’information. Il réalise une fonction algébrique non linéaire, bornée. Sa valeur dépend des paramètres appelés coefficients synaptiques ou poids des connexions. Les variables de cette fonction sont, habituellement, appelées "entrées" du neurone. La valeur de la fonction est appelée sa "sortie". Son modèle est schématisé par la figure II.2. Il est caractérisé par une somme pondérée des entrées (xk , wik) . Elle remplace l’intégration spatio-temporelle du neurone biologique, qui est difficile à intégrer dans un modèle simplifié. Le résultat obtenu représente l’activité du neurone notée neti. L'application d'une fonction discriminante dite d’activation, φ (neti), favorise la limitation de l’amplitude de la sortie du neurone yri. Mathématiquement, ce modèle est décrit par l’équation : Chapitre II Réseaux de Neurones Artificiels Cours : Techniques de l’Intelligence Artificielle 20 Dr. BEKAKRA Youcef (II.2) Figure II.2 Neurone formel Les fonctions d’activations les plus utilisées sont présentées dans la figure II.3. Figure II.3 Fonctions d’activations les plus utilisées Chapitre II Réseaux de Neurones Artificiels Cours : Techniques de l’Intelligence Artificielle 21 Dr. BEKAKRA Youcef II.4. RNA : Un RN est un ensemble de neurones reliés entre eux avec une topologie spécifique d’interconnexions et une loi appropriée d’apprentissage pour adapter les poids de connexions. D’une manière générale, la structure des connexions entre les neurones d’un réseau peut aller d’une connectivité totale où tous les neurones sont reliés les uns aux autres, à une connectivité locale où les neurones ne sont connectés qu’à leurs proches voisins. Une autre structure de connexions est celle des réseaux multicouches, constitués d’une couche d’entrée, d’une couche de sortie et d’une ou de plusieurs couches internes, appelées aussi couches cachées. II.3. Fonction de Combinaison : Considérons un neurone quelconque, il reçoit des neurones en amont un certain nombre de valeurs via ses connexions synaptiques, et il produit une certaine valeur en utilisant une fonction de combinaison. Cette fonction peut donc être formalisée comme étant une fonction vecteur-à-scalaire, notamment : Les réseaux de type MLP (multi-layer perceptron) calculent une combinaison linéaire des entrées, c’est-à-dire que la fonction de combinaison renvoie le produit scalaire entre le vecteur des entrées et le vecteur des poids synaptiques. Les réseaux de type RBF (Radial Basis Function) calculent la distance entre les entrées, c’est-à-dire que la fonction de combinaison renvoie la norme euclidienne du vecteur issu de la différence vectorielle entre les vecteurs d’entrées. II.5. Structure d'Interconnexion : Les neurones formels que l'on vient de définir doivent être assembles pour former un réseau. Le type de réseau le plus simple s'appelle le "perceptron". Il est constitue en fait d'un seul neurone et permet de réaliser des opérations très simples. Il est cependant très limité. C'est pourquoi on utilise un type de réseau plus complexe, le Perceptron Multicouches (PMC). Comme son nom l'indique, il est constitue de plusieurs couches de neurones entièrement connectées entre elles. Que veulent dire "entrées" et "sorties"? Si l'on compare notre réseau au cerveau, on peut comprendre cela comme les signaux reçus, et les ordres émis. Par exemple, si l' "entrée" est une image provenant des yeux, disons, un ours qui attaque, alors il faut que le cerveau donne en "sortie" l'ordre de fuir ! Ainsi, lorsqu'un sens donne une information, le cerveau renvoie une réponse. Chapitre II Réseaux de Neurones Artificiels Cours : Techniques de l’Intelligence Artificielle 22 Dr. BEKAKRA Youcef II.5.1 Réseau Multicouche : Les neurones sont arrangés par couche. Il n'y a pas de connexion entre neurones d'une même couche et les connexions ne se font qu'avec les neurones des couches avalés. Habituellement, chaque neurone d'une couche est connecte à tous les neurones de la couche suivante et celle-ci seulement. Ceci nous permet d'introduire la notion de sens de parcours de l'information (de l'activation) au sein d'un réseau et donc définir les concepts de neurone d'entrée, neurone de sortie. Par extension, on appelle couche d'entrée l'ensemble des neurones d'entrée, couche de sortie l'ensemble des neurones de sortie. Les couches intermédiaires n'ayant aucun contact avec l'extérieur sont appelés couches cachées. II.5.2. Réseau à Connexions Locales : Il s'agit d'une structure multicouche, mais qui a l'image de la rétine, conserve une certaine topologie. Chaque neurone entretien des relations avec un nombre réduit et localise de neurones de la couche avale. Les connexions sont donc moins nombreuses que dans le cas d'un réseau multicouche classique. II.5.3. Réseau à Connexions Récurrentes : Les connexions récurrentes ramènent l'information en arrière par rapport au sens de propagation défini dans un réseau multicouche. Ces connexions sont uploads/Ingenierie_Lourd/ cours-tia-chapitre-2 1 .pdf
Documents similaires
-
20
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Attribution requise- Détails
- Publié le Nov 15, 2022
- Catégorie Heavy Engineering/...
- Langue French
- Taille du fichier 0.3603MB