Expose pmc 1 Rappel du perceptron simple Un perceptron peut être vu comme le type de réseau de neurone le plus simple C'est un classi ?eur linéaire Ce type de réseau neuronal ne contient aucun cycle il s'agit d'un réseau de neurone à propagation avant Dan

Rappel du perceptron simple Un perceptron peut être vu comme le type de réseau de neurone le plus simple C'est un classi ?eur linéaire Ce type de réseau neuronal ne contient aucun cycle il s'agit d'un réseau de neurone à propagation avant Dans sa version simpli ?ée le perceptron est monocouche et n'a qu'une seule sortie booléenne à laquelle toutes les entrées booléennes sont connectées Plus généralement les entrées peuvent être des nombres réels Inconvénient Un perceptron simple ne sait traiter que les problèmes linéairement séparables Problème Trouver une droite de séparation e ?cace n ? est pas possible Le perceptron multicouche -Introduction Le perceptron multicouche PMC est la deuxième grande famille de réseaux de neurones Après avoir décrit l'architecture de ces réseaux on va aborder leur apprentissage et le concept de rétropropagation de l'erreur Le perceptron multicouche multilayer perceptron MLP est un type de réseau neuronal multicouches organisé en plusieurs couches au sein desquelles une information circule de la couche d'entrée vers la couche de sortie uniquement il s'agit donc d'un réseau à propagation directe feedforward Chaque couche est constituée d'un nombre variable de neurones les neurones de la dernière couche dite de sortie ? étant les sorties du système global Les premiers réseaux de neurones n'étaient pas capables de résoudre des problèmes non linéaires cette limitation fut Csupprimée au travers de la rétropropagation du gradient de l'erreur dans les systèmes multicouches proposé par Paul Werbos en et mis au point douze années plus tard en par Pour ce dernier une combinaison de séparateurs linéaires permettrait de produire un séparateur global nonlinéaire Dans le perceptron multicouche à rétropropagation les neurones d'une couche sont reliés à la totalité des neurones des couches adjacentes Ces liaisons sont soumises à un coe ?cient altérant l'e ?et de l'information sur le neurone de destination Ainsi le poids de chacune de ces liaisons est l'élément clef du fonctionnement du réseau la mise en place d'un Perceptron multicouche pour résoudre un problème passe donc par la détermination des meilleurs poids applicables à chacune des connexions inter-neuronales Ici cette détermination s'e ?ectue au travers d'un algorithme de rétropropagation -Structure du PMC CLe perceptron est organisé en trois parties La couche d ? entrée input layer un ensemble de neurones qui portent le signal d ? entrée Par exemple si notre réseau essaie d ? apprendre à réaliser un XOR entre bits on aura en entrée bit et bit donc neurones un pour chaque information Si vous voulez apprendre au réseau à estimer le prix d ? un appartement vous aurez autant de neurones que de variables ? Ou bien souvent davantage comme on le verra ensuite Tous les neurones de cette couche sont ensuite reliés à ceux de la couche suivante La couche cachée hidden layer ou plus souvent LES couches cachées couche cachée couche cachée ? Il s ? agit du c ?ur de notre perceptron là o? les relations entre les variables vont être mises en exergue Choisir le bon nombre de neurones par

  • 33
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Aucune attribution requise
Partager