Perceptron multicouche 1 Perceptron multicouche Le perceptron multicouche multilayer perceptron MLP est un type de réseau neuronal arti ?ciel organisé en plusieurs couches au sein desquelles une information circule de la couche d'entrée vers la couche de

Perceptron multicouche Le perceptron multicouche multilayer perceptron MLP est un type de réseau neuronal arti ?ciel organisé en plusieurs couches au sein desquelles une information circule de la couche d'entrée vers la couche de sortie uniquement il s'agit donc d'un réseau à propagation directe feedforward Chaque couche est constituée d'un nombre variable de neurones les neurones de la dernière couche dite de sortie ? étant les sorties du système global Perceptron multicouche Le perceptron a été inventé en par Frank Rosenblatt au Cornell Aeronautical Laboratory Dans cette première version le perceptron était alors mono-couche et n'avait qu'une seule sortie à laquelle toutes les entrées étaient connectées Sommaire Un perceptron multicouche Sous-classe de Inventeur Réseau de neurones à propagation avant Frank Rosenblatt Perceptron multicouche à rétropropagation Algorithme de propagation Apprentissage Calcul de l'erreur Calcul du gradient Algorithme de rétropropagation Voir aussi Notes et références Bibliographie Perceptron multicouche à rétropropagation Les premiers réseaux de neurones n'étaient pas capables de résoudre des problèmes non linéaires cette limitation fut supprimée au travers de la rétropropagation du gradient de l'erreur dans les systèmes multicouches proposé par Paul Werbos en en et mis au point douze années plus tard en par David Rumelhart en Dans le perceptron multicouche à rétropropagation les neurones d'une couche sont reliés à la totalité des neurones des couches adjacentes Ces liaisons sont soumises à un coe ?cient altérant l'e ?et de l'information sur le neurone de destination Ainsi le poids de chacune de ces liaisons est l'élément clef du fonctionnement du réseau la mise en place d'un Perceptron multicouche pour résoudre un problème passe donc par la détermination des meilleurs poids applicables à chacune des connexions inter neuronales Ici Cdonc par la détermination des meilleurs poids applicables à chacune des connexions inter-neuronales Ici cette détermination s'e ?ectue au travers d'un algorithme de rétropropagation Algorithme de propagation Les poids sont représentés dans les matrices et puis propagés à la couche suivante tel que Apprentissage Calcul de l'erreur En connaissant la valeur attendue à la sortie d'un perceptron pour des entrées données on peut calculer l'écart avec la prédiction gr? ce à une fonction objectif le plus souvent l'erreur quadratique moyenne abrégée telle que Cette fonction n'est pas linéaire et sa dérivée est plus grande si la prédiction est éloignée de la valeur attendue permettant ainsi un apprentissage plus rapide Au contraire l'erreur moyenne absolue a une dérivée constante et donc un taux d'apprentissage qui ne varie pas En minimisant ces fonctions objectif les prédictions gagnent en précision Calcul du gradient Durant la phase d'apprentissage après avoir calculé les erreurs du réseau de neurones il est nécessaire de les corriger a ?n d'améliorer ses performances Pour minimiser ces erreurs ?? et donc la fonction objectif ?? l'algorithme du gradient est le plus souvent utilisé Le gradient est calculé a ?n de conna? tre la variation de la fonction objectif par rapport aux paramètres Il permet ensuite de modi ?er ces paramètres proportionnellement à leur impact sur la précision de la prédiction dans le

  • 28
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Aucune attribution requise
Partager
  • Détails
  • Publié le Jui 20, 2021
  • Catégorie Management
  • Langue French
  • Taille du fichier 46.7kB