Perceptron 3ème SI ©Bassem Sellami Année universitaire 2022/2023 Rappel Appren
Perceptron 3ème SI ©Bassem Sellami Année universitaire 2022/2023 Rappel Apprentissage automatique Généraliser de la formation aux tests Apprentissage supervisé - Généralisation À partir d'un ensemble d'apprentissage composé de paires de (Input, Target) échantillonnées au hasard, apprenez une fonction ou un prédicteur qui prédit bien la cible de nouvelles données. Apprentissage supervisé / Généralisation Soit l’exemple d'apprentissage (x1, y1), . . . , (xn, yn) ϵ (X × Y) et U données de test xn+1, . . . , xn+u ϵ X Apprendre f : X Y pour généraliser de la formation aux tests Rappel : L’arbre de décision Doit-on jouer au tennis ou pas ? Rappel : L’arbre de décision Décomposer nos données en prenant des décisions basées sur une série de questions. Rappel : K-plus-proches voisins Choisir le nombre de k et une métrique de distance Trouver les k plus proches voisins de l'échantillon à classer. Attribuer l'étiquette de classe par vote majoritaire Focus : classification linéaire Des notions importantes pour apprendre à classer Certain nombre de données d'apprentissage (photos, courriels, etc.) Algorithme d'apprentissage (comment construire le classifieur ?) Généralisation : le classificateur doit classer correctement les données de test. Formalisation rapide ! X (Rd , d>0) est l’ensemble des données, appelé Input Y (toxique / non toxique ou {-1,+1}) est l’espace cible (Target) f : X Y est le classifieur Le perceptron (Rosenblatt, 1958) Motivations : Système d'apprentissage composé par l'association d'unités de traitement simples Efficacité, évolutivité et adaptabilité Le perceptron Définition ►Le perceptron est un classifieur linéaire. ►Il peut être vu comme un réseau de neurones simplifié. ►Il a une seule sortie à laquelle toutes les entrées sont connectées. Un perceptron à 2 entrées (wikipedia) Le perceptron Principe ►A partir de l’échantillon d’apprentissage, il faut trouver le vecteur de poids w et le biais, tel que : ►En associant u = 1 pour u1 et u = −1pour u2, on cherche donc : avec S l’échantillon d’apprentissage. Le perceptron Définition du risque empirique Risque empirique(w) avec M l’ensemble des exemples d’apprentissage mal classés par le perceptron de poids w. Comment apprendre le vecteur de poids ? Descente de gradient : w(t + 1) = w(t) −ηxiui η est appelé le pas d’apprentissage. Le perceptron L’algorithme ►Passer en revue chaque exemple dans l’échantillon d’apprentissage et tester la réponse y produite par le perceptron par rapport à la réponse désirée u. ►Si les deux réponses sont identiques, l’exemple est bien classé : ne rien faire. ►Sinon, si l’exemple est incorrectement classé en w1, ajouter ηx à w, sinon retirer ηx. ►Ré-itérer tant que qu’il reste du temps et tant que tous les exemples ne sont pas bien classés. Le perceptron Exemple d’apprentissage du OU logique ►Les exemples appartiennent à { 0, 1} 2. ►Processus : ►On initialise les poids aléatoirement. ►Le biais est choisi à 1. ►On lit le prochain exemple. ►On calcule la sortie. ►On met à jour les poids si nécessaire (wi = wi +(u −y) ∗ xi). ►On ré-itère tant qu’on n’a pas convergé et qu’on a du temps. Déroulement de l’algorithme Table de verité de OU logique (y) Calcul de U Déroulement de l’algorithme Calcul de la séparatrice Déroulement de l’algorithme Déroulement de l’algorithme Déroulement de l’algorithme Déroulement de l’algorithme Déroulement de l’algorithme Déroulement de l’algorithme X1 Déroulement de l’algorithme Déroulement de l’algorithme X1 Déroulement de l’algorithme X1 Déroulement de l’algorithme uploads/Litterature/ c4-perceptron.pdf
Documents similaires
-
18
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Attribution requise- Détails
- Publié le Dec 22, 2021
- Catégorie Literature / Litté...
- Langue French
- Taille du fichier 0.7882MB