cours ibm svm SVM Les Support Vector Machines souvent traduit par l ? appellation de Séparateur à Vaste Marge SVM sont une classe d ? algorithmes d ? apprentissage initialement dé ?nis pour la discrimination Leur But est de Trouver un classi ?eur linéaire
SVM Les Support Vector Machines souvent traduit par l ? appellation de Séparateur à Vaste Marge SVM sont une classe d ? algorithmes d ? apprentissage initialement dé ?nis pour la discrimination Leur But est de Trouver un classi ?eur linéaire hyperplan qui va séparer les données et maximiser la distances entre ces classes Dans ce cas ces algorithmes sont basés sur la recherche de l ? hyperplan de marge optimale qui lorsque c ? est possible classe ou sépare correctement les données tout en étant le plus éloigné possible de toutes les observations Le principe est donc de trouver un classi ?eur ou une fonction de discrimination dont la capacité de généralisation est la plus grande possible Cette approche découle directement des travaux de Vapnik en théorie de l ? apprentissage à partir de Elle s ? est focalisée sur les propriétés de généralisation d ? un modèle en contrôlant sa complexité Hyperplans séparateurs et discriminants dans un problème à deux classes Lorsqu ? une observation est fournie en entrée à un classi ?eur celui-ci produit une réponse qui indique seulement si cette observation est du côté de la classe ? sortie ou du côté de la classe ?? ? sortie ?? Si maintenant nous considérons un classi ?eur dans lequel la sortie non seulement fournit le signe le côté dans lequel tombe l ? observation par rapport à l ? hyperplan séparateur mais fournit aussi une distance à l ? hyperplan En supposant qu ? il existe un hyperplan permettant de séparer les exemples positifs des exemples négatifs nous n ? allons plus nous contenter d ? en trouver un mais nous allons en plus chercher parmi ceux-ci celui qui passe au milieu ? des points des deux classes d ? exemples Pourquoi Intuitivement cela revient à chercher l ? hyperplan le plus sûr ? Figure Deux séparations linéaires possibles pour deux classes on cherche la droite qui minimise le nombre d'erreurs dans l'ensemble d'apprentissage Elle est donnée en trait noir sur la ?gure On remarque qu'un seul Z est mal classé par l'hyperplan séparateur qui est ici la droite verticale Une autre séparation est possible la droite obtenue tracée en rouge bien qu'elle ait une erreur apparente de cinq éléments d'apprentissage est plus équilibrée et re ète mieux la géométrie globale du concept à apprendre On appelle hyperplan séparateur ou séparatrice linéaire un hyperplan qui sépare parfaitement les deux classes en particulier il sépare parfaitement leurs points d'apprentissage CIl n'est en général pas possible d'en trouver un On se contentera donc de chercher un hyperplan discriminant qui en sera une approximation au sens d'un critère à ?xer Le problème de l'apprentissage de surfaces linéaires n'est autre que la recherche des paramètres séparant le mieux possible les points d'apprentissage dans un espace et pourvues de la meilleure faculté de généralisation possible Et pour plus de deux classes Dans le cas o? l'on a un ensemble d'apprentissage représentatif de plus de deux classes il existe plusieurs façons de généraliser
Documents similaires










-
26
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Aucune attribution requise- Détails
- Publié le Dec 29, 2021
- Catégorie Heavy Engineering/...
- Langue French
- Taille du fichier 32.4kB