Classifieur svm support vecteur machines 2 1 historique
Classi ?eur SVM Support Vecteur Machines Historique Les séparateurs à vastes marges reposent sur deux idées clés la notion de marge maximale et la notion de fonction noyau Ces deux notions existaient depuis plusieurs années avant qu'elles ne soient mises en commun pour construire les SVM L'idée des hyperplans à marge maximale a été explorée dès par Vladimir Vapnik et A Lerner et en par Richard Duda et Peter Hart dans leur livre Pattern Classi ?cation Les fondations théoriques des SVM ont été explorées par Vapnik et ses collègues dans les années avec le développement de la théorie de Vapnik-Chervonenkis et par Valiant et la théorie de l'apprentissage PAC L'idée des fonctions noyaux n'est pas non plus nouvelle le théorème de Mercer date de et l'utilité des fonctions noyaux dans le contexte de l'apprentissage arti ?ciel a été montré dès par Aizermann Bravermann et Rozoener Ce n'est toutefois qu'en que ces idées seront bien comprises et rassemblées par Boser Guyon et Vapnik dans un article qui est l'article fondateur des séparateurs à vaste marge L'idée des variables ressorts qui permet de résoudre certaines limitations pratiques importantes ne sera introduite qu'en À partir de cette date qui correspond à la publication du livre de Vapnik les SVM gagnent en popularité et sont utilisés dans de nombreuses applications Un brevet américain sur les SVM est déposé en par les inventeurs originels Présentation de SVM Les SVMs qui sont aussi appelés séparateurs à vaste marge support Vector Machine présentent une technique de classi ?cation dont l ? apprentissage est supervisé Cette technique a été introduite par le russe Vladimir Vapnik en Les SVMs reposent sur une théorie mathématique solide Elles ont été à l ? origine utilisées pour la classi ?cation binaire et la régression Aujourd ? hui elles sont utilisées par de nombreux chercheurs et dans di ?érents domaines tels que l ? aide au diagnostic médical qui fait l ? objet de notre étude le marketing la biologie etc La raison du succès de cette technique est son adaptation rapide aux BDD à grandes dimensions big data son nombre réduit de paramètre à régler et ses bons résultats en pratique CLa technique SVM permet de résoudre des problèmes linéairement et non linéairement séparable Elle repose sur deux notions clés celle de la maximisation de la marge et celle de la fonction noyau Dans la section suivante les principes de fonctionnement général des deux cas linéairement et non linéairement séparable vont être présentés Principes de fonctionnement général de la technique SVM Le but de l ? approche SVM est de trouver une bonne reconnaissance ainsi qu ? une bonne séparation entre di ?érentes classes Le classi ?eur linéaire qui e ?ectue une séparation de données entre les classes est appelé hyperplan Sur la ?gure III on détermine un hyperplan séparant deux classes cercle bleu et carré rouge Figure III Di ?érents hyperplans possibles ainsi que les vecteurs de supports Les échantillons les plus proches des deux classes sont appelés les vecteurs de
Documents similaires
-
35
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Aucune attribution requise- Détails
- Publié le Jui 12, 2022
- Catégorie Heavy Engineering/...
- Langue French
- Taille du fichier 29.3kB