Apprentissage Semi-Supervis´ e Apprentissage Semi-Supervis´ e et Apprentissage

Apprentissage Semi-Supervis´ e Apprentissage Semi-Supervis´ e et Apprentissage Transductif Arnaud Revel revel.arnaud@gmail.com Apprentissage Semi-Supervis´ e Plan 1 Introduction 2 Techniques d’apprentissage semi-supervis´ e 3 Apprentissage actif 4 Bibliographie Apprentissage Semi-Supervis´ e Introduction Plan 1 Introduction 2 Techniques d’apprentissage semi-supervis´ e L’auto-apprentissage Le co-apprentissage S3VM T-SVM 3 Apprentissage actif M´ ethodes bas´ ees incertitude M´ ethodes r´ eduction de l’erreur 4 Bibliographie Apprentissage Semi-Supervis´ e Introduction Pourquoi s’int´ eresser ` a l’apprentissage semi-supervis´ e ? Les donn´ ees annot´ ees sont ch` eres C’est ennuyeux ` a faire... Cela n´ ecessite l’avis d’un expert Il est parfois n´ ecessaire d’utiliser des dispositifs sp´ ecifiques Id´ ee de l’apprentissage semi-supervis´ e Utiliser les donn´ ees non-annot´ ees pour compl´ eter l’apprentissage supervis´ e Apprentissage Semi-Supervis´ e Introduction Apprentissage Semi-supervis´ e vs Transductif L’apprentissage semi-supervis´ e est souvent associ´ e au concept d’apprentissage transductif. Apprentissage transductif L’apprentissage s’effectue sur les donn´ ees de la base d’apprentissage dans le but de faire des pr´ edictions sur les observations de la base de test, et uniquement celles ci. Le but n’est donc pas de d´ eterminer la fonction qui minimise l’erreur en g´ en´ eralisation, mais celle qui minimise l’erreur moyenne sur la base de test. Discussion Scholkopf, Vapnik La distinction entre apprentissage transductif et semi-supervis´ e n’est pas si tranch´ ee... Apprentissage Semi-Supervis´ e Introduction Probl´ ematique Comment apprendre ` a partir de donn´ ees non-annot´ ees ? L’id´ ee de l’approche semi-supervis´ ee est d’adapter le mod` ele ` a la structure du probl` eme. S’il existe des degr´ es de libert´ e sur les param` etres du mod` eles il s’agit de trouver le mod` ele adapt´ e ` a la fois aux donn´ ees d’apprentissage et aux donn´ ees de test. L’utilisation de donn´ ees non-annot´ ees est-elle toujours utilisable? Si le mod` ele est finalement inadapt´ e par rapport aux structures des donn´ ees, les performances du classifieur peuvent ˆ etre alt´ er´ ees. Comment utiliser les donn´ ees non-annot´ ees Le principe de l’apprentissage semi-supervis´ e est soit, de modifier, soit de r´ eorganiser les hypoth` eses effectu´ ees sur le mod` ele ` a partir des donn´ ees d’apprentissage. Apprentissage Semi-Supervis´ e Introduction Probl´ ematique Apprentissage Semi-Supervis´ e Techniques d’apprentissage semi-supervis´ e Plan 1 Introduction 2 Techniques d’apprentissage semi-supervis´ e L’auto-apprentissage Le co-apprentissage S3VM T-SVM 3 Apprentissage actif M´ ethodes bas´ ees incertitude M´ ethodes r´ eduction de l’erreur 4 Bibliographie Apprentissage Semi-Supervis´ e Techniques d’apprentissage semi-supervis´ e L’auto-apprentissage Auto-Apprentissage 1 L’auto-apprentissage (self-training) [Zhu05] consiste ` a entraˆ ıner un classifieur avec les donn´ ees ´ etiquet´ ees (DL). 2 Le classifieur est, ensuite, utilis´ e pour ´ etiqueter les donn´ ees incompl` etes (DU). 3 Les donn´ ees ´ etiquet´ ees avec un haut degr´ e de confiance sont ajout´ ees aux donn´ ees d’apprentissage (DL). 4 Le classifieur est r´ e-entraˆ ın´ e sur les donn´ ees de DL et la proc´ edure est r´ ep´ et´ ee jusqu’` a satisfaire un crit` ere d’arrˆ et. Apprentissage Semi-Supervis´ e Techniques d’apprentissage semi-supervis´ e Le co-apprentissage Co-apprentissage Co-apprentissage L’id´ ee du co-apprentissage est que s’il existe 2 projections ind´ ependantes d’un mˆ eme espace de donn´ ees, deux classifieurs entraˆ ın´ es selon ces 2 projections, doivent ´ etiqueter de mani` ere identique la mˆ eme donn´ ee. Apprentissage Semi-Supervis´ e Techniques d’apprentissage semi-supervis´ e Le co-apprentissage Algorithme L’ensemble d’attributs est divis´ e en 2 ensembles ind´ ependants Deux classifieurs sont entraˆ ın´ es en utilisant ces jeux de param` etres sur les donn´ ees d’apprentissage DL Ces classifieurs sont utiliser pour ´ etiqueter les donn´ ees de la base de test DU Les donn´ ees ´ etiquet´ ees avec une bonne confiance sont ajout´ ees ` a DL La phase d’apprentissage des classifieurs est r´ eit´ er´ ee sur le nouvel ensemble d’apprentissage. Lorsque l’apprentissage est termin´ e, les deux classifieurs sont combin´ es. Apprentissage Semi-Supervis´ e Techniques d’apprentissage semi-supervis´ e S3VM S´ eparateur Semi-Supervis´ e ` a Vaste Marge (S3VM) Dans cette approche, deux contraintes sont ajout´ ees au probl` eme quadratique des SVM Ces contraintes sont d´ efinies pour maintenir les donn´ ees non-´ etiquet´ ees ` a l’ext´ erieur de la marge tout en minimisant l’erreur de classification suppos´ ee : 1 2||w||2 + C(Pl i=1 ξi + PN j=l+1 min(ξu j , ξu∗ j )) yi(w∗· xi + b) ≥1 −ξi (w∗· xj + b) ≥1 −ξu j (w∗· xj + b) ≤−1 + ξu∗ j ξu j /ξu∗ j Coefficient de Lagrange li´ e ` a une erreur de classification dans le cas o` u l’´ echantillon est class´ e +1/-1 Apprentissage Semi-Supervis´ e Techniques d’apprentissage semi-supervis´ e T-SVM T-SVM T-SVM L’id´ ee du T-SVM est d’induire une fonction globale ` a l’aide des donn´ ees annot´ ees et des donn´ ees de test. Le probl` eme peut alors se poser de la mani` ere suivante : 1 2||w||2 + C Pl i=1 ξi + C ∗PN j=l+1 ξ∗ j yi(w∗· xi + b) ≥1 −ξi y ∗ j (w∗· xj + b) ≥1 −ξ∗ j Cette minimisation doit s’effectuer pour tous les cas de cat´ egorisation possibles ! Apprentissage Semi-Supervis´ e Techniques d’apprentissage semi-supervis´ e T-SVM Approche it´ erative pour r´ eduire la complexit´ e L’id´ ee de [Joa99a, Joa02] est de partir d’une fonction locale et d’´ etiqueter les donn´ ees (xj, y ∗ j ) puis de g´ en´ eraliser petit ` a petit. Pour ce faire, le param` etre C ∗est progressivement incr´ ement´ e : Dans le cas C ∗= 0, l’apprentissage est purement inductif Dans le cas C ∗= 1, l’apprentissage est compl` etement transductif. A chaque it´ eration, on cherche ` a minimiser la fonction quadratique puis on r´ eapprend le SVM en augmentant C ∗. Apprentissage Semi-Supervis´ e Techniques d’apprentissage semi-supervis´ e T-SVM Algorithme 1 La fonction objectif est minimis´ ee en cherchant un couple de donn´ ees non ´ etiquet´ ees (xm, xl) se situant dans la marge (ou dans la zone o` u ξm + ξl > 2) et tels que y ∗ m ̸= y ∗ l . 2 Les ´ etiquettes sont alors permut´ ees pour replacer les donn´ ees dans une zone plus plausible, minimisant (ξm + ξl). Si un couple d’´ etiquettes a ´ et´ e permut´ e, un nouveau SVM est appris et la proc´ edure est r´ ep´ et´ ee. Si, par contre, aucun couple n’a ´ et´ e trouv´ e, C ∗est augment´ e et l’algorithme passe ` a la prochaine it´ eration. 3 Les it´ erations s’arrˆ etent lorsque C ∗a atteint un seuil fix´ e a priori. Apprentissage Semi-Supervis´ e Apprentissage actif Plan 1 Introduction 2 Techniques d’apprentissage semi-supervis´ e L’auto-apprentissage Le co-apprentissage S3VM T-SVM 3 Apprentissage actif M´ ethodes bas´ ees incertitude M´ ethodes r´ eduction de l’erreur 4 Bibliographie Apprentissage Semi-Supervis´ e Apprentissage actif Apprentissage actif L’apprentissage actif est une extension de l’apprentissage semi-supervis´ e Plutˆ ot qu’exploiter les donn´ ees non annot´ ees... ...l’id´ ee est de faire annoter de mani` ere active les exemples qui apporteront le plus d’informations On minimise ainsi l’effort d’annotation Supervis´ e/actif Attention ` a la diff´ erence de l’apprentissage supervis´ e, les donn´ ees apprises ne sont plus identiquement distribu´ ees ! Apprentissage Semi-Supervis´ e Apprentissage actif Apprentissage Semi-Supervis´ e Apprentissage actif Apprentissage Semi-Supervis´ e Apprentissage actif Apprentissage Semi-Supervis´ e Apprentissage actif Apprentissage Semi-Supervis´ e Apprentissage actif M´ ethodes bas´ ees incertitude M´ ethodes actives bas´ ees sur l’incertitude M´ ethode active bas´ ee sur l’incertitude Cette strat´ egie a pour objectif de s´ electionner les documents ` a annoter parmi ceux dont le classifieur est le moins sˆ ur. Si par exemple on dispose d’une mesure de probabilit´ e de classement, on choisira les ´ el´ ements dont la probabilit´ e est proche de 0.5 En pratique, on peut utiliser directement la sortie d’un SVM ou d’un k-ppv comme fonction de pertinence f (x) H´ elas, c’est dans la zone o` u la fonction de pertinence est proche de 0 o` u l’on est le classifieur est le moins pertinent ! Apprentissage Semi-Supervis´ e Apprentissage actif M´ ethodes bas´ ees incertitude M´ ethodes actives bas´ ees sur l’incertitude (suite) M´ ethode active bas´ ee sur l’incertitude (suite) Une autre possibilit´ e consiste ` a utiliser plusieurs mod` eles et s´ electionner les ´ el´ ements pour lesquels les mod` eles se contredisent le plus. Apprentissage Semi-Supervis´ e Apprentissage actif M´ ethodes r´ eduction de l’erreur M´ ethodes bas´ ees sur la r´ eduction de l’erreur M´ ethodes bas´ ees sur la r´ eduction de l’erreur Cette strat´ egie vise ` a s´ electionner les ´ el´ ements qui, une fois ajout´ es ` a la base d’apprentissage, minimisent l’erreur de g´ en´ eralisation. Soit P(y|x) la probabilit´ e que la donn´ ee x soit de la classe y Soit P(x) la distribution des images Soit ˆ P(y|x) l’estimation de P(y|x) avec le classifieur courant L’erreur de g´ en´ eralisation est : Eˆ uploads/Finance/ semi-supervise.pdf

  • 21
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager
  • Détails
  • Publié le Jul 20, 2022
  • Catégorie Business / Finance
  • Langue French
  • Taille du fichier 0.3444MB