Apprentissage de melanges de gaussiens par maximisation de la marge 2007

Apprentissage de Mélanges de Gaussiens par Maximisation de la marge avec SMO Trinh Minh Tri DO Thierry Artières LIP Université Pierre et Marie Curie Paris France Résumé Les modèles de Mélange de lois Gaussiennes MG ont étés utilisés dans de nombreux domaines par exemple pour le traitement et la reconnaissance des images ou de la parole o? ils sont traditionnellement appris de façon non discriminante Récemment des travaux ont porté sur l ? apprentissage discriminants de tels modèles à travers notamment la maximisation de la marge L ? idée de ces travaux consiste à formuler l ? apprentissage discriminant de ces modèles comme un problème de maximisation de la marge et de le mettre sous la forme d ? un problème d ? optimisation convexe pour lequel des techniques d ? optimisation de type descente de gradient projeté peuvent être employées Nous nous inspirons ici de ces travaux et proposons une nouvelle formulation du problème permettant l ? emploi d ? un algorithme de type SMO popularisé pour les Machines à Vecteurs de Support plus performant et plus rapide que la descente de gradient Mots-clés apprentissage discriminant maximisation de la marge mélange Gaussien SMO Introduction Les modèles de Mélange de lois Gaussiennes MG ont étés utilisés dans de nombreux domaines par exemple pour le traitement et la reconnaissance des images ou de la parole a ?n de construire des classi ?eurs via l ? apprentissage de modèles génératifs On apprend alors un MG par classe pour modéliser la densité de probabilité conditionnelle étant donnée la classe y p x y puis on implémente la règle de décision Bayésienne en supposant par exemple que les classes sont a priori équiprobables donc en identi ?ant argmaxy p x y ? p y Un modèle de mélange Gaussien correspond à une densité de la forme K p x y p k ? N x yk ?yk k o? N x yk ?yk représente la loi gaussienne de moyenne yk et de matrice de covariance ?yk évaluée en x et p k représente la probabilité a priori que x soit produite par la kieme composante du mélange Les modèles de mélanges Gaussiens doivent une partie de leur popularité d ? une part au théorème central limite qui confère à la loi Gaus- sienne un statut particulier parmi les lois de probabilités paramétriques et d ? autre part CCAp à leur généricité Les mélanges de lois Gaussiennes permettent en e ?et d ? approximer toute densité de probabilité pourvu qu ? elle présente certains caractères de régularité Egalement ces modèles se sont avérés plutôt robustes et relativement faciles à employer En ?n les lois gaussiennes et les mélanges de lois gaussiennes ont pro ?té de la popularité des modèles Markoviens cachés MMC auxquels ils sont traditionnellement attachés et qui ont été intensivement utilisés depuis une vingtaine d ? années dans le cadre du traitement de la reconnaissance et de la segmentation de séquences par exemple en reconnaissance de la parole ou de l ? écriture

  • 23
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Aucune attribution requise
Partager