Etienne 2019 archivage NNT SACLS Apprentissage profond applique ? ala reconnaissance des e ? motions dans la voix The se de doctorat de l ? Universite ? Paris-Saclay pre ? pare ? e aUniversite ? Paris-Sud E ? cole doctorale n Ecole Doctorale Sciences et T

NNT SACLS Apprentissage profond applique ? ala reconnaissance des e ? motions dans la voix The se de doctorat de l ? Universite ? Paris-Saclay pre ? pare ? e aUniversite ? Paris-Sud E ? cole doctorale n Ecole Doctorale Sciences et Technologies de l ? Information et de la Communication STIC Spe ? cialite ? de doctorat Informatique The se pre ? sente ? e et soutenue a Orsay le de ? cembre par CAROLINE ETIENNE Composition du Jury Anne Vilnat Professeure Universite ? Paris-Sud LIMSI Bjo ? rn Schuller Professeur University of Augsburg Imperial College London Yannick Este ve Professeur Universite ? d ? Avignon et des Pays de Vaucluse LIA Jean-Luc Zarader Professeur Sorbonne Universite ? ISIR Je ? re ? mie Abiteboul Docteur DreamQuark ? s Chief Product Of ?cer Laurence Devillers Professeure Sorbonne Universite ? LIMSI Pre ? sidente Rapporteur Rapporteur Examinateur Examinateur Directrice de the se Th ese de doctorat C CRemerciements Merci à ma famille mes frères Maxime Pierre Jean- Hugues Guillaume et plus particulièrement mes parents Geneviève et Philippe de m ? avoir soutenue ?nancièrement et humainement pendant mes études depuis Merci à mes amis animaux et humains surfaciens virtuels ou souterrains Merci à Margot Larroche pour sa présence à ma soutenance de thèse Merci à Isabelle Rio et Laurent Valette sans qui ce manuscrit n ? existerait pas Merci aux équipes de logiciels gratuits Inkscape ainsi qu ? aux sites web fournissant un accès libre à des articles scienti ?ques Sci-Hub d ? exister En ?n ce voyage ne fut possible que gr? ce aux personnes qui nourrissaient ma ré exion qu ? elles en soient remerciées Calme en avant droit ? ?? Général L ? Hotte Raska Echo Delta i C CTable des matières Remerciements i Table des matières iii Table des ?gures ix Liste des tableaux xv Introduction Partie I État de l ? art L ? apprentissage profond Aspect chronologique Apprentissage profond supervisé Initialisation des poids Propagation avant Rétropropagation du gradient Calculer l ? erreur pour la couche de sortie Rétropropager l ? erreur Mise à jour des poids Le principe de l ? algorithme de descente de gradient La descente de gradient stochastique SGD La méthode du moment Momentum Gradient accéléré de type Nesterov Les fonctions d ? activation La fonction sigmo? de La fonction tangente hyperbolique La fonction ReLU La fonction softmax Les réseaux de neurones convolutifs Origine des réseaux de neurones convolutifs iii CTABLE DES MATIÈRES Principe des réseaux de neurones convolutifs Les réseaux de neurones récurrents bidirectionnels à mémoire court- terme et long-terme BLSTM Origine en reconnaissance de la parole Réseaux récurrents et problème de disparition et explosion du gradient Le réseau récurrent à mémoire court-terme et long terme ou LSTM Aspects matériel et logiciel Les processeurs graphiques en apprentissage profond Les bibliothèques logicielles pour l ? apprentissage profond Instabilité de l ? outil de travail Les bibliothèques existantes Faciliter leur utilisation L ? émotion La paralinguistique La prosodie a ?ective La prosodie Les

  • 23
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Aucune attribution requise
Partager