Resume chap7 ml MACHINE LEARNING AVEC SCIKIT-LEARN Aurélien Géron M Informatique Générale Groupe - AINGATIANA Santatriniaina Hosana numéro - RABENIRINA Onjaniaina numéro - RAHARIJAONA Tanjonirina Valisoa numéro - RAKOTOANDRIANAINA Ariela Cyrille numéro -

MACHINE LEARNING AVEC SCIKIT-LEARN Aurélien Géron M Informatique Générale Groupe - AINGATIANA Santatriniaina Hosana numéro - RABENIRINA Onjaniaina numéro - RAHARIJAONA Tanjonirina Valisoa numéro - RAKOTOANDRIANAINA Ariela Cyrille numéro - RAKOTOMALALA Mendrika Hajaina numéro - RAKOTONIRINA Lalaina Princy numéro - RAMILISON Mandresy Tsiory Ambinintsoa numéro Année scolaire - CChapitre Apprentissage d ? ensemble et forêts aléatoires RESUME Nous allons parler dans ce chapitre des méthodes d ? ensemble les plus populaires Nous allons aussi explorer les forêts aléatoires qui sont des ensembles d ? arbres de décision Imaginons que vous posiez une question complexe à des milliers de personnes choisies au hasard et que vous combiniez leurs réponses Souvent vous découvrirez que la synthèse de ces réponses est meilleure que celle d ? un expert C ? est ce qu ? on appelle la sagesse des foules ou intelligence collective De la même façon si vous agrégez les prédictions d ? un groupe de prédicteurs tels que des classi ?cateurs ou regrésseurs vous obtiendrez souvent une meilleure prédiction qu ? avec le meilleur des prédicteurs pris individuellement Un groupe de prédicteurs constitue un ensemble et par conséquent cette technique s ? appelle apprentissage d ? ensemble De même un algorithme d ? apprentissage d ? ensemble s ? appelle une méthode d ? ensemble ou encore méthode ensembliste Vous pouvez par exemple entra? ner un ensemble d ? arbres de décision chacun sur un sous- ensemble aléatoire di ?érent du jeu d ? entra? nement Pour obtenir des prédictions il vous su ?t d ? obtenir les prédictions de chacun des arbres puis de choisir la classe obtenant le plus de votes Un tel ensemble d ? arbres de décision s ? appelle une forêt aléatoire en dépit de sa simplicité c ? est l ? un des algorithmes d ? apprentissage automatique les plus puissants disponibles à ce jour Année scolaire - C Classi ?cateurs par vote Supposons que vous ayez entra? né quelques classi ?cateurs chacun d ? entre eux atteignant une exactitude de environ Pour plus de précision la classi ?cation par vote se divise en deux Classi ?cateur à vote rigide Le classi ?cateur à vote rigide consiste à agréger les prédictions de chacun des classi ?cateurs et de prédire la classe qui obtient le plus grand nombre de votes Classi ?cateur à vote souple Ce type de classi ?cateur permet de prédire la plus grande moyenne des probabilités sur l ? ensemble des classi ?cateurs Le vote à souple est meilleur que le vote rigide parce qu ? il accorde plus de poids aux votes dont l ? indice de con ?ance est élevé Bagging et Pasting Comme nous l ? avons vu précédemment l ? un des moyens d ? obtenir un ensemble de classi ?cateurs diversi ?és consiste à utiliser des algorithmes d ? entra? nement très di ?érents Le bagging tirage avec remise sur-ajuste les données d ? apprentissage Par contre il fournit souvent de simple moins complexe et meilleur modèle et

  • 31
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Aucune attribution requise
Partager