Reconnaissance faciale L’extraction des caractéristiques Cette étape représente

Reconnaissance faciale L’extraction des caractéristiques Cette étape représente le cœur du système de reconnaissance, on extrait de l'image les informations qui seront sauvegardées en mémoire pour être utilisées plus tard dans la phase de décision. Le choix de ces informations utiles revient à établir un modèle pour le visage, elles doivent être discriminantes et non redondantes. L’analyse est appelée indexation, représentation, modélisation ou extraction de caractéristiques. L’efficacité de cette étape a une influence directe sur la performance du système de reconnaissance de visage. La comparaison des caractéristiques (classification) et décision Elle consiste à modéliser les paramètres extraits d’un visage ou d’un ensemble de visages d’un individu en se basant sur leurs caractéristiques communes. Un modèle est un ensemble d’informations utiles, discriminantes et non redondantes qui caractérise un ou plusieurs individus ayant des similarités, ces derniers seront regroupés dans la même classe, et ces classes varient selon le type de décision. Selon les caractéristiques extraites précédemment, les algorithmes de comparaison diffèrent. On trouve dans la littérature plusieurs approches dont la plus simple est le calcul de distance (recherche de similarité). D'autres méthodes se basent sur la classification des caractéristiques par un seul classifieur (SVM[16], classifieur bayésien [17], réseau de neurones RN [18] etc) ou par plusieurs (Adaboost) [19]. L'apprentissage consiste donc à mémoriser les représentations calculées dans la phase analyse pour les individus connus. Généralement les deux étapes d’analyse et d’apprentissage sont confondues et regroupées en une seule étape. Les methodes de detection de visage Détection du visage dans une image 2D Selon Hjelmas et Low [4], les méthodes de détection de visages peuvent être classées en « approche globale » dans laquelle on analyse le visage dans son entier, ou en « approche locale », dans laquelle on va essayer de détecter, localiser et regrouper les différents éléments constitutifs du visage : nez, yeux, bouche,… Des informations complémentaires peuvent aussi être utilisées pour détecter les différents composants du visage, telles que la couleur, le mouvement ou encore la forme. Les deux méthodes de détection de visage que nous allons présenter dans cet article relève de la catégorie des méthodes globales. Elles diffèrent seulement dans leur première phase de mise en oeuvre, comme l’illustre la figure 1, c'est-à-dire en fait par la technique utilisée pour caractériser l’image à traiter. La première méthode utilise les propriétés géométriques à travers le calcul des moments de Zernike. La seconde est basée sur une projection sur un sous espace. Nommée « Eigenfaces » c’est une technique bien connue en particulier dans le domaine de la reconnaissance de visages . La deuxième étape de ce processus de détection est assurée par un réseau de neurones entraîné par les vecteurs caractéristiques calculés à partir des « Eigenfaces » ou des moments de Zernike. Sa sortie délivre des points de contour supposés délimiter un visage dans l’image d’origine. Pour permettre une évaluation objective des résultats de chacune des deux approches, un critère de qualité est proposé dans le paragraphe. Figure n°1 : Schéma de principe de la méthode de détection du visage Définition d’une mesure de qualité de la détection Pour mesurer l’efficacité d’un algorithme de détection du visage, nous proposons de mettre en oeuvre une mesure quantitative basée sur le rapport entre la surface de visage détecté et la surface de visage présent dans l’image originale. Pour permettre de réaliser une telle mesure, l’ensemble des images de la base de test ont été divisées en trois régions (cf. figure 2). La région blanche contient les W pixels jugés essentiels dans la détection du visage (nez, yeux, bouche,…). La région grise contient des pixels éléments du visage mais jugés non essentiels pour la bonne détection de celui-ci. La région noire contient les B pixels non éléments du visage. Figure : Images originales et les trois zones caractéristiques associées à chacune d’elles La méthode Viola et Jones La méthode de Viola et Jones est basé sur un apprentissage supervisé. Des exemples d’objets doivent être analysés à l’avance, pour être classifiés. Par la suite, pendant l’analyse de l’image, des caractéristiques sont choisies par boosting, qui permet de classifier les caractéristiques, et de séparer les exemples positifs des exemples négatifs par cascade de décision. Fonctionnement de la méthode Cette méthode permet d’analyser une image, sans avoir besoin d’étudier chaque pixel la constituant. En effet, la notion d’image intégrale permet de définir plusieurs zones rectangulaires au sein d’une image. L’intérêt de cette technique réside dans le fait qu’elle offre la possibilité d’accéder à la valeur des autres zones à gauche et au-dessus de la zone sur laquelle nous sommes. Ces zones permettent de créer des caractéristiques pseudoHaar, qui sont en fait des masques permettant de déterminer plusieurs pattern : Ces caractéristiques permettent de détecter des motifs. Par exemple, la reconnaissance des visages est rendue possible par: ● La variation de l’intensité de la lumière entre les yeux et le nez (caractéristique n°2) ● Et la variation de l’intensité de la lumière entre les yeux et les pommettes (caractéristique n°3) La méthode repose donc sur l’utilisation de ces caractéristiques pseudoHaar et des images intégrales, améliorant ainsi la vitesse de traitement. Deux autres mécanismes interviennent: le classifieur et le boosting. Le classifieur permet de déterminer l’ensemble des zones rentrant sous la coupe d’une caractéristique pseudoHaar, en déterminant les seuils pouvant déterminer les exemples positifs des négatifs. Ceci demande donc une phase d’apprentissage, qui permet de définir les seuils utilisés. Au final, un classifieur est une association entre une caractéristiques pseudoHaar et un seuil. C’est ce qu’on appelle un classifieur faible. Comme nous l’avons vue dans l’exemple précédent de reconnaissance de visage, deux caractéristiques pseudoHaar sont utilisées en même temps. C’est ici qu’intervient le mécanisme de boosting, en permettant de manière itérative de rajouter une caractéristique pseudoHaar à chaque passage, permettant ainsi la création d’un classifieur fort. Cette méthode se révèle très coûteuse. Afin de gagner en temps d'exécution on utilise une cascade de classifieur, qui peut être vue comme étant un arbre où les feuilles sont des classifieurs peu complexes (faible). Plus on remonte dans l’arbre, plus les classifieurs sont complexes. A chaque remontée de noeud, une décision est prise (on accepte ou non). Si on accepte, c’est que l’objet est présent dans l’image, et dans ce cas, on remonte l’objet au nœud suivant. Sinon, la branche est définitivement abandonnée. uploads/Management/ reconnaissance-fasciale.pdf

  • 20
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager
  • Détails
  • Publié le Jan 18, 2021
  • Catégorie Management
  • Langue French
  • Taille du fichier 0.1521MB