Traitement des images Christine Fernandez-Maloigne, Noël Richard Mots-clés : tr

Traitement des images Christine Fernandez-Maloigne, Noël Richard Mots-clés : traitement et analyse d’images couleurs, filtrage, segmentation, classification, indexa- tion. Résumé : ce chapitre donne les bases des principaux algorithmes de traitement et d’analyse d’images numériques niveaux de gris et couleur, tout au long d’une chaîne traditionnelle de traitements de telles données. On trouvera sur le site de Pandore1 une bibliothèque d’algorithmes pour tester ces traitements. Le xxie siècle est celui de l’image numérique, vecteur d’information pour la presse, les artistes, le monde médical mais aussi celui de l’industrie. Le traitement d’images est une science récente qui a pour but d’of- frir aux spécialistes de différents domaines, comme au grand public, des outils de manipulation de ces don- nées digitales issues du monde réel. L’histoire com- mence dans les années cinquante avec les rayons X. Puis vint l’étude de méthodes d’extraction automa- tique d’informations avec de nombreuses applications en reconnaissance de caractères et en contrôle qua- lité. Dans les années quatre-vingt, les efforts se pour- suivirent avec l’introduction des systèmes experts qui devaient remplacer l’homme dans ses différents diag- nostics ! Enfin dans le courant des années quatre-vingt et quatre-vingt-dix, le traitement d’images passe du 2D au nD grâce aux nouvelles possibilités technologiques. Les supports de stockage, les processeurs permettent désormais de traiter des informations multidimension- nelles de couleur et de mouvement. Puis dans les années deux mille, l’intérêt se porte de plus en plus sur les modèles perceptifs afin d’op- timiser les modèles usuels. Par ailleurs, plutôt que de développer des algorithmes utilisables dans toutes les situations, des méthodes dédiées sont développées, en intégrant de la connaissance a priori sur les contenus et surtout sur la finalité de l’exploitation des données. Le traitement d’images est donc une science en pleine évolution qu’il n’est pas possible de décrire pleinement dans ces quelques pages. Nous allons tenter de donner les bases de cette science qui a pour objectifs princi- paux (cf. figure 1) : – de saisir une scène réelle pour constituer un fi- chier informatique, c’est l’étape d’acquisition ; – de mettre en évidence les informations intéres- santes : c’est l’étape de traitement dans laquelle on distinguera tout particulièrement les étapes de débruitage puis la segmentation ; – d’interpréter ces informations pour décider d’un diagnostic ou d’une action à engager : c’est l’étape d’analyse ; Figure 1 Chaîne de traitement et d’analyse d’images 1http ://uranus.greyc.ismra.fr/∼regis/pandore. 374 Traitement des images 375 – sans oublier les étapes de stockage des informa- tions, à différentes étapes de la chaîne, et de vi- sualisation et/ou d’impression des résultats. Dans la suite de ce chapitre, nous allons expliciter ces différents stades de manière succincte. Le lecteur pourra se référer à (Cocquerez et Philipp, 1995; Bon- ton et al., 2004) pour aller plus loin. 1 Acquisition 1.1 Généralités La première étape d’une chaîne de traitement et d’ana- lyse des images numériques est celle de l’acquisition d’une scène. Les objets de cette scène peuvent émettre de l’énergie, on parle alors d’imagerie en émission, comme l’imagerie infrarouge. Mais le plus souvent ils reçoivent une énergie lumineuse qu’ils vont en partie absorber et en partie réfléchir. L’analyse de l’énergie absorbée est le fait de l’imagerie en absorption, comme dans le cas de l’imagerie ultrasonore (échographie par exemple). L’analyse de l’énergie réfléchie concerne la majorité des applications de traitement d’images, où un capteur se substitue à l’œil d’un observateur. Un objet n’est alors visible que s’il est éclairé. Plus un ob- jet réfléchit l’énergie lumineuse qu’il reçoit, plus il sera clair. Ce sont par ailleurs les différences d’absorption et donc de réflexion, des différentes longueur d’ondes d’un spectre lumineux qui vont donner la couleur d’un objet. Figure 2 Le spectre visible Les longueurs d’onde perceptibles par le système de vision humaine sont comprises environ entre 380 nm pour le violet et 780 nm pour le rouge (figure 2). Le spectre visible correspond à cette plage de longueurs d’onde. Dans l’étape d’acquisition d’une image numé- rique, un capteur électronique va remplacer le capteur biologique. Si l’on reste dans le domaine du visible, il existe aujourd’hui deux principales technologies basées respectivement sur les CCD (Charge Coupled Devices) et la technologie CMOS (Berry, 2005). Pour passer en- suite de ce phénomène continu à une image numé- rique, la première étape est celle de la discrétisation. Elle s’opère en deux temps : une discrétisation spatiale qui organise l’image continue généralement selon une grille de L lignes et C colonnes puis une quantification qui permet d’associer un codage numérique à la quan- tité d’énergie captée par chaque élément de cette grille. Le nombre b de bits de codage définit la dimension de l’espace de représentation et le nombre N de valeurs possibles (N = 2b). Soit I une image numérique : I = {(i, j) ∈ 0, . . . , m −1} × {0, . . . , n −1}  (1.1) Chaque élément I(i, j) de la matrice est appelé pixel (contraction de picture element). Lorsque le nombre de bits b de codage vaut 1, l’image est dite binaire. Les images en niveaux de gris sont généralement codées sur 8 bits, la valeur 0 codant le noir et la valeur maxi- mum 255 (28 −1) codant le blanc. Dans le cas des images couleurs, à chaque pixel est associé un vecteur à trois composantes codées classiquement chacune sur 8 bits. L’espace de représentation choisi définit la si- gnification des composantes (RGB, HLS, . . . ). 1.2 Les représentations numériques de la couleur Un espace couleur, ou système de représentation, se définit par le choix des primaires utilisées et du blanc de référence qui fixe leurs valeurs unitaires. Il peut être défini quatre familles de systèmes de représentation : les systèmes de primaires, les systèmes luminance- chrominance, les systèmes liées à la perception hu- maine et les systèmes d’axes indépendants. Des ver- sions normalisées de ces systèmes sont proposées par la CIE (Commission international de l’éclairage). Les systèmes de primaires Le principe de la trivariance visuelle est un principe selon lequel toute couleur peut être reproduite visuel- lement à l’identique1 par le mélange algébrique, en proportions définies de manière unique, de trois cou- leurs, appelées primaires, choisies sous réserve qu’au- cune d’entre elles ne puisse être reproduite par un mé- lange des deux autres. L’ensemble des couleurs repro- ductibles est appelé espace des couleurs : espace RVB par exemple. Il existe autant d’espaces RVB qu’il y a de primaires R, V et B et de blancs de référence. L’es- pace des couleurs forme un cube selon les primaires conservées (figure 3). L’espace RVB présente quelques inconvénients, d’où la proposition de la CIE qui a dé- fini un espace de représentation basé sur trois primaires virtuelles X, Y et Z (figure 4). 1La reproduction impose des conditions d’observation déterminées. 376 I/4 Systèmes multimédias Figure 3 Discrétisation uniforme de l’espace couleur RVB (RGB) en volumes cubiques Figure 4 Discrétisation uniforme de l’espace couleur CIEXYZ en volumes cubiques Le complémentaire de l’espace RVB est l’espace CMJ, qui est dédié à l’impression des couleurs. Il ré- sulte d’une synthèse soustractive et est représenté par un cube comme l’espace RGB. Les systèmes luminance chrominance L’intérêt des espaces de type luminance-chrominance est qu’ils dissocient la composante de luminance des composantes de chrominance, suffisantes pour quanti- fier le caractère chromatique d’un stimulus. On peut distinguer les systèmes perceptuellement uniformes (Lab, Luv), les systèmes de télévision (YCrCb, YIQ, YUV) ou les systèmes antagonistes (AC1C2, OCS). Les systèmes liés à la perception humaine L’homme ne perçoit pas la couleur comme une combi- naison de chromaticités mais selon des entités subjec- tives liées à la clarté, la teinte et la saturation. La teinte indique le type de couleur (rouge, jaune, bleu, etc.). La saturation indique si la couleur est pâle (ton pas- tel) ou vive. La clarté indique si la couleur est claire ou sombre. Il existe plusieurs systèmes de ce type. Leurs principales différences proviennent des unités et de la dynamique de chacun des trois axes couleur : teinte, in- tensité, saturation. La non-linéarité des expressions pour l’estimation de la saturation et de la teinte entraîne des discontinuités, qui sont caractérisées par le fait que deux couleurs perceptuellement proches peuvent se transformer en des composantes teinte et saturation très différentes. Les systèmes décorrélés Suivant la distribution des couleurs considérées, une corrélation entre les composantes du système de re- présentation choisi peut être observée. Il existe plu- sieurs méthodes pour décorréler les composantes d’un espace. L’une des plus utilisées est la transformée de Karhunen-Loeve. Ohta a également proposé un espace décorrélé pertinent (Bonton et al., 2004). 2 Traitement Le premier objectif du traitement est l’élimination des informations non pertinentes pour faciliter l’extrac- tion des informations utiles à l’analyse. Toute acqui- sition est bruitée, le bruit dépendant de la technolo- gie (capteur, échantillonnage) ; mais aussi de la scène, du contexte (plein soleil, ombres), ou de la nature des objets eux-mêmes (spécularités, transparence). Selon sa nature, le bruit induit un effet qui peut être localisé sur un pixel ou sur un voisinage de pixels spatial uploads/s3/ trait-image.pdf

  • 40
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager