Remerciements Au terme de ce travail, on tient à exprimer notre profonde gratit

Remerciements Au terme de ce travail, on tient à exprimer notre profonde gratitude à notre cher professeur et encadrant M. TARIF HAJJI pour son suivi et pour son soutien, qu’il n’a cessé de nous prodiguer tout au long de la période du projet. On tient à remercier également nos chers professeurs de filière pour le temps qu’ils ont consacré et pour les précieuses informations qu’ils nous ont prodigué avec intérêt et compréhension. LA CAPACITE DE DETECTER DES OBJETS ET DES EVENEMENTS QUI AFFECTENT IMMEDIATEMENT LA TA CHE DE CONDUITE ET D’Y REAGIR DE MANIERE APPROPRIEE RAPPORT DE PROJET Résumé Ce projet s’inscrit dans le développement et la conception de fonctions d’aide à la conduite pour les véhicules autonomes de niveau 3 et plus. L’objectif de ce projet et de mettre à disposition des méthodes et des réalisations pour permettre au véhicule autonome de percevoir son environnement et d’y réagir de manière appropriée. Ce projet se focalise sur la proposition de solutions à la conduite autonome en appliquant l’apprentissage par renforcement pour développer des agents adaptifs efficacement et qui peuvent prendre des décisions de conduite adéquates selon des images reçues par caméra et qui représentent l’état du véhicule. Le but de cet agent est de maximiser un signal de récompense : il apprend par renforcement, au premier lieu cet agent n’a pas connaissance du modèle de l’environnement, ainsi il n’a pas connaissance des conséquences de ses actions ni des états qu’il doit atteindre : il doit apprendre à travers ses interactions avec cet environnement qui lui est totalement inconnu. ii 1 Réalisé par : GUEKOU VRAZYLAND KEVIN MOLUBA Encadré é par : MR TARIk HAJJI 1 Introduction..........................................................................................................................1 2 Problématique.......................................................................................................................1 3 Vision globale sur les systèmes ADAS.................................................................................2 3.1 Les véhicules autonomes............................................................................................................2 3.2 Les systèmes avancés d’aide à la conduite (ADAS).....................................................................3 3.3 Les capteurs................................................................................................................................4 3.3.1 Caméra.........................................................................................................................................4 3.3.2 Lidar..............................................................................................................................................5 3.3.3 Radar............................................................................................................................................7 3.3.4 Capteur Ultrason...........................................................................................................................8 3.3.5 Avantages et inconvénients de chaque technologie.....................................................................9 4 La perception de l’environnement.......................................................................................9 5 Architecture logicielle modulaire représentative pour les voitures autonomes............12 5.1 Module perception de l’environnement...................................................................................12 5.2 Module de mappage d’environnement....................................................................................14 5.3 Module de planification de mouvement..................................................................................15 5.4 Le module de contrôleur..........................................................................................................16 5.5 Le module du superviseur.........................................................................................................16 6 La hiérarchie du planificateur de mouvement................................................................18 1 Introduction........................................................................................................................23 2 Idée générale de l’apprentissage par renforcement........................................................23 3 L’apprentissage par renforcement appliqué à la conduite autonome...........................24 3.1 Principes généraux du RL dans le cas de la conduite autonome...............................................24 3.2 Le Q-Learning............................................................................................................................25 3.3 Le Deep Q-Learning (DQL)........................................................................................................27 3.4 Expérience replay.....................................................................................................................31 3.5 Le double Deep Q-learning ou DDQL........................................................................................33 3.6 Conclusion................................................................................................................................34 4 Partie Algorithme...............................................................................................................35 iii CHAPITRE 1 - PRESENTATION DE L’OEDR ET REVUE DE LITTERATURE iv 1 Introduction Ce chapitre abordera une introduction générale sur les systèmes ADAS, où on va définir la taxonomie pour classer le niveau d’automatisation dans une voiture autonome , ensuite nous couvrirons les différents capteurs qui peuvent être utilisés pour la perception à savoir les technologies de chaque type de capteurs et leurs apports par rapport à l'autonomisation du véhicule, par suite nous allons passer en avant les nombreux processus de perception où on va définir la tâche de perception énumérant les exigences pour la perception telles que quel objet statique ou dynamique nous devons identifier, et quel besoin nous avons pour suivre le mouvement des véhicules ego à travers l’environnement. Enfin, nous allons conclure par l’architecture logicielle modulaire représentative pour les voitures autonomes où on va détailler les différents modules que comporte cette architecture. 2 Problématique Pour un conducteur la tâche de conduite comporte essentiellement 4 tâches : Premièrement, nous avons un contrôle latéral qui fait référence à la tâche de diriger et de naviguer latéralement sur la route, tourner à gauche, à droite, aller droit ou suivre une courbe. Ensuite nous avons un contrôle longitudinal c'est la tâche où nous contrôlons la position ou la vitesse de la voiture le long de la chaussée par des actions comme la rupture ou l'accélération Ensuite, nous avons l'OEDR qui est essentiellement la capacité de détecter les objets et les événements qui affecte immédiatement la tâche de conduite et de réagir à eux de manière appropriée. Ensuite on a la planification, c'est un autre aspect important de la conduite et comme la réponse immédiate fait déjà partie de l’OEDR, la planification porte principalement sur les plans à long et à court terme nécessaire pour se rendre à une destination ou exécuter des manœuvres telles que des changements d’allégement et des passages à niveau. Enfin il y a quelques tâches diverses que les gens font en conduisant aussi ceux-ci comprennent des actions comme la signalisation avec des indicateurs, agitons la main interagissant avec d'autres conducteurs et ainsi de suite. Tout cela est une description claire des tâches que nous attendons d'une voiture autonome d'effectuer et l'OEDR englobe vraiment une grande partie de cette conduite autonome, d'où notre objectif principal dans ce sujet c'est de se pencher sur la compréhension de l’OEDR et de concevoir un modèle nous permettant de bien le réaliser. 1 3 Vision globale sur les systèmes ADAS 3.1 Les véhicules autonomes Un véhicule autonome ou véhicule automatisé, est un véhicule qui se sert de capteurs et d’analyses informatiques pour reconnaitre son environnement et naviguer sans intervention humaine. La norme SAE J3016 classifie les véhicules autonomes en six niveaux en fonction de leur comportement vis-à-vis du conducteur. Figure 1 - Taxonomie pour classer le niveau d’automatisation dans une voiture autonome Niveau 0 : pas d’automatisation. La conduite est entièrement à la charge du conducteur qui peut toutefois disposer de mécanismes d’avertissement, comme le signal sonore de franchissement de ligne, de proximité d’un obstacle sur la route, etc. Niveau 1 : le conducteur garde en permanence la responsabilité des manœuvres, mais délègue une partie des tâches au système, typiquement pour le contrôle longitudinal du véhicule, par exemple à travers un régulateur de vitesse adaptatif. Il doit être capables de reprendre totalement la main sur la conduite si la situation l’exige. 2 Niveau 2 : niveau d’automatisation partielle, le système effectue à la fois des taches de contrôle latéral et longitudinal dans des scénarios de conduite spécifiques, mais tout s’effectue sous supervision constante du conducteur, qui peut décider de reprendre la main à tout moment, par exemple l’assistance au stationnement (le Parking Assist), qui n’est activée que lorsqu’une place de stationnement est détectée ou choisie par le conducteur. Niveau 3 : niveau d’automatisation conditionnelle, le système peut effectuer la détection d’objets et d’évènements en réponse à un certain degré en plus des taches de contrôle, toutefois en cas de défaillance la commande doit être prise par le conducteur, la principale différence entre le niveau 2 et 3, est que le conducteur n’a pas besoin de faire attention dans certaines situations spécifiques car le véhicule peut alerter le conducteur à temps pour intervenir et reprendre le contrôle. Niveau 4 : c’est un niveau hautement automatisé dans lequel le conducteur n’intervient déjà plus et peut en effet complètement détourner son attention pour faire autre chose. En revanche, ce niveau ne concerne que certains modes de conduite, et sous certaines conditions. C’est le conducteur qui active et désactive le mode automatisé Niveau 5 : c’est l’automatisation ultime : l’être humain n’intervient plus, ni dans le contrôle, ni dans la supervision de la tâche de conduite ou de navigation. Tout est sous la responsabilité et le contrôle du système. La présence même d’un être humain aux commandes n’est plus forcément nécessaire. 3.2 Les systèmes avancés d’aide à la conduite (ADAS) Ces systèmes sont conçus pour être intégrés dans les véhicules afin de renforcer la quantité et la qualité des informations transmises au conducteur. Les ADAS perçoivent l’environnement grâce à des capteurs extéroceptifs et proprioceptifs installés dans le véhicule ou dans l’environnement. Ces capteurs fournissent de l’information ou agissent sur le contrôle de véhicule pour aider le conducteur dans la tâche de conduite. Ils sont classés selon leurs fonctions en deux catégories, les fonctions passives alertant des problèmes potentiels et les fonctions actives prenant le contrôle du véhicule pour éviter les collisions. 3 Figure 2 - Fonctions passives et actives des différents systèmes ADAS 3.3 Les capteurs La majorité des prototypes autonomes développés aujourd'hui présentent plusieurs ceintures de capteurs de différentes technologies permettant de scanner l'environnement autour du véhicule. La capacité du véhicule à percevoir son environnement et à se situer dans celui-ci est fortement dépendante des technologies de capteurs qui le composent. Ces capteurs peuvent être des caméras, des ultrasons, des radars ou des lidars. 3.3.1 Caméra Une caméra est constituée d'un imageur, d'une optique et d'un ECU pour le traitement des images permettant de détecter, reconnaitre et estimer les marquages au sol (position et courbure des lignes), mais aussi de suivre et classifier des objets (voiture, camion, deux-roues, piéton) sur des bases d'apprentissages de caractéristiques typiques [1]. 4 Les techniques d'apprentissage profond, ou Deep-Learning, sont de plus en plus intégrées pour la classification et la segmentation des objets. La portée de détection des objets et marquages peut aller jusqu'à 120 m pour des conditions météorologiques favorables (les caméras sont très impactées en performances de nuit, en situation uploads/Management/ rapport-projet-10-oedr.pdf

  • 24
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager
  • Détails
  • Publié le Aoû 21, 2021
  • Catégorie Management
  • Langue French
  • Taille du fichier 1.4200MB