Cette section passe en revue la commande adaptative traitée dans la littérature

Cette section passe en revue la commande adaptative traitée dans la littérature et en lien avec ce mémoire. La première section effectue un survol des méthodes de contrôle adaptatives, puis la seconde section traite de l’application de ces méthodes pour un drone tandem-rotor. En ce qui concerne le contrôle linéaire d’un moteur, le lecteur peut se référer à l’ouvrage de Moudgalya [53] pour le contrôle de systèmes linéaires discrets. 2.1 Commande adaptative Le terme adaptatif réfère à un contrôleur capable de modifier son comportement en fonction de changements dans les dynamiques du système auquel il est attaché [87]. Pour un système linéaire standard : x˙ = Ax + Bu y = Cx + Du le contrôleur habituellement implémenté utilise une matrice de gains K, donnant la commande u = Hr − Ky, soit la différence entre un signal de référence r pondéré par H et la mesure en sortie y employée. En modifiant la commande pour que le gain du contrôleur soit maintenant fonction de différents paramètres du système (K = f(α1, α2, ...)), le contrôleur utilisé est maintenant capable de s’adapter pour que le temps de réponse et les transitoires d’une commande changent tel que désiré. La commande adaptative est habituellement implémentée en fonction d’un modèle de référence (Model Reference Adaptive Control), de sorte que les dynamiques de l’état x tendent vers celles d’un modèle aux meilleures performances, connu de l’utilisateur. Historiquement, la commande adaptative date des années 50, où les premières preuves de concepts pour ces contrôleurs furent publiés [7]. Les premiers algorithmes de contrôle utilisèrent une première méthode dite de sensibilité, basée sur une descente du gradient de l’erreur. Il s’agit d’une fonction de coût que l’algorithme minimise en variant la commande basé sur sa dérivée. Une méthode pour calculer ces fonctions de sensibilité est donnée par la règle dite MIT (MIT rule, [48]), ou par des algorithmes similaires (voir Margolis et Leondes [49] et Stromer [81]). Pour des systèmes stables et où les signaux d’intérêts peuvent facilement être générés (ex. l’état mesurable), c’est une méthode simple pouvant fonctionner. Par contre, lorsque la fonction de sensibilité doit être approximée numériquement, la méthode peut poser de sérieux problèmes pour un système instable en boucle ouverte (ex. un drone) et où une quantité non négligeable de bruit de mesure peut perturber la loi de commande (voir [34]). Il est d’ailleurs dit que dans les débuts du contrôle adaptatif, le contrôle d’aéronefs était "caractérisé par beaucoup d’enthousiasme, des systèmes peu performants et une absence de théorie" (traduit de Åström [87]), en lien avec un tragique incident survenu lors d’essais en vol avec un contrôleur adaptatif [25, 59]. Successivement, la synthèse de nouveaux contrôleurs adaptatifs via une analyse de stabilité ont fait leur apparition. Cette analyse se base essentiellement sur la théorie de Lyapunov, où l’on s’assure que les signaux d’intérêts x demeurent stable, tout comme la dynamique du contrôleur à synthétiser (Polycarpou et Ioannou [67] présentent la stabilité évaluée par une différente analyse). Le système 2.1 présente un exemple de ce type d’application où x est l’état du système et θ le "paramètre" à estimer. V (x, θ) = 1 2 x >Px + 1 2 θ >Γ −1θ > 0, P,Γ > 0 V˙ (x, θ) = x >Px˙ + θ >Γ −1θ˙ ≤ 0 (2.1) On peut noter les travaux de Parks [65], Shackcloth [75] et Phillipson [66] à ce sujet. Avec les différentes méthodes de contrôle adaptatives publiées par la suite, deux branches sont notables : la commande directe et la commande indirecte. La commande adaptative directe est l’équivalent du réglage automatisé que ferait manuellement un automaticien sur les gains PID d’une machine. Dans la commande directe, les gains sont les inconnus du système, et une analyse de stabilité est normalement faite sur la dynamique pour trouver la dynamique des gains à implémenter. Sur cette technique on cite notamment Monopoli [51], Narendra et al. [55] et Goodwin et al. [29]. La commande adaptative indirecte, quant à elle, se base sur la connaissance du système pour trouver le meilleur contrôleur. Ce type de commande effectue en premier lieu une étape d’identification des paramètres inconnus du système, puis met à jour la nouvelle loi de contrôle. L’étape d’identification peut par exemple se faire via une fonction de Lyapunov sur l’erreur des paramètres (Kreisselmeier [39]), un observateur d’état augmenté de l’erreur des paramètres (Marino [50]), ou par régression linéaire avec la méthode des moindres carrés : ˆθk = ˆθk−1 + Pkhkk P −1 k = λP −1 k−1 + hkh > k où le nouvel estimé θk est calculé basé sur la mise à jour d’une matrice de covariance Pk (utilisant un facteur d’oubli λ), l’erreur du précédent estimé k et le vecteur de signaux du système hk. D’autres implémentations similaires sont à noter, telle que celle de Clarke [17] ou Dasgupta et Huang [21]. Le contrôle adaptatif s’étend aussi aux systèmes non linéaires, où plusieurs lois de commandes non linéaires ont aussi vu le jour. Ces dernières se basent encore sur la théorie de Lyapunov pour caractériser le bassin de convergence d’une telle commande, que ce soit par backstepping (Krstic et Kokotovic [40]), mode de glissement (Bartolini et al. [11]), etc. Avec la multitude de contrôleurs linéaires (Ioannou et Sun [34]) ou non linéaires présents dans la littérature, d’autres problèmes sur le maintien de la commande furent aussi abordés, tel que la persistence d’excitation (PE). De la même manière qu’un observateur, le contrôleur adaptatif converge vers sa valeur désirée en la présence de transitoires dans le système (voir Narendra et Annaswamy [58] et Anderson [5] pour une définition détaillée). Cet aspect de la commande adaptative est central dans le sens que les lois de contrôle synthétisées ainsi que les analyses de stabilité reposent toutes sur l’hypothèse que le système contient un signal d’entrée suffisamment riche (ou PE). L’inverse implique que le contrôleur adaptatif ne convergera pas et peut même déstabiliser le système si les conditions initiales de l’estimateur ne sont pas adéquates. Ce problème fut abordé de diverses façons dans la littérature par des algorithmes pouvant modifier leur vitesse d’adaptation et ainsi contourner le problème. On note par exemple l’utilisation d’un facteur d’oubli variable pour un estimateur par moindres carrés [3, 27, 63, 85] ou l’ajout d’une borne supérieure sur la matrice de covariance utilisée [14, 74]. D’autres méthodes proposées utilisent une méthode de projection pour restreindre la dynamique de l’estimateur dans un ensemble fermé de valeurs restreintes [4, 54]. Les techniques de commande adaptatives étant très variées et pouvant changer énormément d’un système à l’autre, l’aspect de la robustesse de tels systèmes a aussi été abordé dans plusieurs ouvrages. La définition de la robustesse d’un contrôleur adaptatif ici fait référence au système résultant lorsqu’il y a par exemple des perturbations ajoutées aux signaux mesurés (incertitude additive), ou encore lorsque les gains du contrôleur comportent une incertitude. La robustesse est aussi intimement liée à la notion de persistence d’excitation. On cite notamment sur l’étude de robustesse de tels systèmes les travaux de Ortega et Tang [61], Landau [43], Datta et Ioannou [23] et Ioannou et Sun [34]. En ce qui concerne les systèmes à plusieurs entrées (MIMO), les premières méthodes utilisées furent directement dérivées des systèmes à une seule entrée (SISO), soit le contrôle adaptatif dit décentralisé. Cette méthode émet l’hypothèse que les principales dynamiques d’un système peuvent être réduites aux fonctions de transfert présentes dans la diagonale de la matrice de transfert du système (entre ses entrées et ses sorties). Outre Ioannou, on trouve à ce sujet les travaux de Datta [22], Narendra et Oleng [56] et Kubalcík et al. ˇ [41]. Par contre, pour des systèmes avec beaucoup de couplage entre les états, cette méthode devient rapidement inadéquate. D’autres méthodes, telles que l’utilisation d’une Left Interactor Matrix (ou similairement une Right Interactor Matrix, représentant approximativement l’inverse de la matrice de transfert du modèle de référence, sous forme d’une matrice triangulaire) pour calculer algébriquement la matrice de transfert du système et les interactions entre états [76, 82, 83] a été utilisée. Cette méthode offre beaucoup de rigueur, mais demande une plus grande quantité de calculs en conséquence. D’autres algorithmes généralisent les analyses de stabilité utilisés précédemment, soit au sens de Lyapunov [2, 52], ou directement par calcul en parallèle de n estimateurs utilisant les moindres carrés [62] (n étant l’ordre du système). La revue de littérature sur les systèmes multivariables adaptatifs de Tao [84] donne d’ailleurs un survol détaillé de ces techniques. Plus récemment, de nouveaux types de contrôleurs basés sur les réseaux de neurones ont aussi fait leur apparition, où les différents nœuds du réseau (inconnus) sont ajustés par rétropropagation du gradient de manière à faire corréler les états du système avec la sortie du réseau. Cette technique ne sera pas abordée dans le présent mémoire, mais le lecteur peut se référer aux articles de Spooner et Passino [79], Polycarpou et Ioannou [68] et Narendra et Parthasarathy [57] détaillant la stabilité et l’implémentation de tels systèmes. uploads/Management/ commande-ada.pdf

  • 34
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager
  • Détails
  • Publié le Oct 15, 2022
  • Catégorie Management
  • Langue French
  • Taille du fichier 0.0359MB