Chapitre ii commande optimale partie 1 fr pdf

Chapitre II Commande Optimale Partie I Introduction au contrôle optimal Introduction au control moderne La ?gure illustre les trois composants principaux d ? un système de contrôle moderne et leurs contributions importants La théorie de système de contrôle consiste à obtenir ou à formuler la dynamique d ? un système en termes d'équations di ?érentielles La dynamique du système est largement basée sur la fonction lagrangienne Ensuite le système est analysé pour véri ?er ses performances en déterminant principalement la stabilité du système basant sur la théorie de Lyapunov qui sont bien connues En ?n si les performances du système ne sont pas conformes à nos spéci ?cations nous avons recours à la conception Dans la théorie du contrôle optimal la conception est généralement basée sur un indice de performance Nous remarquons que bien que les concepts tels que la fonction de Lagrange et la fonction V de Lyapunov soient anciens les techniques utilisant ces concepts sont modernes Système de contrôle du modem Dynamique du système La modélisation L'analyse du système Performance Synthèse de système Conception Fonction d'état de Lagrange V Fonction de Lyapunov H Fonction de Pontryagin Figure Composants d'un système de contrôle moderne Optimisation L'optimisation est une fonctionnalité très souhaitable dans la vie quotidienne Nous aimons travailler et utiliser notre temps de manière optimale utiliser les ressources de manière optimale etc Le sujet de l'optimisation est assez général en ce sens qu'il peut être envisagé de di ?érentes manières en fonction de l'approche algébrique ou géométrique de l'intérêt unique ou multiple de la nature des signaux déterministe ou stochastique et du stade simple ou multiple utilisé dans l'optimisation Ceci est illustré à la ?gure Lorsque nous constatons que le calcul des variations n ? est qu ? un petit domaine de la grande image du domaine de l ? optimisation il constitue la base de notre étude des systèmes de contrôle optimaux En outre l'optimisation peut être classée en optimisation statique et optimisation dynamique L ? optimisation statique concerne le contrôle d ? un système dans des conditions stables c ? est-à-dire que les variables système ne changent pas dans le temps La plante est ensuite décrite par des équations algébriques Les techniques utilisées sont le calcul ordinaire les multiplicateurs de Lagrange la programmation linéaire et non linéaire L ? optimisation dynamique concerne le contrôle optimal des installations dans des conditions dynamiques c ? est-à-dire que les variables du système changent en fonction du temps et que le temps est donc impliqué dans la description du système Ensuite le système est décrit par des équations di ?érentielles Les techniques utilisées sont les techniques de recherche la Réalisé par Zoheir TIR CChapitre II Commande Optimale programmation dynamique le calcul variationnel ou calcul des variations et le principe de Pontryagin Optimisation Approche Géométrique Approche Algébrique Intérêt unique Intérêt Multiple Théorie des jeux Déterministe Etape unique Stochastique Plusieurs étapes Programmation dynamique Multiplicateurs Calcul et Lagrange Programmation linéaire et non linéaire Analyse fonctionnelle Calculs Variationnels Figure Généralités sur l'Optimisation Contrôle optimal L

  • 25
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Aucune attribution requise
Partager
  • Détails
  • Publié le Oct 24, 2021
  • Catégorie Management
  • Langue French
  • Taille du fichier 38.8kB