DETERMINANTS 1. INTRODUCTION. Le point de départ de notre étude est le suivant

DETERMINANTS 1. INTRODUCTION. Le point de départ de notre étude est le suivant : Soit E un K-espace vectoriel de dimension finie n rapporté à une base B et S=(v1,…., vn) un système de n vecteurs de E définis par leurs composantes dans la base B . On a déjà étudié des techniques de détermination du rang par des manipulations sur la matrice représentant S dans B . En particulier la méthode du pivot de Gauss nous ramène à une matrice triangulaire équivalente, de rang n si et seulement si aucun des coefficients diagonaux n’est nul. Il est alors naturel de se demander s’il est possible de construire en marge de cette démarche une expression synthétique portant sur les composantes initiales des vecteurs de S et dont l’analyse permettrait de déterminer simplement si S est à son tour une base de E. (On peut penser au produit des éléments de la diagonale de la matrice triangulaire obtenue) Bien sûr on aimerait que l’expression en question ne dépende que des composantes initiales des vecteurs de S, et non pas de la suite de manipulations exécutée. On va voir que la réponse est positive même s’il faudra nuancer le qualificatif ‘simple’ concernant les calculs à effectuer. Par contre le champ d’application de ces ‘déterminants’ dépassera très vite l’objectif premier , on les mettra à profit pour l’inversion des matrices, la résolution des systèmes linéaires, la théorie de la diagonalisation, dans les situations de la géométrie Euclidienne généralisée (orientation de l’espace, classification des isométries). Il s’agit donc d’un outil extrêmement riche mais dont la définition est un peu délicate à mettre en place. En effet si sur le plan théorique on ne fait que reprendre et améliorer d’une certaine manière les idées de la méthode de Gauss, sur le plan pratique on est confronté à des problèmes de notations quelquefois assez lourdes à gérer. Aussi nous commencerons dans cette introduction à examiner la situation sur des espaces de petite dimension. _ Pour n=1 le problème est vite réglé. Soit B =(e1) base d’une droite vectorielle E. Le système S réduit au seul vecteur v1=xe1 est libre si et seulement si v1 est non nul c’est à dire si x ≠0. On appelle alors déterminant de S dans la base B la quantité detB (v1)=x. _ Pour n=2. Considérons un système S=(v1, v2) de deux vecteurs de E exprimés dans la base B =(e1, e2) suivant : v1=xe1+ye2 et v2=x’e1+y’e2. a) Si x est non nul, la séquence 1 2 2 1 1 1 C x C C C x C ′ − ← ← transforme la matrice représentant S dans B en la forme triangulaire         ′ − ′ x y x y x x y 0 1 . S sera alors libre si et seulement si la quantité xy’-x’y est non nulle. 191 191 b) Si x est nul et x’ différent de 0, un raisonnement symétrique en échangeant les deux vecteurs donne : S libre ⇔ x’y-xy’ ≠0 ⇔xy’-x’y ≠0 c) Enfin si (x, x’)=(0, 0) , les deux vecteurs de S sont multiples du même vecteur e2 et constituent donc un système lié. Remarquons que dans ce cas xy’-x’y=0. On définira donc naturellement ici le déterminant de S dans la base B comme l’élément de K noté et représenté par : detB (S)=xy’-x’y= y y x x ′ ′ Ce qui précède établit l’équivalence entre la dépendance linéaire de S et l’annulation de son déterminant. _ Pour n=3. Soit B =(e1, e2, e3) base de E et S=(v1, v2, v3) système dont la matrice représentative dans B est A=           ′ ′ ′ ′ ′ ′ ′ ′ ′ z z z y y y x x x . _ Si x non nul on effectue les manipulations sur colonnes suivantes :                 ′ ′ − ′ ′ ′ − ′ ′ ′ − ′ ′ ′ − ′ = ′ ′ − ← ′ − ← ← x z x z x x z x z x x z x y x y x x y x y x x y x x A C x C C C x C C C x C 0 0 1 en rmant transfo 1 1 3 3 1 2 2 1 1 Cette matrice est donc de rang 3 si et seulement si ses deux dernières colonnes forment un système libre, ou encore, vu l’étude précédente appliquée dans le plan engendré par (e2, e3 ), si le déterminant D= z x z x z x z x y x y x y x y x ′ ′ − ′ ′ ′ − ′ ′ ′ − ′ ′ ′ − ′ est non nul. _ Si x est nul mais qu’une des deux composantes x’ ou x’’ est différente de 0, un raisonnement analogue en permutant v1 et v2 ou v1 et v3 aboutit à la même caractérisation de l’indépendance du système. _ Enfin si x=x’=x’’=0, les trois vecteurs de S sont combinaisons du même système (e2, e3 ) donc forment un système lié par application du théorème fondamental de la dimension. Remarquons que dans ce cas l’expression D ci dessus est nulle. On définira donc ici le déterminant de S dans la base B comme la quantité D apparaissant dans cette étude. Après calculs et regroupements adéquats on peut donner de D les expressions suivantes : D= y y x x z z z x x y z z y y x ′ ′ ′ ′ ′ ′ + ′ ′ ′ ′ ′ ′ − ′ ′ ′ ′ ′ ′ . (Développement dit suivant la première colonne) D= x y z y z x z x y y x z x z y z y x ′ ′ ′ − ′ ′ ′ − ′ ′ ′ − ′ ′ ′ + ′ ′ ′ + ′ ′ ′ 192 192 Règle dite de Sarus que l’on retient en comptant positivement les produits des termes des diagonales descendantes et négativement les produits des termes des diagonales ascendantes dans la matrice de Sarus :                 ′ ′ ′ ′ ′ ′ ′ ′ ′ ′ ′ ′ ′ ′ ′ y y y x x x z z z y y y x x x 2) FORMES MULTILINEAIRES ALTERNEES. A) Vers une généralisation. Il est facile de déceler des propriétés algébriques communes aux trois déterminants que nous avons défini précédemment. _ Il s’agît d’applications f allant de En vers K. (A tout système S de n vecteurs de E on associe un scalaire f(S) ) _ Ces applications agissent de manière linéaire sur chacun des vecteurs composant le système S, les n-1 autres vecteurs étant fixés. (Propriété dite de multilinéarité) Par exemple pour le déterminant d’ordre 3 considéré comme fonction de v1 seul, les vecteurs v2 et v3 étant figés, on obtient une application K-linéaire de E vers K dont la matrice dans le couple de base (B , {1K }) est ( ) y x y x z x z x y z z y ′ ′ ′ − ′ ′ ′ ′ ′ ′ − ′ ′ ′ ′ ′ ′ − ′ ′ ′ _ Pour n ≥2 , l’échange de deux vecteurs du système S transforme l’image f(S) en l’opposé de sa valeur. (Propriété dite d’alternance : ) ( ) ( à pour conduit S f S f j i v v j i − ← ≠ ↔ ) La vérification est également immédiate sur les formules établies plus haut. Ces traits communs nous suggèrent la définition générale suivante, pour n ≥2 : Définition : Si E est un K espace de dimension n , on appelle forme n-linéaire alternée sur E toute application f de En vers le corps K satisfaisant aux propriétés décrites précédemment de linéarité par rapport à chacune des n variables constituant le système S et d’alternance. B) Premières remarques. Si f est n linéaire, alors f sera alternée si et seulement si f s’annule sur tout système S dont deux des composantes vectorielles sont identiques. Rappelons que les corps considérés sont supposés de caractéristique nulle, donc qu’en particulier : 1K ≠ -1K . (2.1k ≠0K) _ Supposons f alternée et considérons un système S=(v1,…, vn) tel que vi=vj pour un couple d’indices distincts. 193 193 La permutation de ces deux vecteurs au sein de S laisse donc S invariant, mais d’après l’alternance doit changer f(S) en son opposé. On a donc nécessairement f(S)=- f(S) d’où l’on tire 2f(S)=0K , c’est à dire (1K+1K) f(S)=0K. On en déduit alors f(S)=0K vu l’hypothèse 2.1K ≠0K. _ Réciproquement si f(S) s’annule dès que 2 vecteurs de S sont égaux, considérons deux indices distincts i <j et à uploads/s3/ cours-math-prepa-08-determinants.pdf

  • 52
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager