Chapitre 11 : APPLICATIONS DES DÉTERMINANTS Dans ce chapitre, nous allons appli

Chapitre 11 : APPLICATIONS DES DÉTERMINANTS Dans ce chapitre, nous allons appliquer la théorie des déterminants à la recherche de l'inverse d'une matrice carrée inversible, à la détermination du rang d'une application linéaire, puis à la résolution des systèmes d'équations linéaires. Cette étude montre l'importance fondamentale des déterminants dans les applications et justifie amplement V intérêt qui leur est accordé. Nous désignerons toujours par K un corps commutati/ qui, dans la plupart des cas sera E ou C. 11.1. Calcul de l'inverse d'une matrice carrée D'après le Théorème 10.3.3.2 d), une matrice carrée A est inversible si et seulement si dét( A) ^ 0. Nous nous proposons de montrer comment utiliser les déterminants pour calculer la matrice inverse d'une matrice inversible. 11.1.0.1. Définition Soit A = (a,j) une matrice carrée d'ordre n. On appelle matrice complé- mentaire de A, et on note Ä, la transposée de la matrice des cofacteurs de A. Autrement dit, si Ä = (6,-j), on a où Aij est la matrice déduite de A par suppression de la i™16 ligne et de la j***' colonne. 11.1.0.2. Théorème Quelle que soit la matrice A e MP{K), on a AÄ = ÄA = dét(A) • Ip où Ip désigne la matrice unité d'ordre p. APPLICATIONS DES DÉTERMINANTS Par suite, si A est inversible, son inverse est donné par : A Démonstration. Soit A = (a,j). Posons On a bij = ( Par définition du produit de deux matrices, on a en = ¿ aikbkj = ¿ (-l)k+iaikd&t(Ajk). * = l * = l Si i = j , la formule (10.3.4.5) montre que c¡¡ est égal à dét(^l). Si i ^ j , on voit que Cij n'est autre que le déterminant de la matrice obtenue en remplaçant dans A la j * " 1 6 ligne par la i*"16 sans toucher aux autres. Cette matrice ayant deux lignes identiques, son déterminant est nul : c^ = 0 si i ^ j . On a donc AA = ûét(A)Ip. On montrerait de môme que AA = à&t(A)Ip. Si la matrice A est inversible, on a dét(-A) ^ 0. Alors À _ Ä dét(A) ~ dét(A) 'A-1'" d'où Règle pratique : Posons A~l = (oc,; ). Alors si A,¿ est le cofacteur de a¿¿ dans A, la formule ,4-1 _ * 2 * dét(A) " A montre que Ainsi, on obtient l'inverse d'une matrice inversible A d'ordre p > 1, en formant la transposée Ä de la matrice des cofacteurs de A, puis en divisant tous les éléments de Ä par dét(^l). 255 COURS D'ALGÈBRE 11.1.0.3. Exemple Considérons la matrice A = Si dél(A) — ad - be ^ 0, A est inversible. On a d -b\ d'où 11.2. Détermination du rang Nous allons appliquer la théorie des déterminants à la recherche pratique du rang d'une application linéaire, d'une matrice ou d'un système de vecteurs. Le calcul du rang d'une application linéaire ou d'une famille de vecteurs peut d'ail- leurs se ramener à celui du rang d'une matrice puisque le rang d'une application linéaire est celui de sa matrice dans des bases données, qui est aussi celui des vecteurs colonnes. Posons la définition suivante : 11.2.0.1. Définition Soit A une matrice de type (m, n). On appelle matrice extraite de A, toute matrice obtenue en supprimant un certain nombre de lignes et un certain nombre de colonnes de A. On appelle déterminant extrait de A, tout déterminant d'une matrice carrée extraite de A. Nous ne considérerons que les matrices carrées extraites et nous avons le résultat suivant. 11.2.0.2. Théorème Soit A = (a¿j ) une matrice de type (m,n)à éléments dans K. Alors le rang de A est le plus grand entier r tel que l'on puisse extraire de A au moins une matrice carrée inversible d'ordre r. 256 APPLICATIONS DES DÉTERMINANTS Démonstration. Soient E un /{"-espace vectoriel de dimension m et B = (ei,..., em) une base de E. Soient x\,..., xn les vecteurs colonnes de la ma- trice^!: m 1C iiei Î1 • * ' n)- ¿=i D'après le Théorème 9.2.1.5 le rang de la famille {zi,..., xn) est égal au rang de la matrice A. Soit p le rang de la matrice A et soit r le plus grand entier tel que l'on puisse extraire de A une matrice carrée inversible d'ordre r. On a évidemment r < inf(ra, n). Nous allons montrer que p = r. Démontrons d'abord que p > r. Soit M une matrice carrée inversible d'ordre r extraite de A. On peut supposer, en changeant au besoin la numéro- tation des lignes et des colonnes de A, que M est la matrice formée par les r premières lignes et les r premières colonnes de A. Posons : A = ai air M ai Les r premiers vecteurs colonnes x\,..., xr de A sont linéairement indépen- dants ; sinon l'un d'eux, x\ par exemple, serait une combinaison linéaire des autres: H h \Txr. Dans la matrice M, les éléments de la première colonne seraient des combi- naisons linéaires des éléments correspondants des autres colonnes et le détermi- nant de M serait nul contrairement au fait que M est inversible. Comme parmi les vecteurs x\,..., xn il existe r vecteurs linéairement indé- pendants, la dimension du sous-espace vectoriel engendré par x\,..., xn, c'est- à-dire le rang p de A, est supérieure ou égale à r. Démontrons maintenant que r > p. Pour cela, nous allons extraire de la matrice A, une matrice carrée inversible d'ordre p. Par définition du rang de la matrice A, il existe p vecteurs colonnes de A qui sont linéairement indépendants. Soit A' la matrice de type (m, p) obtenue en supprimant n - p colonnes de A. On peut extraire de A', p vecteurs lignes 257 COURS D'ALGÈBRE linéairement indépendants puisque le rang d'une matrice est le rang de ses vecteurs colonnes qui est aussi le rang de ses vecteurs lignes. Soit A" la matrice carrée d'ordre p obtenue en supprimant m — p lignes de A'. Alors A" est une matrice inversible de rang p extraite de A. Donc on a r > p. On en déduit r = p et le théorème est démontré. • Nous déduisons de ce théorème un critère général pour que des vecteurs soient linéairement indépendants. 11.2.0.3. Théorème Soient E un K-espace vectoriel de dimension n, B = (ei,..., e„) une base de E et x\, ...,xp des vecteurs de E définis par : ¿=i Soit M = (a«j)i<i<n,i<j<p lo matrice des coordonnées de ces vecteurs par rapport à la base B.Alors pour que x\,..., xp soient linéairement indépendants, il faut et il suffit que l'on puisse extraire de M une matrice carrée inversible d'ordre p. Démonstration. Nous savons que si p > n, les vecteurs x\,..., xp sont linéai- rement dépendants. Supposons donc p < n. La famille {x\,..., xp} est libre si et seulement si le sous-espace vectoriel de E engendré par cette famille est de dimension p, c'est-à-dire si et seulement si le rang de {xi,..., xp} est égal à p. D'après le Théorème 9.2.15, le rang de la famille {xi,..., xp} est égal à celui de la matrice M. Le Théorème 11.2.0.2 montre alors que les vecteurs xi,..., xp sont linéairement indépendants si et seulement si on peut extraire de M une matrice carrée inversible d'ordre p. o Caractérisation du sous-espace engendré par un système libre. Le résultat suivant nous sera fort utile dans l'étude des systèmes d'équations linéaires. 11.2.0.4. Théorème Soient E un K-espace vectoriel de dimension n, B = (e¡,..., en) une base de E et x\,..., xr, r vecteurs linéairement indépendants de E(r < n) définis par Xj = Alors pour qu'un vecteur v de composantes bi,...,bnde E appartienne au sous-espace vectoriel engendré par x\,...,xr, il faut et il suffit que les n — r déterminants 258 APPLICATIONS DES DÉTERMINANTS Ak = soient nuls pour tout J f e G {»• + 1, • • •, n}. arr akr br bk Démonstration. Comme les vecteurs x\,..., xr sont linéairement indépendants, on peut extraire de la matrice M = (a,¿) qui est de type (n, r) une matrice carrée P inversible d'ordre r. En changeant au besoin l'ordre de numérotation des lignes et des colonnes de M, nous pouvons supposer que P= : ... ar Considérons la matrice M' = an ... ari ... arr br \ a„i ... anr bn J dont les vecteurs colonnes sont les vecteurs x\,...,xr,v. Si le vecteur v appartient au sous-espace vectoriel engendré par xi,..., xr, on a rg(M') < r + 1 et, puisque P est inversible, le rang de M' est égal à r. Tous les déterminants d'ordre r + 1 extraits de M'sont donc nuls. En particulier, tout déterminant d'ordre r + 1 extrait de M'et dont dét(P) est un déterminant extrait est nul. Autrement dit, tous les déterminants A k sont nuls pour j f c = r + 1,..., n. Réciproquement, supposons que A* = 0 pour tout k G {r + 1,..., n}. Si k uploads/Litterature/ livre-algebre.pdf

  • 12
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager