Opérateurs linéaires – Matrices carrés#
Definition 17
Un opérateur linéaire sur un espace vectoriel \(E\) est une application linéaire définie sur \(E\) et à image dans \(E\).
On note
Dans le cas d’un opérateur linéaire (i.e. un endomorphisme) de \(\mathbb{R}^{n}\), la représentation matricielle est une matrice \(n\times n\). Une telle matrice, ayant le même nombre de ligne et de colonne, est dite carrée.
Proposition 9
Si \(E\) est un espace vectoriel de dimension \(n\), alors \( \mathscr{L} (E)\) est un espace vectoriel de dimension \(n^2\).
Adjoint d’un opérateur linéaire#
Definition 18
Soit \(A\) un opérateur linéaire sur \(\mathbb{R}^{n}\), l’opérateur adjoint \(A^{*}\) est défini par :
Proposition 10
Soit \(M\) la représentation matricielle d’un opérateur linéaire \(A\) de \(\mathbb{R}^{n}\) dans une certaine base orthonormée. Alors la représentation matricielle \(M^{*}\) de l’adjoint \(A^{*}\) dans cette même base est égale à la transposée de \(M\).
Partie symétrique et antisymétrique d’un opérateur linéaire de \(\mathbb{R}^{n}\)#
Definition 19
La partie symétrique d’un opérateur linéaire \(A\) de \(\mathbb{R}^{n}\) est égale à la somme de \(A\) et de \(A^{*}\) divisé par deux:
Definition 20
La partie antisymétrique d’un opérateur linéaire \(A\) de \(\mathbb{R}^{n}\) est égale à la somme de \(A\) et de \(-A^{*}\) divisé par deux:
Proposition 11
Proposition 12
La partie antisymétrique d’un opérateur linéaire \(A\) de \(\mathbb{R}^{n}\) définit de manière unique un vecteur \(\mathbf{v}\) de \(\mathbb{R}^{n}\) tel que
Par exemple dans \(\mathbb{R}^{3}\), si \(\mathbf{v}=(v_{1},v_{2},v_{3})\), on a
Déterminant#
Déterminant de \(n\) vecteurs de \(\mathbb{R}^{n}\)#
Le théorème suivant est également une définition :
Theorem 10
Soit \(E=\mathbb{R}^{n}\), et soit \((\mathbf{x}_{1},\dots,\mathbf{x}_{n})\) une base de \(E\). Il existe une unique \(n\)-forme alternée définie sur \(E^{n}\) appelée déterminant telle que
\(E^{n}\) désigne le produit d’espace \(E\times E \times \dots \times E\) (\(n\) fois). Le déterminant étant alterné par définition, le déterminant de \(n\) vecteurs de \(E\) change de signe si on permute deux vecteurs :
Par conséquent, le déterminant de \(n\) vecteurs est nul si deux vecteurs sont égaux :
Plus généralement, si une famille de \(n\) vecteurs est lié, c’est-à-dire que au moins un des vecteurs est une combinaison linéaire des autres, par linéarité le déterminant est nécessairement nul.
Réciproquement, si une famille est libre, son déterminant est une combinaison linéaire non nulle du déterminant de la base. On énonce ainsi un critère pour déterminer si une famille de \(n\) vecteur de \(E\) est une base de ou non :
Theorem 11
Une famille \((\mathbf{v}_{1},\dots,\mathbf{v}_{n})\) de \(n\) vecteurs de \(E= \mathbb{R}^{n}\) , est une base de \(E\) si et seulement si
Dans toute la suite, on définira toujours le déterminant rapporté à la base canonique de \(E\) plutôt qu’une base quelconque. Ainsi le déterminant ne sera désigné que par le symbole \(\det\).
Déterminant d’une matrice carré – Déterminant d’un opérateur linéaire#
Soit \(A\) une matrice \(n\times n\), elle est donc constitué de \(n\) colonnes de matrices \(n\times 1\), chacune d’elles représentant un vecteurs de \(\mathbb{R}^{n}\) (ou n’importe quel espace vectoriel de dimension \(n\)). Ainsi on peut définir le déterminant d’une matrice par l’intermédiaire de ses vecteurs colonnes :
Definition 21
Le déterminant d’une matrice carré est défini par le déterminant de ses vecteurs colonnes.
Proposition 13
Soit \(I\) la matrice identité \(n\times n\), par définition \(\det I =1\).
Proposition 14
Soit \(A\) une matrice carré \(n\times n\),
Proposition 15
Soient \(A\) et \(B\) deux matrices \(n\times n\). Bien que \(A\) et \(B\) ne permutent pas en général, on a
Cette dernière propriété permet de définir d’un opérateur linéaire : Soit \(f\) un opérateur linéaire sur \(E\) et soit \(A\) une représentation matricielle de \(f\) dans une base \((\mathbf{x}_{i})\) et \(B\) la représentation matricielle de \(f\) dans une autre base \((\mathbf{y}_{i})\). Par conséquent il existe une matrice de passage \(P\) de la base \((\mathbf{x}_{i})\) vers la base \((\mathbf{y}_{i})\). Si bien que
Autrement dit, si on définit le déterminant d’un opérateur linéaire par le déterminant de sa représentation matricielle dans une base, ce déterminant est indépendant du choix de la base.
Definition 22
Soit \(f\) un opérateur linéaire sur \(E\) et soit \(A\) une représentation matricielle de \(f\) dans une base \((\mathbf{x}_{i})\)
Theorem 12
Un opérateur linéaire est bijectif ou inversible si et seulement si son déterminant est non nul.
Règles de calcul d’un déterminant – Développement suivant une ligne ou une colonne#
Soit \(A\) une matrice carré \(n\times n\) dont les coefficients sont \(a_{ij}\). On définit des sous-matrices extraites de \(A\) utiles pour le calcul d’un déterminant :
Definition 23
On appelle mineur de \(a_{ij}\) dans \(A\), le déterminant de la sous matrice extraite de \(A\) ôtée de la \(i\)-ème ligne et la \(j\)-ème colonne. On le note \(\Delta_{ij}\).
Definition 24
On note Com\(A\), la matrice dont les composantes notées \(A_{ij}\) sont les cofacteurs de \(A\) :
On dit que Com\(A\) est la matrice des cofacteurs de \(A\).
Theorem 13
Soit \(A\) une matrice carré \(n\times n\) dont les coefficients sont \(a_{ij}\) et soient \(A_{ij}\) ses cofacteurs.
On a alors le développement du déterminant suivant la \(i\)-ème ligne :
et le développement suivant la \(j\)-ème colonne :
Une conséquence immédiate est le calcul très simple du déterminant d’une matrice triangulaire supérieure (resp. inférieure), i.e. une matrice dont les coefficients au dessous (resp. au dessus) de la diagonale sont tous nuls :
Proposition 16
Soit \(A\) une matrice carré triangulaire, son déterminant est le produit de ses coefficients diagonaux.
Proposition 17
Soit \(A\) une matrice \(2\times 2\) de coefficients \(a_{\alpha\beta}\),
Preuve : On vérifie aisément que la forme linéaire ainsi définie est alternée et satisfait à \(\det I =1\) où \(I\) désigne la matrice identité. Par définition, c’est le déterminant.
Ainsi pour calculer le déterminant d’une matrice \(3\times 3\) on peut développer suivant la 3-ème colonne (par exemple) :
On termine par une formule donnant l’inverse d’une matrice :
Theorem 14
Soit \(A\) une matrice carré \(n\times n\) inversible, alors si \(A^{-1}\) désigne son inverse on a $\( A^{-1} =\frac{1}{ \det A}\mbox{Com }A^{\top} . \)$(eq:comat)
Remark 2
La formule [eq:comat]{reference-type=”eqref” reference=”eq:comat”} a un intérêt uniquement théorique. En effet, cette formule nécessite un nombre de calculs extrêmement important (\(\thicksim n!\)), elle devient donc rédhibitoire dès que le système n’est pas ridiculement petit : \(n\geq 3\) pour un calcul humain, pour \(n=12\) on atteint quasiment \(10^9\) opérations… Pour inverser une matrice ou plutôt résoudre des systèmes linéaires, on aura recours à divers algorithmes tels que la méthode du pivot de Gauss, la factorisation LU ou des méthodes itératives d’approximation telles que la méthode du Gradient Conjugué, GMRES, voir le chapitre d’analyse numérique (non-écrit à ce jour …)