Représentation matricielle#
Tip
Dans toute la suite de cette section, \(E\) et \(F\) désignent deux espaces vectoriels de dimension finies respective \(n\) et \(m\).
Soient \((\mathbf{e}_{1},\dots,\mathbf{e}_{n})\) et \((\mathbf{f}_{1},\dots,\mathbf{f}_{m})\) deux bases respectives de \(E\) et \(F\).
Soit \(A\in A\in {\mathscr L}(E,F)\) une application linéaire définie sur \(E\) à image dans \(F\).
\(\forall\mathbf{u}\in E\), puisque \(A(\mathbf{u})\in F\), il existe une unique décomposition dans la base de \(F\), autrement dit il existe \(m\) coefficients uniques \(\beta_i\) tels que
Il en est de même pour chaque vecteur \(\mathbf{e}_j\) de la base de \(A\). Cela détermine un ensemble unique de \(m\times n\) coefficients notés \(a_{ij}\) tels que
Il est usuel et commode de représenter ces coefficients dans un tableau rectangulaire constitué de
\(m\) lignes
\(n\) colonnes
appelée matrice \(m\times n\) et notée \(M(A)\) (ou juste \(A\), par abus d’écriture), on parle alors de représentation matricielle de l’application linéaire :
Tip
Une matrice de dimension \(n\times m\) est donc un tableau de \(m\) lignes et \(n\) colonnes
\(n\) est la dimension de l’espace de départ
\(m\) est la dimension de l’espace d’arrivée
Remarquons que les coordonnées \(a_{ij}\) du vecteur \(A (\mathbf{e}_{j})\) apparaissent dans la \(j^{ème}\) colonne de la matrice \(M(A)\):
Les vecteurs \(A (\mathbf{e}_{j})\) sont donc parfois appelés vecteurs colonnes de la matrice \(M(A)\).
Règle de calcul
Si
alors
Preuve
Example
Plaçons nous dans \(E=\mathbb{R}^{2}\) et \(F=\mathbb{R}^{3}\).
Si, relativement à des bases \((\mathbf{e}_{1},\mathbf{e}_{2})\) et \((\mathbf{f}_{1},\mathbf{f}_{2},\mathbf{f}_{3})\), une application linéaire est définie comme
Alors, la matrice de l’application linéaire \(A\) dans les bases considérées s’écrit :
Ainsi, si par exemple
alors
Ce qu’on note également noter sous la forme:
Réciproquement, toute matrice de dimension \(m\times n\) définit une application linéraire de \(E\) vers \(F\)
Proposition 6
Si \(E\) et \(F\) sont deux espaces vectoriels de dimension respective \(n\) et \(m\):
A l’aide des coefficients de la matrice on peut déterminer l’image de tout vecteur \(\mathbf{u}\) de \(E\) par \(A\). En effet, si \(\mathbf{u}=\sum \alpha_{i}\mathbf{e}_{i}\), on déduit par linéarité de \(A\) que
Réciproquement, donnons nous maintenant une matrice \(m\times n\) de coefficients \(a_{ij}\), notée \(M(A)\). Si on définit l’application \(A\) par la formule (3), on remarque que \(A\in {\mathscr L}(E,F)\). Ainsi :
Theorem 7
Il y a une bijection entre \({\mathscr L}(E,F)\) et l’ensemble des matrice \(m\times n\),
\(m\) lignes, dimension de l’espace d’arrivée,
\(n\) colonnes, dimension de l’espace de départ.
Exemple :
Definition 16
On appelle rang de \(A\), la dimension de l’image de \(E\) par \(A\). Il est donc égal à la dimension de l’espace engendré par le vecteurs colonnes de \(M(A)\):
Bijection entre \(\mathscr{L} (E,\mathbb{R})\) et \(E\)#
Enchaînons par un résultat fondamental:
Theorem 8
Soit \(E\) un espace vectoriel réel de dimension finie. Étant donné une base de \(E\), on peut définir le produit scalaire : $\( \forall \mathbf{e}=x_{i}\mathbf{e}_{i}\quad \forall \mathbf{f}=y_{i}\mathbf{e}_{i} \)$
Ainsi pour tout \(\mathbf{e}\in E\), on défini une forme linéaire sur \(E\). Réciproquement, toute forme linéaire sur \(E\), via sa représentation matricielle, peut être présentée comme un produit scalaire par un vecteur de \(E\).
Il existe donc une bijection entre \({\mathscr {L}}(E,\mathbb{R})\) et \(E\).
Corollary 1
Dans le cas où \(E=\mathbb{R}^{n}\) le produit scalaire rapporté à la base canonique définit la bijection naturelle entre \({\mathscr {L}}(\mathbb{R}^{n},\mathbb{R})\) et \(\mathbb{R}^{n}\).
Cette bijection est essentielle pour bien comprendre le calcul différentiel: Ainsi un réel \(a\) peut être identifié à une forme linéaire réelle définit par l’application qui associe à tout réel \(x\), la valeur \(ax\).
De même un vecteur \(\mathbf{a}\in\mathbb{R}^{2}\) peut être identifié à forme linéaire réelle définit par l’application qui associe à tout vecteur \(\mathbf{e}\), la valeur réelle \(\langle\mathbf{a},\mathbf{e}\rangle\).
Norme d’une application linéaire#
Terminons cette section par une proposition permettant d’obtenir une estimation de la norme d’une application linéaire grâce à sa représentation matricielle
Proposition 7
[]{#prop1 label=”prop1”} Soit \(a_{ij}\) les coefficients de la matrice de \(A\in{\mathscr L}(E,F)\) de la base \((\mathbf{e}_{1},\dots,\mathbf{e}_{n})\) de \(E\) dans \((\mathbf{f}_{1},\dots,\mathbf{f}_{n})\) de \(F\). On a la majoration :
Preuve
Soit \(\mathbf{e}\in E\), de coordonnées \(\alpha_{i}\) dans la base \((\mathbf{e}_{1},\dots,\mathbf{e}_{n})\), d’après l’inégalité de Schwarz on a
Produit de deux matrices et composition de deux applications linéaires#
Considérons à présent un troisième espace vectoriel \(Z\) de dimension \(p\) avec une base \(\langle\mathbf{z}_{1},\dots,\mathbf{z}_{p}\rangle\). Si \(A\) est définie par (2){reference-type=”eqref” reference=”eq:1”}, définissons de la même manière une application linéaire \(B\in{\mathscr L}(F,Z)\) à l’aide de coefficients \(b_{ki}\) :
On peut alors définir l’application composée \(BA\in{\mathscr L}(E,Z)\) par
Mais comme
on a finalement
c’est à dire :
On dit aussi que la matrice \(p\times n\), notée \(C\), de coefficients \(c_{kj}\) est le produit de la matrice \(A\) par la matrice \(B\).
La formule (5){reference-type=”eqref” reference=”eq:5”} donne la règle usuelle du produit de deux matrices.
Terminons par la règle : le produit d’une matrice \(n \times m\) par une matrice \(m \times p\), donne une matrice \(n \times p\):
Si les dimensions des espaces ne rentrent pas dans le cadre de cette règle, le produit n’est pas défini, les dimensions d’espaces étant incompatibles.
Changement de bases et Matrices de passage#
Dans la pratique, et notamment en Mécanique, il apparaît souvent judicieux de passer d’un système de coordonnées à un autre suivant les besoins. Il est donc nécessaire de maîtriser les outils permettant ces passages.
Soit \(E\) un espace vectoriel de dimension \(n\) et soit un vecteur \(\mathbf{e}\in E\) de coordonnées \(\alpha_{i}\) dans la base \((\mathbf{e}_{1},\dots,\mathbf{e}_{n})\). Soit \((\mathbf{e}^{\prime}_{1},\dots,\mathbf{e}^{\prime}_{n})\) une autre base de \(E\). Supposons connues les coordonnées des vecteurs \(\mathbf{e}^{\prime}_{i}\) dans la base \((\mathbf{e}_{1},\dots,\mathbf{e}_{n})\):
On a donc défini une matrice \(P\) représentant l’application identité de \(E\), muni de la base \((\mathbf{e}^{\prime}_{1},\dots,\mathbf{e}^{\prime}_{n})\), dans \(E\), muni de la base \((\mathbf{e}_{1},\dots,\mathbf{e}_{n})\):
Theorem 9
La matrice \(P\) ayant pour \(j^{ème}\) colonne les coordonnées de \(\mathbf{e}^{\prime}_{j}\) dans la base \((\mathbf{e}_{1},\dots,\mathbf{e}_{n})\) est inversible. On l’appelle la matrice de passage de la base \((\mathbf{e}_{1},\dots,\mathbf{e}_{n})\) vers la base \((\mathbf{e}^{\prime}_{1},\dots,\mathbf{e}^{\prime}_{n})\).
De plus, si \(\alpha_{i}\) sont les “anciennes” coordonnées de \(\mathbf{e}\) dans \((\mathbf{e}_{1},\dots,\mathbf{e}_{n})\), formant la matrice colonne (\(n\times 1\)) \([\mathbf{e}]_{e}\), on peut les exprimer en fonction des “nouvelles” coordonnées \(\alpha^{\prime}_{j}\) de \(\mathbf{e}\) dans \((\mathbf{e}^{\prime}_{1},\dots,\mathbf{e}^{\prime}_{n})\), notées également par une matrice colonne \([\mathbf{e}]_{e^{\prime}}\) avec la formule :
En résumé, si $\( \mathbf{e} = \sum_{j=1}^{n} \alpha_{j}\mathbf{e}_{j} =\sum_{j=1}^{n} \alpha^{\prime}_{j}\mathbf{e}^{\prime}_{j}, \quad \mbox{et} \quad \mathbf{e}^{\prime}_{j}=\sum_{i=1}^{n}p_{ij}\mathbf{e}_{i}, \)$
alors
Autrement dit, pour obtenir les “nouvelles” coordonnées en fonction des anciennes, il faut passer par la matrice de passage \(P^{-1}\) de la base \((\mathbf{e}^{\prime}_{1},\dots,\mathbf{e}^{\prime}_{n})\) vers la base \((\mathbf{e}_{1},\dots,\mathbf{e}_{n})\).
La notation \(P^{-1}\) est justifiée par le fait que \(P^{-1}\) est nécessairement la matrice inverse de \(P\). En effet, on doit avoir
où \(I_{n}\) est la matrice identité \(n\times n\).
Considérons maintenant une application linéaire \(A\in {\mathscr L}(E,F)\) où \(E\) et \(F\) sont toujours des espaces vectoriels de dimension \(n\) et \(m\) respectivement.
On muni \(E\) des bases \((\mathbf{e}_{1},\dots,\mathbf{e}_{n})\) et \((\mathbf{e}^{\prime}_{1},\dots,\mathbf{e}^{\prime}_{n})\), avec \(P\) la matrice de passage de \((\mathbf{e}_{1},\dots,\mathbf{e}_{n})\) vers \((\mathbf{e}^{\prime}_{1},\dots,\mathbf{e}^{\prime}_{n})\).
On muni de même \(F\) des bases \((\mathbf{f}_{1},\dots,\mathbf{f}_{m})\) et \((\mathbf{f}^{\prime}_{1},\dots,\mathbf{f}^{\prime}_{m})\), avec \(Q\) la matrice de passage de \((\mathbf{f}_{1},\dots,\mathbf{f}_{m})\) vers \((\mathbf{f}^{\prime}_{1},\dots,\mathbf{f}^{\prime}_{m})\). Alors, on a la proposition :
Proposition 8
Soit \(M\) la matrice de \(A\) de la base \((\mathbf{e}_{1},\dots,\mathbf{e}_{n})\) de \(E\) vers la base \((\mathbf{f}_{1},\dots,\mathbf{f}_{m})\)de \(F\). Alors la matrice \(M^{\prime}\) de \(A\) de la base \((\mathbf{e}^{\prime}_{1},\dots,\mathbf{e}^{\prime}_{n})\) de \(E\) vers la base \((\mathbf{f}^{\prime}_{1},\dots,\mathbf{f}^{\prime}_{m})\) de \(F\), se décompose :
Proof. En effet, on a
et
Dans le cas particulier où \(A\) est un opérateur linéaire (on dit aussi endomorphisme) sur \(E\), si \(P\) est la matrice de passage de la base \((\mathbf{e}_{1},\dots,\mathbf{e}_{n})\) vers la base \((\mathbf{e}^{\prime}_{1},\dots,\mathbf{e}^{\prime}_{n})\), alors si \(M\) et \(M^{\prime}\) sont les matrices de \(A\) dans \((\mathbf{e}_{1},\dots,\mathbf{e}_{n})\) et \((\mathbf{e}^{\prime}_{1},\dots,\mathbf{e}^{\prime}_{n})\) respectivement, alors on a