Spectre d’un opérateur linéaire#
Definition 25
Soit \(A\) un opérateur linéaire sur \(\mathbb{R}^{n}\), un scalaire \(\lambda\in \mathbb{R}^{n}\) est une valeur propre de \(A\) si il existe un vecteur non nul \(\mathbf{x}\) tel que :
On dit alors que \(\mathbf{x}\) est un vecteur propre associé à \(\lambda\).
L’ensemble des valeurs réelles \(\lambda\) pour lesquels l’application \([A - \lambda\mbox{I}]\) est une bijection, est appelé ensemble résolvant. Le complémentaire sur \(\mathbb{R}\) de l’ensemble résolvant est le spectre de \(A\).
Remark 3
Il est clair que l’ensemble des valeurs propres est contenu dans le spectre. Cette inclusion est une égalité dans le cas où \(A\) opère sur un espace de dimension finie, mais est stricte dans le cas général : Pensez à l’opérateur shift dans l’espace vectoriel des suites numériques de carré sommable : 0 est dans le spectre mais n’est pas une valeur propre !
Definition 26
Soit \(A\) un opérateur linéaire sur \(\mathbb{R}^{n}\), le le déterminant
c’est un polynôme de degré \(n\). On l’appelle polynôme caractéristique de \(A\).
Le polynôme caractéristique est utile dans la détermination des valeurs propres d’un opérateur linéaire :
Proposition 18
Les racines du polynôme caractéristique d’un opérateur linéaire \(A\) sont les valeurs propres de \(A\).
Remarquons que les valeurs propres étant des racines d’un polynôme, il est tout à fait possible qu’elles n’existent pas toutes dans \(\mathbb{R}\) (c’est-à-dire que certaines sont complexes).
Réduction d’un opérateur linéaire#
Definition 27
On dit qu’un opérateur linéaire sur \(\mathbb{R}^{n}\) est diagonalisable si il existe une base de vecteurs propres. Dans une telle base la représentation matricielle de \(A\) est une matrice diagonale composée des valeurs propres de \(A\).
Proposition 19
Soit \(A\) un opérateur linéaire sur \(\mathbb{R}^{n}\), et soient \(\mathbf{v}_{1},\mathbf{v}_{2},\dots,\mathbf{v}_{n}\), une base de vecteurs propres associées aux valeurs propres \(\lambda_{i}\). Soit \(D\) la matrice, diagonale, dont tous les coefficients sur la diagonale est constitués des valeurs propres \(\lambda_{1},\lambda_{2},\dots,\lambda_{n}\) et dont tous les autres coefficients sont nuls. Alors \(D\) est la représentation matricielle de \(A\) dans la base de vecteurs propres associée.
Si de plus \(P\) est la matrice de passage d’une base \(\mathbf{p}_{1},\mathbf{p}_{2},\dots,\mathbf{p}_{n}\) vers la base de vecteurs propres \(\mathbf{v}_{1},\mathbf{v}_{2},\dots,\mathbf{v}_{n}\), alors la représentation matricielle \(M\) de \(A\) dans la base \(\mathbf{p}_{1},\mathbf{p}_{2},\dots,\mathbf{p}_{n}\) est donné par :
En général, un opérateur linéaire (resp. une matrice carrée) n’est pas diagonalisable, il suffit de penser aux cas de valeurs propres complexes. Il est cependant possible d’isoler quelques cas où il est possible de diagonaliser :
Proposition 20
Soit \(A\) un opérateur linéaire sur \(E\) un espace vectoriel réel de dimension \(n\). Si les valeurs propres sont toutes distinctes et réelles, alors \(A\) est diagonalisable.
Naturellement la proposition précédente n’est pas du tout une condition nécessaire, est une application peut posséder des valeur propres multiples et être diagonalisable : pensez à l’opérateur identité.
Terminons par deux résultats très importants :
Theorem 15
Il est toujours possible de trigonaliser un opérateur linéaire dans \(\mathbb{C}\) (resp. une matrice carrée).
Il s’en suit le théorème
Theorem 16
Cayley-Hamilton – Soit \(A\) un opérateur linéaire sur \(\mathbb{R}^{n}\) et \(P_{A}\) son polynôme caractéristique, alors \(P_{A}(A)=0\).
En fait, la réduction d’un endomorphisme (un opérateur linéaire), s’applique également lorsqu’on a pas diagonalisation : c’est la décomposition spectrale.
Theorem 17
Soit \(A\) un opérateur linéaire sur \(\mathbb{R}^{n}\). On suppose que le polynôme minimal de \(A\) est scindé (pas de racines complexes). Alors on peut décomposer \(A= D+N\) où \(D\) est diagonale et \(N\) est nilpotente. De plus \(N\) et \(D\) commutent. Cette décomposition est unique.
Cas des opérateurs auto-adjoint ou matrices symétriques#
Le cas des matrices symétriques est très utile en mécanique et en mathématiques pour l’ingénieur en général, puisque la plupart des objets rencontrés comme les formes d’énergie de déformation élastique (tenseur des contraintes, des déformations) pourront être représentées (dans leur version discrétisée) par de telles matrices, voir la méthode des éléments-finis par exemple.
Commençons par un résultat fondamental concernant les matrices symétriques:
Theorem 18
[]{#th:(ax,x) label=”th:(ax,x)”} Soit \(A\) un opérateur linéaire autoadjoint (i.e, symétrique) de \(\mathbb{R}^{n}\) alors toutes ses valeurs propres sont réelles et \(A\) est diagonalisable. De plus il existe une base orthonormée de vecteurs propres.
Preuve
Soit \(\lambda\) une valeur propre de \(A\) et soit \(\mathbf{v}\) un vecteur propre associé. On a alors que
Autrement dit : \(\lambda^2\geq 0\), ce qui signifie que \(\lambda\) est nécessairement réel. On déduit que toutes les valeurs propres sont réelles et donc que \(A\) est diagonalisable.
Soit deux vecteurs propres \(\mathbf{v}_1\) et \(\mathbf{v}_2\) associés respectivement aux valeurs propres \(\lambda_1 \neq \lambda_2\). Alors, on a
Si bien que puisque \(\lambda_1 \neq \lambda_2\), alors nécessairement \(\langle\mathbf{v}_1,\mathbf{v}_2\rangle\), c’est à dire qu’ils sont orthogonaux.
Definition 28
Soit \(A\) un opérateur linéaire sur \(\mathbb{R}^{n}\).
On dit que \(A\) est positive si \(\forall \mathbf{x}\in \mathbb{R}^{n}\),
\(A(\mathbf{x}).\mathbf{x}\geq 0\).
On dit que \(A\) est définie positive si il existe \(c>0\) telle que
\(\forall \mathbf{x}\in \mathbb{R}^{n}\),
\(A(\mathbf{x}).\mathbf{x}\geq c \|{\mathbf{x}}\|\).
Ainsi, soit \(\mathbf{v}_1, \dots,\mathbf{v}_{n}\) une base orthonormée de vecteurs propres associés aux valeurs propres \(\lambda_i\) d’une matrice symétrique \(A\). Alors pour tout \(\mathbf{v}\in\mathbb{R}^n\), il existe une décomposition unique
de sorte que
si bien que, si \(\lambda_{min}\) et \(\lambda_{max}\) désignent respectivement la plus petite et la plus grande des valeurs propres de \(A\),
d’où
Theorem 19
Soit \(A\) un opérateur linéaire sur \(\mathbb{R}^{n}\), \(A\) est définie positive si et seulement si toutes ses valeurs propres sont strictement positives.
Des algorithmes de résolution de systèmes linéaires pour de telles matrices sont particulièrement efficaces à l’exemple de la méthode du gradient conjugué (+ une technique de préconditionnement) basé sur une méthode de descente.
Terminons par un résultat d’optimisation quadratique fondamental :
Theorem 20
Soient \(A\in\mathbb{R}^{n\times n}\) une matrice symétrique, \(b\in\mathbb{R}^n\) et soit la fonctionnelle
Alors le problème de minimisation \(J\) sur \(\mathbb{R}^{n}\) est équivalent au problème linéaire
Si de plus \(A\) est définie positive, alors il existe une unique solution à ces problèmes.