3  Calcul différentiel

On connaît bien depuis le secondaire la notion de fonction réelle définie sur un intervalle. L’étude d’une fonction consiste généralement dans l’étude de sa continuité, de sa dérivabilité ou de son taux de croissance. Dans cette section, on étend ces notions aux fonctions de plusieurs variables, c’est-à-dire des applications définies sur des parties (ouvertes) de \(\mathbb{R}^{m}\) à valeurs dans \(\mathbb{R}^{n}\).

3.1 Éléments de topologie métrique

Le titre de cette section est trompeur, il ne s’agit ici que de rappeler quelques définitions usuelles en topologie métrique, il n’y a aucune propriété énoncée. Il s’agit pour l’essentiel de donner un sens à la notion de convergence pour des objets autre que des scalaires...
Rappelons que dans \(\mathbb{R}^{n}\), un ensemble ouvert O est une partie de \(\mathbb{R}^{n}\) telle que pour tout élément \(x_{0}\) de O, la boule (fermée) de centre \(x_{0}\) et de rayon \(\varepsilon>0\), \[B(x_{0},\varepsilon)=\{ x\in \mathbb{R}^{n}, \text{ tel que } \left|{x_{0}-x}\right|\leq \varepsilon\},\] soit incluse dans O pour tout \(\varepsilon\) suffisamment petit.

Par ailleurs un ensemble sera dit fermé si son ensemble complémentaire est ouvert. Autrement dit, une partie de \(\mathbb{R}^{n}\) est ouverte si elle ne contient aucun point de sa frontière, tandis qu’une partie de \(\mathbb{R}^{n}\) est fermée si elle contient tous les points de sa frontière. On remarquera, qu’au contraire d’une porte, un ensemble peut être ni ouvert ni fermé.

La raison pour laquelle le calcul différentiel se fait sur des ensembles ouverts est, disons, technique. Il s’agit pour l’essentiel d’éliminer des petites subtilités pouvant survenir sur le bord des ensembles considérés (par exemple la notion de continuité à gauche ou à droite dans le cas d’une fonction d’une variable réelle). Il n’y a donc pas lieu d’insister trop sur cet aspect de la théorie dans un premier temps.

Dans toute la suite, la norme d’un vecteur \({\mathbf{x}}\) de \(\mathbb{R}^{n}\) est la norme euclidienne usuelle, si \[{\mathbf{x}} = \sum_{i=1}^{n}x_{i}{\mathbf{e}}_{i}\] les \(\left\{{\mathbf{e}}_{i}\right\}\) désignant la base canonique de \(\mathbb{R}^{n}\), alors \[\left\lVert {\mathbf{x}}\right\lVert=\sqrt{\sum_{i=1}^{n}(x_{i})^{2}}.\] Il est facile de vérifier que cette norme satisfait aux conditions définissant une norme : \[\begin{aligned} &{\|{{\mathbf{x}} + {\mathbf{y}}}\|}_{} \leq \left\lVert {\mathbf{x}}\right\lVert+ \left\lVert {\mathbf{y}}\right\lVert, \\ &\left\lVert \lambda{\mathbf{x}}\right\lVert = \lambda\left\lVert {\mathbf{x}}\right\lVert,\\ & \left\lVert {\mathbf{x}}\right\lVert = 0 \Leftrightarrow {\mathbf{x}}=0. \end{aligned}\]

Definition 3.1 On dira d’un élément (ou vecteur) \({\mathbf{x}}\) de \(\mathbb{R}^{n}\) qu’il converge vers un autre élément \({\mathbf{x}}_{0}\) de \(\mathbb{R}^{n}\) si la norme de la différence \({\mathbf{x}}_{0} - {\mathbf{x}}\) tend vers 0 : \[{\mathbf{x}} \longrightarrow {\mathbf{x}}_{0} \Leftrightarrow {\|{ {\mathbf{x}}_{0} - {\mathbf{x}}}\|}_{} \longrightarrow 0.\]

Definition 3.2 Une suite \({\mathbf{x}}_{n}\) de \(\mathbb{R}^{n}\) est une suite de Cauchy si et seulement si \[\lim_{n,m\rightarrow +\infty} {\|{{\mathbf{x}}_{n}- {\mathbf{x}}_{m}}\|}_{}=0.\]

Par ailleurs, on est amené à utiliser souvent la notion de reste négligeable, notés petit \(o\) et grand \(O\) dans le sens où \[\begin{aligned} &\lim_{\left\lVert {\mathbf{h}}\right\lVert\rightarrow 0} O({\mathbf{h}})=0, \\ &\lim_{\left\lVert {\mathbf{h}}\right\lVert\rightarrow 0} \frac{o({\mathbf{h}})}{\left\lVert {\mathbf{h}}\right\lVert} =0. \end{aligned}\]

TipRemarque

Les notions de convergences et de suite de Cauchy, présentées ici, se généralisent sans modification à tout espace vectoriel de dimension finie ou non, muni d’une norme.

3.2 Fonctions continues de plusieurs variables

Revenons tout d’abord au cas où les fonctions sont définies sur \(\mathbb{R}^{n}\) (ou sur des ouverts de \(\mathbb{R}^{n}\)) dans le cas familier où \(n=1\) afin d’y jeter un nouveau regard.

Si \(f\) est une fonction à valeurs réelles définie sur un intervalle ouvert \(]a,b[\) de \(\mathbb{R}\) et si \(x_{0}\in]a,b[\) alors

Definition 3.3 On dit que si \[\lim_{x\rightarrow x_{0}}f(x)= f(x_{0}).\]

Remarquons ici que la notion \(x\) tends vers \(x_{0}\) naturelle dans \(\mathbb{R}\) ne l’est plus si \(x\) désigne des objets abstraits, d’où la nécessité d’une topologie.

On va voir qu’il est possible de reformuler cette définition de façon “légèrement” plus abstraite afin de la généraliser: On peut dire que \(f\) est continue en \(x_{0}\) si \(\forall \varepsilon>0, \exists \eta>0 \text{ tel que }\) \[\left|{ x_{0} -x }\right| \leq \eta \Rightarrow \left|{ f( x_{0}) -f(x)}\right| \leq \varepsilon\] autrement dit \(f\) est continue en \(x_{0}\) si \[f(x) = f( x_{0}) + O(\left|{x- x_{0}}\right|) .\]

Pour plus d’informations sur la notion d’ensemble ouvert, on peut consulter les manuels de topologie élémentaire; il est conseillé de se limiter à la topologie métrique dans un premier temps. Il faut savoir que même si la topologie est une science trop abstraite pour ce cours, elle est une base fondatrice du calcul différentiel et donc de toutes les mathématiques appliquées faisant intervenir des équations aux dérivées partielles, et en premier lieu la mécanique. En fait, on utilise la topologie sans le savoir, un peu comme M. Jourdain.

3.3 Fonction différentiable – Application dérivée

3.3.1 Cas des fonctions réelles définie sur un intervalle réel

De façon classique on la définition pour une fonction d’une variable réelle à valeur dans \(\mathbb{R}\):

On dit que \(f\) est dérivable en \(x_{0}\) s’il existe un réel \(f^{\prime}(x_{0})\) défini par \[f^{\prime}(x_{0}) =\lim_{h\rightarrow 0}\frac{f(x_{0}+h)-f( x_{0})}{h} .\]

Cependant, comme pour la continuité, on va adopter une autre présentation de la définition afin de la généraliser

Definition 3.4 On dit que \(f\) est dérivable en \(x_{0}\) s’il existe un réel \(f^{\prime}(x_{0})\) tel que \[f(x_{0}+h)=f( x_{0}) + f^{\prime}(x_{0})h + o(h)\]

le “reste” \(o(h)\) étant négligeable dans le sens que \[\lim_{h\rightarrow 0} \frac{o(h)}{h} =0 .\] On remarque que la quantité \(f(x_{0}+h)-f( x_{0})\) s’exprime comme la somme d’une application linéaire qui à \(h\) associe \(f^{\prime}(x_{0})h\) et d’un reste négligeable. On peut donc considérer la dérivée de \({\mathbf{f}}\) au point \(x_{0}\) non seulement comme un réel mais également comme un opérateur linéaire sur \(\mathbb{R}\) qui à \(h\) associe \(f^{\prime}(x_{0})h\) (en fait cette considération a été établi à partir de la bijection naturelle entre \(\mathbb{R}\) et \({\mathscr L} (\mathbb{R})\)).

On doit également voir cette définition comme une manière d’approcher les valeurs d’une fonction autour d’une donnée \(f(x_0)\) en première approximation on a : \[f(x_{0}+h)\approx f( x_{0}) + f^{\prime}(x_{0})h\]

C’est cette définition qu’il faudra retenir. En général, les étudiants ont beaucoup de mal à oublier la définition qu’ils ont apprise dans le Secondaire valable uniquement pour les fonctions réelles d’une variable réelle, et ils l’utilisent sans scrupule même s’il n’a plus de sens comme c’est le cas pour tout les autres cas de fonctions. Il va sans dire que ce genre d’erreurs coûte quelques points aux examens ;-)

3.3.2 Cas général

Considérons maintenant une fonction \({\mathbf{f}}\) définie sur un intervalle \(]a,b[\) de \(\mathbb{R}\) à valeurs dans \(\mathbb{R}^{m}\). Rappelons que cela signifie que \({\mathbf{f}}(x)= (f_{1}(x),\dots,f_{m}(x))\) ou encore, si on représente une base canonique de \(\mathbb{R}^{m}\) par \(\{{\mathbf{u}}_{1}, \dots ,{\mathbf{u}}_{m}\}\): \[{\mathbf{f}}(x)= f_{1}{\mathbf{u}}_{1}+ \dots + f_{m}{\mathbf{u}}_{m}.\]

En un point \(x_{0}\in ]a,b[\), la dérivée de \({\mathbf{f}}\) en \(x_{0}\), noté \({\mathbf{f}}^{\prime}(x_{0})\), est défini comme le vecteur de \(\mathbb{R}^{m}\) (si il existe) tel que \[{\mathbf{f}}^{\prime}(x_{0}) =\lim_{h\rightarrow 0}\frac{{\mathbf{f}}(x_{0}+h)-{\mathbf{f}}( x_{0})}{h} \quad \text{ ou plutôt } \quad {\mathbf{f}}(x_{0}+h)-{\mathbf{f}}(x_{0}) = {\mathbf{f}}^{\prime}(x_{0})h + o(h).\] Soulignons encore que l’égalité précédente est vectorielle : \[{\mathbf{f}}^{\prime}(x_{0}) = f_{1}(x_{0}){\mathbf{u}}_{1}+ \dots + f_{m}(x_{0}){\mathbf{u}}_{m},\] et donc peut également s’écrire sous forme matricielle dans la base canonique: \[\begin{bmatrix} {f}_{1}(x_{0}+h) \\ \vdots \\ {f}_{m}(x_{0}+h) \end{bmatrix} - \begin{bmatrix} {f}_{1}(x_{0}) \\ \vdots \\ {f}_{m}(x_{0}) \end{bmatrix} = \begin{bmatrix} {f}_{1}^{\prime}(x_{0}) \\ \vdots \\ {f}_{m}^{\prime}(x_{0}) \end{bmatrix} + o(h),\] ou encore sous forme vectorielle :

Definition 3.5 \({\mathbf{f}}\) est dérivable en \(x_{0}\) si et seulement si il existe un vecteur \({\mathbf{f}}^{\prime}(x_{0})\) tel que : \[{\mathbf{f}}(x_{0}+h)-{\mathbf{f}}( x_{0}) = {\mathbf{f}}^{\prime}(x_{0})h + {\mathbf{o}}(h),\]

La dérivée de \({\mathbf{f}}\) en \(x_{0}\) apparaît non seulement comme un vecteur de \(\mathbb{R}^{m}\) mais également comme une application linéaire de \(\mathbb{R}\) dans \(\mathbb{R}^{m}\) qui associe à tout réel \(h\) le vecteur \({\mathbf{f}}^{\prime}(x_{0})h\) (il s’agit là de la bijection naturelle entre \(\mathbb{R}^{m}\) et \({\mathscr L}(\mathbb{R}^{m},\mathbb{R})\)).

On va maintenant généraliser ces notions.

Definition 3.6 Soit \({\mathbf{f}}\) une application (on ne dit plus fonction ?) d’un ouvert \(\Omega\) de \(E=\mathbb{R}^{n}\) dans \(F=\mathbb{R}^{m}\). On dit que \({\mathbf{f}}\) est en un point \({\mathbf{x}}\in\Omega\), \({\mathbf{x}}=(x_{1},\dots,x_{n})\), si il existe une application linéaire de \(\mathbb{R}^{n}\) dans \(\mathbb{R}^{m}\), notée \({\mathbf{f}}^{\prime}({\mathbf{x}}_{0})\) telle que \[{\mathbf{f}}({\mathbf{x}}_{0}+{\mathbf{h}}) = {\mathbf{f}}( {\mathbf{x}}_{0}) + {\mathbf{f}}^{\prime}({\mathbf{x}}_{0})({{\mathbf{h}}}) + o(h) =0\] où le “reste” \({\mathbf{o}}(h)\) est cette fois-ci négligeable au sens que \[\lim_{h\rightarrow 0} \frac{{\|{{\mathbf{o}}(h)}\|}_{}}{\left\lVert h\right\lVert} =0 .\]

On dit alors que \({\mathbf{f}}^{\prime}({\mathbf{x}}_{0})\) est la différentielle (on ne dit plus dérivée?) de \({\mathbf{f}}\) en \({\mathbf{x}}\) et on également parfois \[{\mathbf{f}}^{\prime}({\mathbf{x}})= \text{d}{\mathbf{f}}_{{\mathbf{x}}}.\] Ainsi, si \({\mathbf{f}}\) est différentiable sur un ouvert \(\Omega\), alors pour tout \({\mathbf{x}}\in\Omega\), \[{\mathbf{f}}^{\prime}({\mathbf{x}})\in{\cal L}(E,F)={\mathscr L}(\mathbb{R}^{n},\mathbb{R}^{m}),\] i.e. la différentielle de \({\mathbf{f}}\) en \({\mathbf{x}}\) est une application linéaire de \(\mathbb{R}^{n}\) (tout entier) dans \(\mathbb{R}^{m}\) mais on peut remarquer que \({\mathbf{f}}^{\prime}\) est une application de \(\Omega\) vers \({\mathscr L}(\mathbb{R}^{n},\mathbb{R}^{m})\).

TipRemarque

Pour des raisons, disons pédagogiques, nous nous sommes limités dans le cadre de ces rappels aux fonctions définies sur des parties de \(\mathbb{R}^{n}\) à valeurs dans \(\mathbb{R}^{m}\). Mais, tout ce qui suit est également valable si on remplace les \(\mathbb{R}^{n}\) et \(\mathbb{R}^{m}\) par des objets “plus abstraits” que sont les espaces de Banach (i.e. des espaces normés complets) qu’on pourrait noter également \(E\) et \(F\). Les énoncés et les démonstrations demeurant strictement identiques.

TipRemarque

On parle également d’application tangente pour désigner la différentielle en un point.

Theorem 3.1 Soit \({\mathbf{f}}\) une application d’un ouvert \(\Omega\) de \(\mathbb{R}^{n}\) dans \(\mathbb{R}^{m}\). Si \({\mathbf{f}}\) est différentiable en \({\mathbf{x}}\in \Omega\), alors sa différentielle est unique.

Proof. Supposons qu’on ait, avec \(t\in\mathbb{R}\), \[f(x+th) = f(x) +df_1th +o(th) \quad \text{ et } \quad f(x+th) = f(x) +df_2th +o(th)\] Alors on obtient en effectuant la différence: \[(df_1 - df_2) th = o(th) =t^2o(h)\] d’où pour tout \(t\) \[(df_1 - df_2) h =to(h)\] c’est à dire \[(df_1 - df_2) h = 0\] ◻

Quelques remarques

  1. Si \({\mathbf{f}}\) est différentiable en \({\mathbf{x}}\) alors \({\mathbf{f}}\) est nécessairement continue en \({\mathbf{x}}\) (exercice).

  2. La différentielle notée \({\mathbf{f}}^{\prime}({\mathbf{x}})\) ou d\({\mathbf{f}}_{x}\) est appelée parfois dérivée totale de \({\mathbf{f}}\) en \({\mathbf{x}}\), afin de la distinguer des dérivées partielles.

  3. Si \(A\in{\mathscr L}(\mathbb{R}^{n},\mathbb{R}^{m})\) et si \(x\in\mathbb{R}^{n}\) alors \[A^{\prime}({\mathbf{x}})=A\] Autrement dit, une application linéaire est sa propre différentielle. Remarquez que \({\mathbf{x}}\) apparaît explicitement dans le premier membre mais pas dans le second : c’est parce que la fonction dérivée d’une application linéaire est constante (indépendance par rapport au “point” où on dérive.

Theorem 3.2 Règle de composition – Soit \({\mathbf{f}}\) une application d’un ouvert \({\cal O} \subset\mathbb{R}^{n}\) vers \(\mathbb{R}^{m}\) différentiable en un point \({\mathbf{x}}_{0}\) de \({\cal O}\) et \({\mathbf{g}}\) une application d’un ouvert de \(\mathbb{R}^{m}\) contenant \({\mathbf{f}}({\cal{O}})\) vers \(\mathbb{R}^{k}\) différentiable en \({\mathbf{f}}({\mathbf{x}}_{0})\). Alors l’application, composé de \({\mathbf{f}}\) par \({\mathbf{g}}\), \({\mathbf{F}}\) de \({\cal O}\subset\mathbb{R}^{n}\) vers \(\mathbb{R}^{k}\) définie par \[{\mathbf{F}}({\mathbf{x}}) = {\mathbf{g}}\circ{\mathbf{f}} = {\mathbf{g}}({\mathbf{f}}({\mathbf{x}}))\] est différentiable en \({\mathbf{x}}_{0}\) et \[{\mathbf{F}}^{\prime}({\mathbf{x}}_{0}) ={\mathbf{g}}^{\prime}({\mathbf{f}}({\mathbf{x}}_{0})) {\mathbf{f}}^{\prime}({\mathbf{x}}_{0}).\]

Remarquer que le second membre est le produit de deux applications linéaires :
\({\mathbf{g}}^{\prime} ({\mathbf{f}}({\mathbf{x}}_{0}))\in {\cal L}(\mathbb{R}^{m},\mathbb{R}^{k})\) et \({\mathbf{f}}^{\prime}({\mathbf{x}}_{0})\in {\mathscr L}(\mathbb{R}^{n},\mathbb{R}^{m})\); on a bien que \({\mathbf{F}}^{\prime}({\mathbf{x}}_{0})\in {\mathscr L} (\mathbb{R}^{n},\mathbb{R}^{k})\).

Proof. \[\begin{aligned} {\mathbf{F}}({\mathbf{x}}_0+{\mathbf{h}}) &= {\mathbf{g}}({\mathbf{f}}({\mathbf{x}}_0+{\mathbf{h}}) ) \\ &= {\mathbf{g}}({\mathbf{f}}({\mathbf{x}}_0) + {\mathbf{f}}^{\prime}({\mathbf{x}}_0){\mathbf{h}} +o({\mathbf{h}})) \\ &= {\mathbf{F}}({\mathbf{x}}_0) + {\mathbf{g}}^{\prime}({\mathbf{f}}({\mathbf{x}}_0)){\mathbf{f}}^{\prime}({\mathbf{x}}_0){\mathbf{h}} +o({\mathbf{f}}^{\prime}({\mathbf{x}}_0){\mathbf{h}}+{\mathbf{h}})) + o({\mathbf{h}})) \\ &= {\mathbf{F}}({\mathbf{x}}_0) + {\mathbf{g}}^{\prime}({\mathbf{f}}({\mathbf{x}}_0)){\mathbf{f}}^{\prime}({\mathbf{x}}_0){\mathbf{h}} +o({\mathbf{h}})\\ &= {\mathbf{F}}({\mathbf{x}}_0) + {\mathbf{F}}^{\prime}({\mathbf{x}}_{0}) +o({\mathbf{h}}) \end{aligned}\] ◻

3.3.3 Matrice Jacobienne et dérivées partielles

Puisque la différentielle de \({\mathbf{f}}\) en un point est une application linéaire de \(\mathbb{R}^{n}\) vers \(\mathbb{R}^{m}\), on peut la représenter sous forme matricielle. Plus précisément par une matrice \(n\times m\). Soient \(({\mathbf{e}}_{1},\dots,{\mathbf{e}}_{n})\) et \(({\mathbf{u}}_{1},\dots,{\mathbf{u}}_{m})\) les bases canoniques des espaces \(\mathbb{R}^{n}\) et \(\mathbb{R}^{m}\) respectivement: \[\begin{array}[c]{ccl} {\mathbf{x}} &= &x_{1}{\mathbf{e}}_{1}+\dots+x_{1}{\mathbf{e}}_{n}\\ {\mathbf{f}}({\mathbf{x}}) & = &f_{1}({\mathbf{x}}){\mathbf{u}}_{1}+\dots+f_{m}({\mathbf{x}}){\mathbf{u}}_{m}. \end{array}\]

Definition 3.7 La représentation matricielle de la différentielle de \({\mathbf{f}}\) dans ces bases canoniques est la matrice Jacobienne. Usuellement, elle est notée \(J({\mathbf{f}})\) ou encore \(J_{{\mathbf{f}}}\).

Definition 3.8 Soit \(x_{j}\) la \(j\)-ème variable de \(\mathbb{R}^{n}\), la dérivée partielle de \({\mathbf{f}}\) par rapport à \(x_{j}\) est la dérivée de \({\mathbf{f}}\) par rapport à \(x_{j}\), les autres variables étant considérées fixes. On la note : \[\frac{\partial{{\mathbf{f}}}}{\partial{x_{j}}}= \frac{\partial{f_{1}}}{\partial{x_{j}}}{\mathbf{u}}_{1} + \dots + \frac{\partial{f_{m}}}{\partial{x_{j}}}{\mathbf{u}}_{m}.\]

On peut remarquer qu’on a encore \[\frac{\partial{{\mathbf{f}}}}{\partial{x_{j}}}({\mathbf{x}}) = \lim_{t\rightarrow 0} \frac{{\mathbf{f}}({\mathbf{x}}+t{\mathbf{e}}_{j}) -{\mathbf{f}}({\mathbf{x}})}{t}, \quad \text{ ou plutôt } \quad {\mathbf{f}}({\mathbf{x}}+t{\mathbf{e}}_{j})-{\mathbf{f}}({\mathbf{x}}) = \frac{\partial{{\mathbf{f}}}}{\partial{x_{j}}}({\mathbf{x}})t +o(t).\]

Proposition 3.1 Si \({\mathbf{f}}\) est différentiable en \({\mathbf{x}}\) et si \({\mathbf{a}}=(a_{1},\dots,a_{n})\in\mathbb{R}^{n}\), alors toutes les dérivées partielles existent et \[{\mathbf{f}}^{\prime}({\mathbf{x}}){\mathbf{a}} = a_{1}\frac{\partial{{\mathbf{f}}({\mathbf{x}})}}{\partial{x_{1}}} +\dots+ a_{n}\frac{\partial{{\mathbf{f}}({\mathbf{x}})}}{\partial{x_{n}}}.\]

Attention: la réciproque n’est pas vrai : On peut construire une fonction dont les dérivées partielles existent et sont continues mais qui n’est pas elle même différentiable.

On note aussi parfois : \[d{\mathbf{f}}= \frac{\partial{{\mathbf{f}}}}{\partial{x_{1}}}dx_{1}+\dots + \frac{\partial{{\mathbf{f}}}}{\partial{x_{n}}}dx_{n}.\]

Theorem 3.3 La composante de la \(i\)-ème ligne et de la \(j\)-ème colonne de la matrice Jacobienne est la dérivée partielle de la \(i\)-ème composante de \({\mathbf{f}}\) par rapport à la \(j\)-ème variable. On note : \[J_{ij}= \frac{\partial{f_{i}}}{\partial{x_{j}}}.\]

ou encore \[(J) = \begin{bmatrix} \frac{\partial{f_{1}}}{\partial{x_{1}}} & \cdots & \frac{\partial{f_{1}}}{\partial{x_{j}}}& \cdots & \frac{\partial{f_{1}}}{\partial{x_{n}}} \\ \vdots & & \vdots & & \vdots \\ \frac{\partial{f_{i}}}{\partial{x_{1}}} & \cdots & \frac{\partial{f_{i}}}{\partial{x_{j}}}& \cdots & \frac{\partial{f_{i}}}{\partial{x_{n}}} \\ \vdots & & \vdots & & \vdots \\ \frac{\partial{f_{m}}}{\partial{x_{1}}} & \cdots & \frac{\partial{f_{m}}}{\partial{x_{j}}}& \cdots & \frac{\partial{f_{m}}}{\partial{x_{n}}} \end{bmatrix}.\] Autrement dit: la \(j\)-ème colonne de la matrice Jacobienne est la dérivée partielle de \({\mathbf{f}}\) par rapport à la \(j\)-ème variable \(x_{j}\).

3.4 Gradient, divergence, rotationnel

3.4.1 Gradient

La matrice Jacobienne étant relative aux bases canoniques, il est important, afin de faire du calcul dans des bases autres que les canoniques (telles que les coordonnées cylindriques...), de se rappeler l’objet intrinsèque dont elle est le représentant. Il s’agit du gradient de \({\mathbf{f}}\), qui n’est autre que l’application dérivée : \[{\mathbf{f}}^{\prime}({\mathbf{x}}){\mathbf{a}} = \nabla{{\mathbf{f}}(x)}\;{\mathbf{a}},\] mais qui est aussi parfois défini par \[d{\mathbf{f}}= \nabla{{\mathbf{f}}}\; d{\mathbf{x}}.\] ou encore si les \({\mathbf{e}}_{j}\) désignent une base fixe et si les \({\mathbf{x}}\) se décomposent dans cette base : \[\frac{\partial{{\mathbf{f}}}}{\partial{x_{j}}}({\mathbf{x}}) =\nabla{{\mathbf{f}}({\mathbf{x}})}\;({\mathbf{e}}_{j}).\] Ainsi la représentation matricielle du gradient de \({\mathbf{f}}\) dans les bases canoniques est la matrice Jacobienne.

3.4.2 Divergence

Dans le cas particulier où \(n=m\), la matrice Jacobienne est une matrice carré. On peut alors définir de nouveaux opérateurs voir le paragraphe [sect:div] sur la divergence dans le chapitre sur le théorème de Stokes :

Proposition 3.2 L’opérateur divergence est la trace du gradient :

\(\text{div}{{\mathbf{f}}}= \text{tr}({\nabla{{\mathbf{f}}}\;}).\)

3.4.3 Rotationnel

Toujours dans le cas où \(n=m\),

Proposition 3.3 Le rotationnel de \({\mathbf{f}}\), noté , est le vecteur associé à la partie antisymétrique du gradient de \({\mathbf{f}}\). Dans \(\mathbb{R}^3\), on a : \[[\overrightarrow{\texttt{rot}}{{\mathbf{u}}}] = \begin{bmatrix} u_{3,2}-u_{2,3}\\ u_{1,3}-u_{3,1}\\ u_{2,1}-u_{1,2} \end{bmatrix}.\]

3.4.4 Quelques remarques et propriétés des opérateurs différentiels

TipRemarque

Dans la littérature mathématique, le gradient d’une fonction scalaire à plusieurs variables est souvent représentée par un vecteur, ainsi si \(f(x)=f(x_1,\dots,x_n)\in \mathbb{R}\), le gradient est défini par \[\begin{aligned} f^{\prime}(x)h &=( \nabla f(x), h) \\ &= \nabla{f(x)}\;\cdot h\\ &= [\nabla{f(x)}\;]^\bot[h] \end{aligned}\] si bien qu’il est noté \[\nabla{f(x)}\; = \begin{bmatrix} \frac{\partial{f}}{\partial{x_1}}\\ \vdots \\ \frac{\partial{f}}{\partial{x_n}} \end{bmatrix}\] Cependant, cette notation n’a plus de sens lorsque la fonction \(f\) est vectorielle.

TipRemarque

L’opérateur divergence est parfois noté (sur wikipédia, dans de nombreux livres, surtout en physique) comme un produit scalaire par un pseudo vecteur \(\nabla\), mais c’est un abus d’écriture : cette notation n’est pas une définition et ne peut pas s’étendre à d’autres objets que des fonctions vectorielles, notamment la divergence d’un tenseur si importante en Mécanique.

Terminons ce paragraphe par quelques propriétés sur la divergence et le rotationnel :

Proposition 3.4 Pour tout champ de vecteur défini sur \(\Omega\subset\mathbb{R}^{3}\) à valeur dans \(\mathbb{R}^3\) : \[\begin{aligned} \overrightarrow{\texttt{rot}}{\nabla{f}\;}=0 \text{div}{\overrightarrow{\texttt{rot}}{{\mathbf{u}}}}&=0 \\ (\overrightarrow{\texttt{rot}}{{\mathbf{u}}})\wedge{\mathbf{u}} &= {\mathbf{u}}.\nabla{{\mathbf{u}}} - \frac{1}{2}\nabla({\mathbf{u}}^2) \\ \overrightarrow{\texttt{rot}}{\overrightarrow{\texttt{rot}}{{\mathbf{u}}}} &= \nabla\text{div}{{\mathbf{u}}} - \Delta{\mathbf{u}}. \end{aligned}\]

Theorem 3.4 Si un champ de vecteur \({\mathbf{u}}\), défini de \(\Omega\subset{\mathbb{R}^n}\) à valeur dans \(\mathbb{R}^n\), est tel que \(\overrightarrow{\texttt{rot}}{{\mathbf{u}}}=0\) alors il existe une fonction scalaire \(f\) définie sur \(\Omega\) telle que \[{\mathbf{u}} = \nabla{f}\;.\] On dit que \({\mathbf{u}}\) dérive d’un potentiel.

De façon analogue, on a

Theorem 3.5 Si un champ de vecteur \({\mathbf{u}}\), défini de \(\Omega\subset{\mathbb{R}^n}\) à valeur dans \(\mathbb{R}^n\), est tel que \(\text{div}{{\mathbf{u}}}=0\) alors il existe un champs \({\mathbf{v}}\) tel que \[{\mathbf{u}}=\overrightarrow{\texttt{rot}}{{\mathbf{v}}}.\]

3.5 Dérivation le long d’une courbe – Dérivation partielle dans une direction

Soit \({\cal C}\) une courbe de \(\mathbb{R}^{n}\), c’est à dire l’image dans \(\mathbb{R}^{n}\) d’une application \({\mathbf{c}}\) définie sur un intervalle \(]a,b[\subset \mathbb{R}\). Pour fixer les idées on peut prendre \(n=2\) ou encore \(n=3\) (courbe dans le plan, l’espace...).

Soit \({\cal O}\) un ouvert de \(\mathbb{R}^{n}\) contenant la courbe \({\cal C}\) et soit \({\mathbf{f}}\) comme précédemment, une application de \(\mathbb{R}^{n}\) vers \(\mathbb{R}^{m}\).

Définissons l’application composée \(g\) de \(]a,b[\) vers \(\mathbb{R}^{m}\): \[{\mathbf{g}}(t)= {\mathbf{c}}\circ{\mathbf{f}}(t)= {\mathbf{f}}( {\mathbf{c}}(t))\] D’après le théorème de composition, on a \[\quad {\mathbf{g}}^{\prime}(t)= \nabla{{\mathbf{f}}( {\mathbf{c}}(t))}\; {\mathbf{c}}^{\prime}(t),\]
\({\mathbf{c}}^{\prime}(t)= c_{1}^{\prime}(t){\mathbf{u}}_{1}+\dots+ c_{m}^{\prime}(t){\mathbf{u}}_{m}\).

\({\mathbf{g}}^{\prime}(t)\) représente la dérivée de \({\mathbf{f}}\) le long de la courbe \({\cal C}\). Cela nous permet également de définir la dérivée dans une direction \({\mathbf{y}}\):

En prenant \({\mathbf{c}}= {\mathbf{x}}+t{\mathbf{y}}\), on a \({\mathbf{c}}^{\prime}(t)={\mathbf{y}}\). D’où, d’après la proposition précédente : \[{\mathbf{g}}^{\prime}(0)= \nabla{{\mathbf{f}}( {\mathbf{x}})}\;{\mathbf{y}}.\] ou encore \[\nabla{{\mathbf{f}} ({\mathbf{x}})}\;{\mathbf{y}} = \lim_{t\rightarrow 0}\left[ \frac {{\mathbf{f}}({\mathbf{x}}+t{\mathbf{y}}) -{\mathbf{f}}({\mathbf{x}})}{t}\right] .\] Cette dernière limite étant la dérivée partielle de \({\mathbf{f}}\) suivant le vecteur unitaire \({\mathbf{y}}\) au point \({\mathbf{x}}\).

3.6 Fonction dérivée

Soit \({\mathbf{f}}\) une application d’un ouvert \(\Omega\) de \(\mathbb{R}^{n}\) dans \(\mathbb{R}^{m}\) différentiable en tout \({\mathbf{x}}\in \Omega\). Alors l’application dérivée de \({\mathbf{f}}\) est l’application qui à tout \({\mathbf{x}}\in \Omega\) associe \({\mathbf{f}}^{\prime}({\mathbf{x}})\), la différentielle de \({\mathbf{f}}\) en \({\mathbf{x}}\).

3.7 Dérivée seconde

Soit \({\mathbf{f}}\) une application d’un ouvert \({\cal O}\subset E\) vers \(F\) où comme précédemment \(E\) et \(F\) désignent respectivement \(\mathbb{R}^{n}\) et \(\mathbb{R}^{m}\) (ou encore tout espaces de Banach).

On a vu que la différentielle (ou application dérivée) de \({\mathbf{f}}\) en un point \({\mathbf{x}}\) de \({\cal O}\) est une application linéaire de \(E\) vers \(F\) : \[{\mathbf{f}}^{\prime} ({\mathbf{x}})\in {\mathscr L}(E,F)\quad {\mathbf{f}}^{\prime}:{\cal O}\subset E\longmapsto {\mathscr L}(E,F) .\] Ainsi, en réapplicant la définition de différentielle à \({\mathbf{f}}^{\prime}\), on a : \[{\mathbf{f}}^{\prime\prime} ({\mathbf{x}})\in {\mathscr L}(E,{\mathscr L}(E,F)) \simeq {\mathscr L}(E\times E,F).\] \({\mathbf{f}}^{\prime\prime} ({\mathbf{x}})\) apparaît donc comme une application bilinéaire.

Puisque \(E=\mathbb{R}^{n}\), \({\mathbf{f}}^{\prime}\) se décompose en dérivées partielles : \[{\mathbf{f}}^{\prime} ({\mathbf{x}}).({\mathbf{h}}) ={\mathbf{f}}^{\prime} ({\mathbf{x}}).(h_{1},\dots,h_{n})= \sum_{j=1}^{n}\frac{\partial{{\mathbf{f}}}}{\partial{x_{j}}}.h_{j}\] Il en est de même pour l’application dérivée seconde : \[{\mathbf{f}}^{\prime\prime} ({\mathbf{x}}).({\mathbf{h}}))= \sum_{j=1}^{n}\frac{\partial{{\mathbf{f}}^{\prime}}}{\partial{x_{j}}}.h_{j}\] Ainsi, \[{\mathbf{f}}^{\prime\prime} ({\mathbf{x}}).({\mathbf{h}}).({\mathbf{k}}) = \sum_{j=1}^{n}\frac{\partial{{\mathbf{f}}^{\prime}({\mathbf{x}})}}{\partial{x_{j}}}.h_{j} .({\mathbf{k}})\] et finalement \[{\mathbf{f}}^{\prime\prime} ({\mathbf{x}}).({\mathbf{h}}).({\mathbf{k}}) = \sum_{i,j=1}^{n}\frac{\partial^{2}{{\mathbf{f}}({\mathbf{x}})}}{\partial{x_{i}}\partial{x_{j}}} .h_{j}.k_{i} \in F.\]

Theorem 3.6 Si \({\mathbf{f}}\) une application d’un ouvert \({\cal O}\subset E\) vers \(F\) est une application deux fois différentiable en \({\mathbf{x}}\) alors la dérivée seconde est une application bilinéaire symétrique: \[\forall {\mathbf{h}},{\mathbf{k}} \in E \quad {\mathbf{f}}^{\prime\prime} ({\mathbf{x}}).({\mathbf{h}}).({\mathbf{k}}) = {\mathbf{f}}^{\prime\prime} ({\mathbf{x}}).({\mathbf{k}}).({\mathbf{h}}).\]

C’est un résultat non-trivial (excellent exercice en calcul différentiel) mais qui donne immédiatement le

Corollary 3.1 Théorème de Schwarz – Si \({\mathbf{f}}\) une application d’un ouvert \({\cal O}\subset E\) vers \(F\) est une application deux fois différentiable en \({\mathbf{x}}\) alors \[\frac{\partial^{2}{ {\mathbf{f}}({\mathbf{x}})}}{\partial{x_{i}}\partial{x_{j}}} = \frac{\partial^{2}{ {\mathbf{f}}({\mathbf{x}})}}{\partial{x_{j}}\partial{x_{i}}}.\]

Ces résultats s’étendent à toutes les dérivées successives.

3.8 Principaux théorèmes sur les fonctions de plusieurs variables

Dans cette section, on énonce divers résultats théoriques fondamentaux en calcul différentiel. Cependant ces résultats ne sont pas nécessaire au niveau de la Licence de Mécanique.

Definition 3.9 On dit qu’un application différentiable \({\mathbf{f}}\) d’un ouvert \({\cal O}\) un ouvert de \(\mathbb{R}^{n}\) vers \(\mathbb{R}^{m}\) est continûment différentiable sur \({\cal O}\) si \({\mathbf{f}}^{\prime}\) est une application continue de \({\cal O}\) vers \({\cal L}(\mathbb{R}^{n},\mathbb{R}^{m})\). On dit alors que \({\mathbf{f}}\) est de classe \({\cal C}^{1}\), ce qu’on écrit \({\mathbf{f}} \in {\cal C}^{1}({\cal O})\).

Theorem 3.7 Soit \({\mathbf{f}}\) une application d’un ouvert \({\cal O}\) de \(\mathbb{R}^{n}\) vers \(\mathbb{R}^{m}\). Alors \({\mathbf{f}} \in {\cal C}^{1}({\cal O})\) si et seulement si toutes les dérivées partielles existent et sont continues sur \({\cal O}\) .

Theorem 3.8 Théorème de la Moyenne – Soit \(f\) une fonction continue et dérivable sur un intervalle \([a,b]\). Si la fonction dérivée \(f^{\prime}\) est continue, alors il existe \(c \in[a,b]\) telle que \(f(b)-f(a)=(b-a)f^{\prime}(c)\).

Lemma 3.1 Théorème du point fixe – Soit \(\varphi\) une application de \(E\) dans \(F\), deux espaces de Banach. Si \(\varphi\) est contractante, alors \(\varphi\) possède un unique point fixe.

Cette partie est à compléter

3.9 Formule de Taylor

Theorem 3.9 Soit \(f\) une fonction \(k\)-fois différentiable en \(x_{0}\in\Omega\subset\mathbb{R}^{n}\) à valeur dans \(\mathbb{R}^{m}\), alors pour tout \(h\in\mathbb{R}^{n}\) : \[f(x_{0}+h)=f(x_{0})+f^{\prime}(x_{0})h + \frac{1}{2}f^{\prime\prime}(x_{0})h.h + \dots + \frac{1}{k!}f^{(k)}(x_{0})(h)^{k} + o(h^{k})\]

\(f^{(k)}(x_{0})(h)^{k}\) signifie \(f^{(k)}(x_{0})\underbrace{h\dots h}_{k\; fois}\).

Proof. Il suffit d’appliquer la formule de Taylor à la fonction \(g(t)=f(x_{0}+th)\) en t=0, et montrer que \[g^{(k)}(0)= f^{(k)}(x_{0})(h)^{k}.\] ◻

3.10 Coordonnées cylindriques et sphériques

Nous terminons ce chapitre sur le calcul différentiel par des expressions particulièrement utiles en Mathématiques appliquées, les expressions des différents opérateurs différentiels en coordonnées cylindriques et en coordonnées sphériques.

3.10.1 Expressions en coordonnées Cylindriques

Plaçons dans \(E= \mathbb{R}^{3}\) et désignons par \(({\mathbf{x}}_{1},{\mathbf{x}}_{2},{\mathbf{x}}_{3})\) vecteur de la base canonique de \(\mathbb{R}^{3}\) et désignons par \(O\) le point (0,0,0). Tout point \(M\) de E peut être défini par son vecteur position \({\mathbf{OM}}\), dont on donne les coordonnées dans la base canonique : \[{\mathbf{OM}} = x_{1} {\mathbf{x}}_{1}+ x_{2}{\mathbf{x}}_{2}+x_{3}{\mathbf{x}}_{3},\] notation que l’on préfère à : \[{\mathbf{OM}} = x{\mathbf{x}}_{1}+ y {\mathbf{x}}_{2}+z {\mathbf{x}}_{3}.\] On définit les coordonnées cylindriques par \[r = \sqrt{x_{1}^{2} + x_{2}^{2}}, \quad \theta = \arctan{\frac{x_{2}}{x_{1}}}, \quad x_{3} = x_{3} .\] Alors le vecteur position se ré écrit : \[{\mathbf{OM}} = r {\mathbf{e}}_{r}+ x_{3} {\mathbf{x}}_{3},\]\[{\mathbf{e}}_{r} = \cos{\theta} {\mathbf{x}}_{1}+ \sin{\theta} {\mathbf{x}}_{2}.\] En associant de plus le vecteur \[{\mathbf{e}}_{\theta}= {\mathbf{x}}_{3} \wedge {\mathbf{e}}_{r},\] on aura défini une base \(({\mathbf{e}}_{r}, {\mathbf{e}}_{\theta}, {\mathbf{x}}_{3})\) orthonormée de \(E\), appelé base base cylindrique. Les coordonnées \((r,\theta,x_{3})\) sont les coordonnées cylindriques de \(M\).

3.10.1.1 Cas d’une fonction à valeur réelle

Considérons maintenant une fonction \(f\) définie sur une partie de \(\mathbb{R}^{3}\), adoptons la notation abusive : \[f(x_{1},x_{2},x_{3})= f(r,\theta,x_{3}).\] Nous notons également le produit scalaire de deux vecteurs (colonnes) indifféremment des trois manières suivantes :

\[\begin{aligned} &{\mathbf{u}} \cdot {\mathbf{v}}\\ &[{\mathbf{u}}]^\bot [{\mathbf{v}}] \\ &({\mathbf{u}},{\mathbf{v}}) \end{aligned}\]

Rappelons nous que nous avions identifié \[\frac{\partial{f}}{\partial{x_{1}}}(x_{1},x_{2},x_{3}) = \lim_{h\rightarrow 0}\frac{f(x_{1}+h,x_{2},x_{3})-(x_{1}+h,x_{2},x_{3})}{h} = \nabla{f}\;\cdot{\mathbf{x}}_{1},\] puisque la variation de \((x_{1}+h,x_{2},x_{3})\) à \((x_{1}+h,x_{2},x_{3})\) est \(h {\mathbf{x}}_{1}\).

Le problème avec les coordonnées cylindriques est que si la variation de \((r+\delta r,\theta,x_{3})\) à \((r,\theta,x_{3})\) est bien de \(\delta r {\mathbf{e}}_{r}\), ce qui entraîne \[\frac{\partial{f}}{\partial{r}}(r,\theta,x_{3}) = \lim_{h\rightarrow 0}\frac{f(r+h,\theta,x_{3})-f(r,\theta,x_{3})}{h} = \nabla{f}\;\cdot {\mathbf{e}}_{r},\] en revanche la variation de \((r,\theta+\delta \theta,x_{3})\) à \((r,\theta,x_{3})\) n’est malheureusement pas \(\delta \theta {\mathbf{e}}_{\theta}\), ce qui signifie que \[\frac{\partial{f}}{\partial{\theta}}(r,\theta,x_{3}) = \lim_{h\rightarrow 0}\frac{f(r,\theta+h,x_{3})-f(r,\theta,x_{3})}{h} \neq \nabla{f}\;\cdot {\mathbf{e}}_{\theta}.\] Plus précisément, si \(M\) est un point de coordonnées cylindrique \((r,\theta,x_{3})\), et \(M^{\prime}\) un point de coordonnées \((r,\theta+\delta\theta,x_{3})\) alors la variation \({\mathbf{MM^{\prime}}}\) est en fait: \[{\mathbf{MM^{\prime}}} = r \delta\theta {\mathbf{e}}_{\theta}.\] D’où nous avons : \[\frac{\partial{f}}{\partial{\theta}}(r,\theta,x_{3}) = \nabla{f}\;\cdot r{\mathbf{e}}_{\theta},\] autrement dit les composantes cylindriques de \(\nabla{f}\;\) sont : \[\nabla{f}\; = \frac{\partial{f}}{\partial{r}} {\mathbf{e}}_{r} + \frac{1}{r} \frac{\partial{f}}{\partial{\theta}} {\mathbf{e}}_{\theta} + \frac{\partial{f}}{\partial{x_{3}}}{\mathbf{x}}_{3}.\] ou encore \[\left[\nabla{f}\;\right]_{cylindrique} = \left( \begin{aligned} \frac{\partial{f}}{\partial{r}}\\ \frac{1}{r} \frac{\partial{f}}{\partial{\theta}}\\ \frac{\partial{f}}{\partial{x_{3}}} \end{aligned} \right) =\left( \begin{array}[c]{c} f_{,r} \\ \frac{1}{r} f_{,\theta} \\ f_{,3} \end{array} \right).\]

3.10.1.2 Cas d’une fonction vectorielle

Considérons maintenant une fonction \({\mathbf{f}}\) définie sur une partie de \(\mathbb{R}^{3}\), et à valeur dans \(\mathbb{R}^{3}\) adoptons également la notation abusive : \[{\mathbf{f}}(x_{1},x_{2},x_{3})= {\mathbf{f}}(r,\theta,x_{3}).\] On décomposera \({\mathbf{f}}\) dans les coordonnées cylindriques par \[{\mathbf{f}}(r,\theta,x_{3}) =f_{r}{\mathbf{e}}_{r} + f_{\theta} {\mathbf{e}}_{\theta}+ f_{3} {\mathbf{x}}_{3} .\] D’après leur définition, il est facile de voir que \[\begin{aligned} & \frac{\partial{ {\mathbf{e}}_{r}}}{\partial{r}} = 0, \quad \frac{\partial{ {\mathbf{e}}_{\theta}}}{\partial{r}}= 0,\quad \frac{\partial{ {\mathbf{x}}_{3}}}{\partial{r}}= 0, \\& \frac{\partial{ {\mathbf{e}}_{r}}}{\partial{x_{3}}} = 0, \quad \frac{\partial{ {\mathbf{e}}_{\theta}}}{\partial{x_{3}}}= 0, \quad \frac{\partial{ {\mathbf{x}}_{3}}}{\partial{x_{3}}}= 0, \\& \frac{\partial{ {\mathbf{e}}_{r}}}{\partial{\theta}} = {\mathbf{e}}_{\theta}, \quad \frac{\partial{ {\mathbf{e}}_{\theta}}}{\partial{\theta}}= - {\mathbf{e}}_{r} ,\quad \frac{\partial{ {\mathbf{x}}_{3}}}{\partial{\theta}}= 0.\end{aligned}\] Ainsi, \[\begin{aligned}& \frac{\partial{{\mathbf{f}}}}{\partial{r}} = \nabla{{\mathbf{f}}}\;{\mathbf{e}}_{r} = f_{r,r} {\mathbf{e}}_{r} + f_{\theta,r} {\mathbf{e}}_{\theta} + f_{3,r} {\mathbf{x}}_{3}, \\& \frac{\partial{{\mathbf{f}}}}{\partial{\theta}} = \nabla{{\mathbf{f}}}\;r{\mathbf{e}}_{\theta} = (f_{r,\theta}- f_{\theta} ) {\mathbf{e}}_{r} + (f_{\theta,\theta}+ f_{r}) {\mathbf{e}}_{\theta} + f_{3,\theta} {\mathbf{x}}_{3}, \\& \frac{\partial{{\mathbf{f}}}}{\partial{x_{3}}} =\nabla{{\mathbf{f}}}\;{\mathbf{x}}_{3} = f_{r,3} {\mathbf{e}}_{r} + f_{\theta,3} {\mathbf{e}}_{\theta} + f_{3,3} {\mathbf{x}}_{3}. \end{aligned}\] On en déduit alors l’expression du gradient d’une fonction vectorielle en composantes cylindriques : \[\nabla{{\mathbf{f}}}\;= \begin{bmatrix} &f_{r,r} & \frac{1}{r} (f_{r,\theta}- f_{\theta}) & \quad f_{r,3}\\ &f_{\theta,r}& \frac{1}{r} (f_{\theta,\theta}+ f_{r})& \quad f_{\theta,3} \\ &f_{3,r} & \frac{1}{r} f_{3,\theta} & \quad f_{3,3} \end{bmatrix}.\] La divergence étant la trace du gradient, on a : \[\text{div}{{\mathbf{f}}}= f_{r,r} + \frac{1}{r} (f_{\theta,\theta}+ f_{r}) + f_{3,3}\] D’où le Laplacien d’une fonction scalaire en coordonnées cylindriques \[\Delta f = f_{,rr} + \frac{1}{r} ( \frac{1}{r}f_{,\theta\theta}+ f_{,r}) + f_{,33}.\] Le rotationnel étant le vecteur associé à la partie antisymétrique du gradient, on a \[\overrightarrow{\texttt{rot}}{{\mathbf{f}}}= \left( \begin{aligned} & \frac{1}{r} f_{3,\theta} - f_{\theta,3}\\& f_{r,3}- f_{3,r} \\& f_{\theta,r}- \frac{1}{r} (f_{r,\theta}- f_{\theta})\end{aligned} \right).\]

3.10.2 Expressions en coordonnées sphériques

C’est la même chose qu’en cylindrique, sauf qu’il y a encore plus de calcul à faire :-((

Si \(f\) est une fonction scalaire : \[\nabla{f}\; = (f_r, \frac{1}{r}f_\theta, \frac{1}{r\sin{\theta}}f_\phi)\] si \(f\) est une fonction vectorielle : \[\nabla{{\mathbf{f}}}\;= \begin{bmatrix} & f_{r,r} & \frac{1}{r} (f_{r,\theta}- f_{\theta}) & \frac{1}{r\sin{\theta}}(f_{r,\phi}+f_\phi) \\ & f_{\theta,r} & \frac{1}{r} (f_{\theta,\theta}+ f_{r}) & \frac{1}{r\sin{\theta}} f_{\theta,\phi} -\frac{\cot{\theta}}{r}f_\phi \\ &f_{\phi,r} & \frac{1}{r} f_{\phi,\theta} & \frac{1}{r\sin{\theta}}f_{\phi,\phi}+ \frac{f_r+\cot{\theta}f_\theta}{r} \end{bmatrix}.\] A compléter ... par le lecteur ;-p

3.11 Extrema d’une fonctions différentiable

Le calcul des variations et les conditions d’optimalité mériterait un chapitre entier : à défaut de l’avoir rédigé, signalons le minimum syndical :

Theorem 3.10 Soit \(f\) une fonction deux fois différentiable dans \(\Omega\subset\mathbb{R}^{n}\) à valeur dans \(\mathbb{R}\), \(f\) possède un minimum local en \(x_{0}\), i.e. il existe \(r>0\) tel que \[f(x_{0}) \leq f(x) \quad \forall x\in B(x_{0},r)\subset\Omega ,\] si et seulement si :

  1. \(f^{\prime}(x_{0}) = 0,\)

  2. \(f^{\prime\prime}(x_{0}) \geq 0.\)

Proof. Soit \(x\in x\in B(x_{0},r)\), alors pour tout \(t\in[0,1]\), \(x_0 + t(x-x_0)\in B(x_{0},r)\). Si bien que \[\begin{aligned} f(x_0) &\leq f( x_0 + t(x-x_0) \\ &\leq f(x_0) + tf^\prime(x_0)(x-x_0) + o(t) \\ \Longrightarrow \\ 0 & \leq tf^\prime(x_0)(x-x_0) + o(t) \\ \Longrightarrow \\ 0 & \leq f^\prime(x_0)(x-x_0) \end{aligned}\] De même en prenant \(t\in[-1,0[\), on a de même \[0 \geq f^\prime(x_0)(x-x_0)\] d’où la condition d’Euler \[f^{\prime}(x_{0}) = 0.\] Reprenons, nous avons \[\begin{aligned} f(x_0) &\leq f(x_0) + tf^\prime(x_0)(x-x_0) + \frac{t^2}{2}f^{\prime\prime}(x_0)(x-x_0)^2 + o(t^2) \\ \Longrightarrow \\ 0 &\leq f^{\prime\prime}(x_0)(x-x_0)^2 \end{aligned}\] d’où \[f^{\prime\prime}(x_0) \geq 0\] La réciproque est immédiate. ◻

3.11.1 Dérivation d’une fonctionelle d’énergie

En mécanique et bien souvent en science de l’ingénieur, nous rencontrons des fonctionnelles d’energies, c’est à dire des fonctions définies sur un espace de Banach \(E\) et à valeur dans \(\mathbb{R}\). Ce sont souvent des fonctionnelles quadratiques, c’est à dire basé sur un produit scalaire. \[J({\mathbf{x}}) = \frac{1}{2}(A{\mathbf{x}},{\mathbf{x}}) - (b,{\mathbf{x}}) + c\]\(A\) peut représenter un opérateur borné ou non, auto-adjoint ou non.

On peut voir que \(J\) est dérivable, pour tout \({\mathbf{h}}\in E\) : \[\begin{aligned} J({\mathbf{x}}+{\mathbf{h}}) &= \frac{1}{2}(A{\mathbf{x}}+{\mathbf{h}},{\mathbf{x}}+{\mathbf{h}}) - (b,{\mathbf{x}}+{\mathbf{h}}) + c\\ &= \frac{1}{2}(A{\mathbf{x}},{\mathbf{x}}) - (b,{\mathbf{x}}) + c + \frac{1}{2}[(A{\mathbf{x}},{\mathbf{h}})+ ({\mathbf{h}},A{\mathbf{x}})] + \frac{1}{2}(A{\mathbf{h}},{\mathbf{h}}) \\ &= J({\mathbf{x}})+ \frac{1}{2}([A+A^\top]{\mathbf{x}}-b,{\mathbf{h}}) + \frac{1}{2}(A{\mathbf{h}},{\mathbf{h}}) \end{aligned}\] d’où on déduit \[J^\prime({\mathbf{x}}) = \frac{A+A^\top}{2}{\mathbf{x}}-b\] et même \[J^{\prime\prime} ({\mathbf{x}}) = A.\]