Sous-sections


Fonction différentiable - Application dérivée

Cas des fonctions réelles définie sur un intervalle réel

De façon classique on la définition pour une fonction d'une variable réelle à valeur dans $ \mathbbm$R:

On dit que f est dérivable en x0 s'il existe un réel f(x0) défini par

f(x0) = $\displaystyle \lim_{{h\rightarrow 0}}^{}$$\displaystyle {\frac{{f(x_{0}+h)-f( x_{0})}}{{h}}}$.

Cependant, comme pour la continuité, on va adopter une autre présentation de la définition afin de la généraliser

Définition 4.3.1   On dit que f est dérivable en x0 s'il existe un réel f(x0) tel que

f (x0 + h) - f (x0) = f(x0)h + o(h)

le ``reste'' o(h) étant négligeable dans le sens que

$\displaystyle \lim_{{h\rightarrow 0}}^{}$$\displaystyle {\frac{{o(h)}}{{h}}}$ = 0.

On remarque que la quantité f (x0 + h) - f (x0) s'exprime comme la somme d'une application linéaire qui à h associe f(x0)h et d'un reste négligeable. On peut donc considérer la dérivée de $ \bf{f}{$ au point x0 non seulement comme un réel mais également comme un opérateur linéaire sur $ \mathbbm$R qui à h associe f(x0)h (en fait cette considération a été établi à partir de la bijection naturelle entre $ \mathbbm$R et $ \cal {L}$($ \mathbbm$R)).

C'est cette définition qu'il faudra retenir. En général, les étudiants ont beaucoup de mal à oublier la définition qu'ils ont apprise dans le Secondaire valable uniquement pour les fonctions réelles d'une variable réelle, et ils l'utilisent sans scrupule même s'il n'a plus de sens comme c'est le cas pour tout les autres cas de fonctions. Il va sans dire que ce genre d'erreurs coûte quelques points aux examens ;-)

Cas général

Considérons maintenant une fonction $ \bf{f}{$ définie sur un intervalle ]a, b[ de $ \mathbbm$R à valeurs dans $ \mathbbm$Rm. Rappelons que cela signifie que $ \bf{f}{(x)= (f_{1}(x),\dots,f_{m}(x))$ ou encore, si on représente une base canonique de $ \mathbbm$Rm par {$ \bf{u}{_{1}, \dots ,\vec{u}_{m}\}$:

$\displaystyle \bf{f}{(x)= f_{1}\vec{u}_{1}+ \dots + f_{m}\vec{u}_{m}.$

En un point x0∈]a, b[, la dérivée de $ \bf{f}{$ en x0, noté $ \bf{f}{^{\prime}(x_{0})$, est défini comme le vecteur de $ \mathbbm$Rm (si il existe) tel que

$\displaystyle \bf{f}{^{\prime}(x_{0})
=\lim_{h\rightarrow 0}\frac{\vec{f}(x_{0}...
...tôt } \quad
\vec{f}(x_{0}+h)-\vec{f}(x_{0}) = \vec{f}^{\prime}(x_{0})h + o(h).$

Soulignons encore que l'égalité précédente est vectorielle :

$\displaystyle \bf{f}{^{\prime}(x_{0})
= f_{1}(x_{0})\vec{u}_{1}+ \dots + f_{m}(x_{0})\vec{u}_{m},$

et donc peut également s'écrire sous forme matricielle dans la base canonique:

$\displaystyle \begin{pmatrix}
{f}_{1}(x_{0}+h) \\
\vdots \\
{f}_{m}(x_{0}+h)
\end{pmatrix}$ - $\displaystyle \begin{pmatrix}
{f}_{1}(x_{0}) \\
\vdots \\
{f}_{m}(x_{0})
\end{pmatrix}$ = $\displaystyle \begin{pmatrix}
{f}_{1}^{\prime}(x_{0}) \\
\vdots \\
{f}_{m}^{\prime}(x_{0})
\end{pmatrix}$ + o(h),

ou encore sous forme vectorielle :

Définition 4.3.2   $ \bf{f}{$ est dérivable en x0 si et seulement si il existe un vecteur $ \bf{f}{^{\prime}(x_{0})$ tel que :

$\displaystyle \bf{f}{(x_{0}+h)-\vec{f}( x_{0})
= \vec{f}^{\prime}(x_{0})h + \vec{o}(h), $

La dérivée de $ \bf{f}{$ en x0 apparaît non seulement comme un vecteur de $ \mathbbm$Rm mais également comme une application linéaire de $ \mathbbm$R dans $ \mathbbm$Rm qui associe à tout réel h le vecteur $ \bf{f}{^{\prime}(x_{0})h$ (il s'agit là de la bijection naturelle entre $ \mathbbm$Rm et $ \cal {L}$($ \mathbbm$Rm,$ \mathbbm$R)).

On va maintenant généraliser ces notions.

Définition 4.3.3   Soit $ \bf{f}{$ une application (on ne dit plus fonction ?) d'un ouvert Ω de E = $ \mathbbm$Rn dans F = $ \mathbbm$Rm. On dit que $ \bf{f}{$ est différentiable en un point $ \bf{x}{\in\Omega$, $ \bf{x}{=(x_{1},\dots,x_{n})$, si il existe une application linéaire de $ \mathbbm$Rn dans $ \mathbbm$Rm, notée $ \bf{f}{^{\prime}(\vec{x}_{0})$ telle que

$\displaystyle \bf{f}{(\vec{x}_{0}+\vec{h}) =
\vec{f}( \vec{x}_{0}) + \vec{f}^{\prime}(\vec{x}_{0})({\vec{h}})
+ o(h) =0 $

où le ``reste'' $ \bf{o}{(h)$ est cette fois-ci négligeable au sens que

$\displaystyle \lim_{{h\rightarrow 0}}^{}$$\displaystyle {\frac{{{\Vert{\vec{o}(h)}\Vert}_{}}}{{{\Vert{h}\Vert}_{}}}}$ = 0.

On dit alors que $ \bf{f}{^{\prime}(\vec{x}_{0})$ est la différentielle (on ne dit plus dérivée?) de $ \bf{f}{$ en $ \bf{x}{$ et on également parfois

$\displaystyle \bf{f}{^{\prime}(\vec{x})= \mbox{d}\vec{f}_{\vec{x}}. $

Ainsi, si $ \bf{f}{$ est différentiable sur un ouvert Ω, alors pour tout $ \bf{x}{\in\Omega$,

$\displaystyle \bf{f}{^{\prime}(\vec{x})\in{\cal
L}(E,F)={\cal L}(\mathbbm{R}^{n},\mathbbm{R}^{m}),$

i.e. la différentielle de $ \bf{f}{$ en $ \bf{x}{$ est une application linéaire de $ \mathbbm$Rn (tout entier) dans $ \mathbbm$Rm mais on peut remarquer que $ \bf{f}{^{\prime}$ est une application de Ω vers $ \cal {L}$($ \mathbbm$Rn,$ \mathbbm$Rm).

Remarque 4.3.4   Pour des raisons, disons pédagogiques, nous nous sommes limités dans le cadre de ces rappels aux fonctions définies sur des parties de $ \mathbbm$Rn à valeurs dans $ \mathbbm$Rm. Mais, tout ce qui suit est également valable si on remplace les $ \mathbbm$Rn et $ \mathbbm$Rm par des objets ``plus abstraits'' que sont les espaces de Banach (i.e. des espaces normés complets) qu'on pourrait noter également E et F. Les énoncés et les démonstrations demeurant strictement identiques.

Remarque 4.3.5   On parle également d'application tangente pour désigner la différentielle en un point.

Théorème 4.3.6   Soit $ \bf{f}{$ une application d'un ouvert Ω de $ \mathbbm$Rn dans $ \mathbbm$Rm. Si $ \bf{f}{$ est différentiable en $ \bf{x}{\in\Omega$, alors sa différentielle est unique.

Preuve. Supposons qu'on ait, avec t$ \mathbbm$R,

f (x + th) = f (x) + df1th + o(th)     et     f (x + th) = f (x) + df2th + o(th)

Alors on obtient en effectuant la différence:

(df1 - df2)th = o(th) = t2o(h)

d'où pour tout t

(df1 - df2)h = to(h)

c'est à dire

(df1 - df2)h = 0

$ \qedsymbol$

Quelques remarques

  1. Si $ \bf{f}{$ est différentiable en $ \bf{x}{$ alors $ \bf{f}{$ est nécessairement continue en $ \bf{x}{$ (exercice).
  2. La différentielle notée $ \bf{f}{^{\prime}(\vec{x})$ ou d $ \bf{f}{_{x}$ est appelée parfois dérivée totale de $ \bf{f}{$ en $ \bf{x}{$, afin de la distinguer des dérivées partielles.
  3. Si A$ \cal {L}$($ \mathbbm$Rn,$ \mathbbm$Rm) et si x$ \mathbbm$Rn alors

    A($\displaystyle \bf{x}{)=A $

    Autrement dit, une application linéaire est sa propre différentielle. Remarquez que $ \bf{x}{$ apparaît explicitement dans le premier membre mais pas dans le second : c'est parce que la fonction dérivée d'une application linéaire est constante (indépendance par rapport au ``point'' où on dérive.

Théorème 4.3.7   Règle de composition - Soit $ \bf{f}{$ une application d'un ouvert $ \cal {O}$$ \mathbbm$Rn vers $ \mathbbm$Rm différentiable en un point $ \bf{x}{_{0}$ de $ \cal {O}$ et $ \bf{g}{$ une application d'un ouvert de $ \mathbbm$Rm contenant $ \bf{f}{({\cal{O}})$ vers $ \mathbbm$Rk différentiable en $ \bf{f}{(\vec{x}_{0})$. Alors l'application, composé de $ \bf{f}{$ par $ \bf{g}{$, $ \bf{F}{$ de $ \cal {O}$$ \mathbbm$Rn vers $ \mathbbm$Rk définie par

$\displaystyle \bf{F}{(\vec{x})
= \vec{g}\circ\vec{f} = \vec{g}(\vec{f}(\vec{x})) $

est différentiable en $ \bf{x}{_{0}$ et

$\displaystyle \bf{F}{^{\prime}(\vec{x}_{0})
=\vec{g}^{\prime}(\vec{f}(\vec{x}_{0}))
\vec{f}^{\prime}(\vec{x}_{0}).$

Remarquer que le second membre est le produit de deux applications linéaires :
$ \bf{g}{^{\prime} (\vec{f}(\vec{x}_{0}))\in {\cal
L}(\mathbbm{R}^{m},\mathbbm{R}^{k})$ et $ \bf{f}{^{\prime}(\vec{x}_{0})\in
{\cal L}(\mathbbm{R}^{n},\mathbbm{R}^{m})$; on a bien que $ \bf{F}{^{\prime}(\vec{x}_{0})\in {\cal L}
(\mathbbm{R}^{n},\mathbbm{R}^{k})$.

Preuve.

\begin{equation*}\begin{aligned}
\vec{F}(\vec{x}_0+\vec{h})
&= \vec{g}(\vec{f}...
...c{x}_0) + \vec{F}^{\prime}(\vec{x}_{0}) +o(\vec{h})
\end{aligned}\end{equation*}

$ \qedsymbol$

Matrice Jacobienne et dérivées partielles

Puisque la différentielle de $ \bf{f}{$ en un point est une application linéaire de $ \mathbbm$Rn vers $ \mathbbm$Rm, on peut la représenter sous forme matricielle. Plus précisément par une matrice n×m. Soient ($ \bf{e}{_{1},\dots, \vec{e}_{n})$ et ($ \bf{u}{_{1},\dots,\vec{u}_{m})$ les bases canoniques des espaces $ \mathbbm$Rn et $ \mathbbm$Rm respectivement:

$\displaystyle \bf{x}{ $ = x1$\displaystyle \bf{e}{_{1}+\dots+x_{1}\vec{e}_{n}$
$\displaystyle \bf{f}{(\vec{x}) $ = f1($\displaystyle \bf{x}{)\vec{u}_{1}+\dots+f_{m}(\vec{x})\vec{u}_{m}.
$

Définition 4.3.8   La représentation matricielle de la différentielle de $ \bf{f}{$ dans ces bases canoniques est la matrice Jacobienne. Usuellement, elle est notée J($ \bf{f}{)$ ou encore J$\scriptstyle \bf{f}{$.

Définition 4.3.9   Soit xj la j-ème variable de $ \mathbbm$Rn, la dérivée partielle de $ \bf{f}{$ par rapport à xj est la dérivée de $ \bf{f}{$ par rapport à xj, les autres variables étant considérées fixes. On la note :

$\displaystyle {\frac{{\partial{\vec{f}}}}{{\partial{x_{j}}}}}$ = $\displaystyle {\frac{{\partial{f_{1}}}}{{\partial{x_{j}}}}}$$\displaystyle \bf{u}{_{1}
+ \dots + \frac{\partial{f_{m}}}{\partial{x_{j}}}\vec{u}_{m}.$

On peut remarquer qu'on a encore

$\displaystyle {\frac{{\partial{\vec{f}}}}{{\partial{x_{j}}}}}$($\displaystyle \bf{x}{)
= \lim_{t\rightarrow 0} \frac{\vec{f}(\vec{x}+t\vec{e}_{...
...-\vec{f}(\vec{x}) = \frac{\partial{\vec{f}}}{\partial{x_{j}}}(\vec{x})t +o(t).
$

Proposition 4.3.10   Si $ \bf{f}{$ est différentiable en $ \bf{x}{$ et si $ \bf{a}{=(a_{1},\dots,a_{n})\in\mathbbm{R}^{n}$, alors toutes les dérivées partielles existent et

$\displaystyle \bf{f}{^{\prime}(\vec{x})\vec{a}
= a_{1}\frac{\partial{\vec{f}(\v...
...artial{x_{1}}}
+\dots+ a_{n}\frac{\partial{\vec{f}(\vec{x})}}{\partial{x_{n}}}.$

Attention: la réciproque n'est pas vrai : On peut construire une fonction dont les dérivées partielles existent et sont continues mais qui n'est pas elle même différentiable.

On note aussi parfois :

d$\displaystyle \bf{f}{= \frac{\partial{\vec{f}}}{\partial{x_{1}}}dx_{1}+\dots
+ \frac{\partial{\vec{f}}}{\partial{x_{n}}}dx_{n}. $

Théorème 4.3.11   La composante de la i-ème ligne et de la j-ème colonne de la matrice Jacobienne est la dérivée partielle de la i-ème composante de $ \bf{f}{$ par rapport à la j-ème variable. On note :

Jij = $\displaystyle {\frac{{\partial{f_{i}}}}{{\partial{x_{j}}}}}$.

ou encore

(J) = $\displaystyle \begin{pmatrix}
\frac{\partial{f_{1}}}{\partial{x_{1}}} & \cdots...
...partial{x_{j}}}& \cdots & \frac{\partial{f_{m}}}{\partial{x_{n}}}
\end{pmatrix}$.

Autrement dit: la j-ème colonne de la matrice Jacobienne est la dérivée partielle de $ \bf{f}{$ par rapport à la j-ème variable xj.

choi 2008-12-22