Wednesday, September 7, 2011

Fonctions de plusieurs variables : Différentiabilité


1 Fonctions $ \mathbb{R}^{p}\rightarrow\mathbb{R}$, Dérivées Premières

Dans cette partie, toutes les fonctions sont supposées définies sur un ouvert $ \mathcal{U}$ de $ \mathbb{R}^{p}$.
On travaillera toujours sur ce domaine $ \mathcal{U}$, sur lequel on a donc une application.

1.1 Application de classe $ \mathcal{C}^{1}$ sur $ \mathcal{U}$

Définition :   $ f:\mathbb{R}^{p}\rightarrow\mathbb{R}$, définie sur $ \mathcal{U}$, un ouvert de $ \mathbb{R}^{p}$,
on appelle dérivée partielle de$ f$ par rapport à la $ i^{\grave{e}me}$ variable, au point $ u=\left( x_{1}, x_{2},\ldots, x_{p}\right) :$
$\displaystyle \dfrac{\partial f}{\partial x_{i}}\left( x_{1}, x_{2},\ldots, ... ...t) -f\left( x_{1}, x_{2},\ldots, x_{i},\ldots, x_{p}\right) }{t-x_{i}} $
si cette limite existe.
Sinon, on dit que $ f$ n'admet pas de dérivée partielle par rapport à la $ i^{\grave{e}me}$ variable, au point $ u=\left( x_{1}, x_{2},\ldots, x_{p}\right) $.
On parle parfois de dérivée partielle première.
Remarque :   Quand il n'y a que 2 ou 3 variables on note souvent les dérivées partielles,
$\displaystyle \dfrac{\partial f}{\partial x}, \dfrac{\partial f}{\partial y},... ...ême }\dfrac{\partial g}{\partial \rho}, \dfrac{\partial g}{\partial \theta} $

Mais, on n'oubliera pas, en cas d'ambiguïté, qu'il s'agit des dérivées par rapport à la première, la seconde, ou la $ i^{\grave{e}me}$ variable...
Définition :   $ f$ est de classe $ \mathcal{C}^{1}$ sur $ \mathcal{U}$ un ouvert de$ \mathbb{R}^{p}\Leftrightarrow f$ admet $ p$ dérivées partielles continues sur $ \mathcal{U}$.
C'est à dire :    $ \forall i\in\left\{ 1, 2,\ldots, p\right\} , \dfrac{\partial f}{\partial x_{i}}$ est définie et continue sur $ \mathcal{U}$

1.2 Différentielle d'une application de classe $ \mathcal{C}^{1}$ sur $ \mathcal{U}$

Définition :   $ f:\mathbb{R}^{p}\rightarrow\mathbb{R}$, définie sur $ \mathcal{U}$, un ouvert de $ \mathbb{R}^{p}$, de classe $ \mathcal{C}^{1}$ sur $ \mathcal{U}$, on appelle différentielle de $ f$ en $ u=\left( x_{1},x_{2} ,\ldots,x_{p}\right) $, l'application linéaire notée $ df_{u} :\mathbb{R}^{p}\rightarrow\mathbb{R}$
$\displaystyle \left( dx_{1},\, dx_{2},\ldots,\, dx_{p}\right) \mapsto\dfrac{\pa... ...ight) dx_{2}+\cdots+\dfrac{\partial f}{\partial x_{p}}\left( u\right) dx_{p} $
noté le plus souvent, pour alléger les notations :    $ df=\dfrac{\partial f}{\partial x_{1}}dx_{1}+\dfrac{\partial f}{\partial x_{2} }dx_{2}+\cdots+\dfrac{\partial f}{\partial x_{p}}dx_{p} $
Dans le cas de 2 ou 3 variables, on note souvent la différentielle de $ f$ en $ (x_{0},y_{0},z_{0}):$
$\displaystyle (dx,\, dy,\, dz)\longmapsto\dfrac{\partial f}{\partial x}(x_{0},\... ...,\, z_{0})\, dy+\dfrac{\partial f}{\partial z}(x_{0},\, y_{0},\, z_{0})\, dz $
ou bien :    $ df=\dfrac{\partial f}{\partial x}\, dx+\dfrac{\partial f}{\partial y} \, dy+\dfrac{\partial f}{\partial z}\, dz $

1.3 Développement limité à l'ordre 1 de $ f$ de classe$ \mathcal{C}^{1}$ sur $ \mathcal{U}$

Théorème :   $ f:\mathbb{R}^{p}\rightarrow\mathbb{R}$, définie sur $ \mathcal{U}$, un ouvert de $ \mathbb{R}^{p}$, de classe $ \mathcal{C}^{1}$ sur $ \mathcal{U}$$ u=\left( x_{1},x_{2},\ldots,x_{p}\right) \in\mathcal{U}$.$ f$ admet un développement limité à l'ordre 1 en $ u$ et
$\displaystyle f\left( u+du\right) =f\left( u\right) +df_{u}\left( du\right) +o\left( du\right)$    avec $\displaystyle \lim_{\left\Vert du\right\Vert \rightarrow0} \dfrac{o\left( du\right) }{\left\Vert du\right\Vert }=0 $
C'est à dire pour 3 variables par exemple :
$\displaystyle f\left( x+dx,\, y+dy,\, z+dz\right) =f\left( x,\, y,\, z\right) +... ...dy+\dfrac {\partial f}{\partial z}(x,y,z)\, dz+o\left( dx,\, dy,\, dz\right) $
Preuve. On le montre pour 3 variables. La démonstration repose sur le théorème des accroissements finis.
Pour cela, il faut faire varier les variables une à la fois.
$\displaystyle f\left( x+dx,\, y+dy,\, z+dz\right) -f\left( x,\, y,\, z\right)$$\displaystyle =f\left( x+dx,\, y+dy,\, z+dz\right) -f\left( x,\, y+dy,\, z+dz\right)$   
$\displaystyle \qquad +f\left( x,\, y+dy,\, z+dz\right) -f\left( x,\, y,\, z+dz\right)$   
$\displaystyle \qquad+f\left( x,\, y,\, z+dz\right) -f\left( x,\, y,\, z\right)$   
$\displaystyle =\dfrac{\partial f}{\partial x}\left( x+\alpha \, dx,\, y+dy,\, z+dz\right)$   
$\displaystyle \qquad+\dfrac{\partial f}{\partial y}\left( x,\, y+\beta \, dy,\,... ...z\right) +\dfrac{\partial f}{\partial z}\left( x,\, y,\, z+\gamma \, dz\right)$   

avec $ \alpha,\beta,\gamma\in\left] 0,1\right[ $.
D'où, par continuité des dérivées partielles :
$\displaystyle f\left( x+dx,\, y+dy,\, z+dz\right) -f\left( x,\, y,\, z\right)$$\displaystyle =\dfrac{\partial f}{\partial x}(x,\, y,\, z)\, dx+o\left( \left( dx,\, dy,\, dz\right) \right)$   
$\displaystyle \qquad+\dfrac{\partial f}{\partial y}(x,\, y,\, z)\, dy+o\left( \... ...al f}{\partial z}(x,\, y,\, z)\, dz+o\left( \left( 0,\, 0,\, dz\right) \right)$   

Il ne reste qu'à regrouper les $ o\left( \cdots\right) $ en un seul$ o\left( \left( dx,\, dy,\, dz\right) \right) $$ \qedsymbol$

1.4 Gradient, dérivée selon un vecteur

Définition :   $ f:\mathbb{R}^{p}\rightarrow\mathbb{R}$, définie sur $ \mathcal{U}$, un ouvert de $ \mathbb{R}^{p}$, de classe $ \mathcal{C}^{1}$ sur $ \mathcal{U}$,    $ u=\left( x_{1}, x_{2},\ldots, x_{p}\right) \in\mathcal{U}$
On appelle gradient de $ f$ en $ u$, noté $ \overrightarrow {Grad_{u}\left( f\right) }$ le vecteur : \begin{displaymath}\left( \begin{array}[c]{c} \dfrac{\partial f}{\partial x_{1... ...artial f}{\partial x_{p}}\left( u\right) \end{array} \right) \end{displaymath}
Ce gradient a une grande importance dans l'étude des courbes d'équation $ f\left( x, y\right) =0$ ou des surfaces d'équation$ f\left( x, y, z\right) =0$ dans un repère orthonormal.
Définition :   $ f:\mathbb{R}^{p}\rightarrow\mathbb{R}$, définie sur $ \mathcal{U}$, un ouvert de $ \mathbb{R}^{p}$, de classe $ \mathcal{C}^{1}$ sur $ \mathcal{U}$,    $ u=\left( x_{1},x_{2},\ldots,x_{p}\right) \in\mathcal{U}$
On appelle dérivée de $ f$ suivant le vecteur\begin{displaymath}\overrightarrow{V}:\left( \begin{array}[c]{c} v_{1}\\ v_{2}\\ \vdots\\ v_{p} \end{array} \right) \end{displaymath} en $ u$ le produit scalaire
$\displaystyle \overrightarrow{Grad_{u}\left( f\right) }\cdot\overrightarrow{V}... ...\right) v_{2}+\cdots+\dfrac{\partial f}{\partial x_{p}}\left( u\right) v_{p} $

1.5 Algèbre $ \mathcal{C}^{1}\left( \mathcal{U},\mathbb{R}\right) $

Théorème :   L'ensemble des applications de classe $ \mathcal{C}^{1}$ sur $ \mathcal{U}$ un ouvert de $ \mathbb{R}^{p}$, à valeur réelle, muni de
\begin{displaymath} % latex2html id marker 3963 \left\{ \begin{array}[c]{c} \t... ... \text{Le produit de deux applications} \end{array} \right\} \end{displaymath} a une structure d'algèbre commutative.
Preuve. On montre que c'est une sous-algèbre de $ \mathcal{C}^{0}\left( \mathcal{U},\mathbb{R}\right) $. Clairement, $ \mathcal{C}^{1}\left( \mathcal{U},\mathbb{R}\right) $
  • est stable par combinaison linéaire
  • et stable par produit par application des propriétés équivalentes pour les fonctions d'une variable,
  • et contient la fonction constante 1 élément neutre du produit.
$ \qedsymbol$

1.6 Différentielle et dérivées partielles de fonctions composées

On écrit le théorème pour une fonction de 3 variables. L'énoncé pour une fonction de $ p$ variables s'en déduit facilement.
Théorème :   \begin{displaymath}\left. \begin{array}[c]{r} x, y, z:\mathbb{R}\rightarro... ...), y(t), z(t)\right) \end{array} \right\} \Rightarrow F\end{displaymath} est de classe $ \mathcal{C}^{1}$ sur $ I$, et :
$\displaystyle \forall t\in I,\quad F^{\prime}(t)=\dfrac{\partial f}{\partial x}... ...tial f}{\partial y}y^{\prime}(t)+\dfrac{\partial f}{\partial z}z^{\prime}(t) $
Ou encore, en utilisant la notation différentielle :    $ \dfrac{dF}{dt}=\dfrac{\partial f}{\partial x}\, \dfrac{dx}{dt}+\dfrac{\partial... ...{\partial y}\, \dfrac{dy}{dt}+\dfrac{\partial f}{\partial z}\, \dfrac{dz}{dt} $
Bien sûr, toutes les dérivées partielles sont prises en $ \left( x(t), y(t), z(t)\right) $ et les dérivées en $ t$.
Preuve. On écrit la démonstration pour une fonction de 2 variables seulement !
$\displaystyle F\left( t+dt\right) -F\left( t\right)$$\displaystyle =f\left( x(t+dt),\, y(t+dt)\right) -f\left( x(t),\, y(t)\right)$   
$\displaystyle =f\left( x\left( t\right) +\dfrac{dx}{dt}\, dt+o\left( dt\right)... ...t) +\dfrac{dy}{dt}\, dt+o\left( dt\right) \right) -f\left( x(t),\, y(t)\right)$   
$\displaystyle =\dfrac{\partial f}{\partial x}\times\left( \dfrac{dx}{dt}\, dt+o... ...tial f}{\partial y}\times\left( \dfrac {dy}{dt}\, dt+o\left( dt\right) \right)$   
$\displaystyle +o\left( \dfrac{dx}{dt}\, dt+o\left( dt\right) ,\dfrac{dy}{dt}\, dt+o\left( dt\right) \right)$   
$\displaystyle =\dfrac{\partial f}{\partial x}\, \dfrac{dx}{dt}+\dfrac{\partial ... ...+\dfrac{\partial f}{\partial y}\, o\left( dt\right) \right) +o\left( dt\right)$   
$\displaystyle =\dfrac{\partial f}{\partial x}\, \dfrac{dx}{dt}+\dfrac{\partial f}{\partial y}\, \dfrac{dy}{dt}+o\left( dt\right)$   

$ \qedsymbol$
Théorème :   On écrit ce théorème pour la composée de fonctions de plusieurs variables avec 2 et 3 variables.
Ceci est bien sûr arbitraire, le théorème s'applique avec $ p$ et $ q$ variables...\begin{displaymath}\left. \begin{array}[c]{r} f:\mathbb{R}^{3}\rightarrow\math... ...) , w\left( x, y\right) \right) \end{array} \right. \quad\end{displaymath} est de classe $ \mathcal{C}^{1}$ sur $ \mathcal{V}$ et :
$\displaystyle \dfrac{\partial F}{\partial x}$$\displaystyle =\dfrac{\partial f}{\partial u} \dfrac{\partial u}{\partial x... ... v}{\partial x}+\dfrac{\partial f}{\partial w} \dfrac{\partial w}{\partial x}$   
$\displaystyle \dfrac{\partial F}{\partial y}$$\displaystyle =\dfrac{\partial f}{\partial u} \dfrac{\partial u}{\partial y... ... v}{\partial y}+\dfrac{\partial f}{\partial w} \dfrac{\partial w}{\partial y}$   

On a aussi changé les notations parce qu'il faut pouvoir s'adapter !
Preuve. Quand on fixe $ y$, on se retrouve exactement dans les hypothèses du théorème précédent.
Ce qui donne $ \dfrac{\partial F}{\partial x}$. De même, on fixe $ x$ pour obtenir $ \dfrac{\partial F}{\partial y}$$ \qedsymbol$

2 Fonctions $ \mathbb{R}^{p}\rightarrow\mathbb{R}$ de Classe$ \mathcal{C}^{2}$, Dérivées Secondes

2.1 Application de classe $ \mathcal{C}^{2}$ sur $ \mathcal{U}$

Définition :   $ f:\mathbb{R}^{p}\rightarrow\mathbb{R}$, définie sur $ \mathcal{U}$, un ouvert de $ \mathbb{R}^{p}$, de classe $ \mathcal{C}^{1}$ sur $ \mathcal{U}$, on dit que $ f$ est de classe $ \mathcal{C}^{2}$ sur $ \mathcal{U}$$ \Leftrightarrow$ les $ p$applications $ \dfrac{\partial f}{\partial x_{1} }, \dfrac{\partial f}{\partial x_{2}},\ldots, \dfrac{\partial f}{\partial x_{p} }$ sont de classe $ \mathcal{C}^{1}$ sur $ \mathcal{U}$.
L'application $ \dfrac{\partial}{\partial x_{j}}\left( \dfrac{\partial f}{\partial x_{i}}\right) $ est la $ j^{\grave{e}me}$ dérivée partielle de la $ i^{\grave{e}me}$ dérivée partielle se note$ \dfrac{\partial^{2}f}{\partial x_{j}\partial x_{i}}$.
Il y a donc à priori $ p^{2}$ dérivées partielles secondes.

2.2 Théorème de Schwarz

On admettra ce théorème important.

Théorème :   $ f$ de classe $ \mathcal{C}^{2}$ sur $ \mathcal{U}\Rightarrow\forall i,j\in\left\{ 1,2,\ldots,p\right\} $$ \dfrac{\partial^{2}f}{\partial x_{i}\partial x_{j}}=\dfrac{\partial^{2}f}{\partial x_{j}\partial x_{i}}$.
On dit que pour $ f$ de classe $ \mathcal{C}^{2}$, les dérivées partielles secondes croisées sont égales.

2.3 Formule de Taylor-Young à l'ordre 2

Théorème :   $ f$ de classe $ \mathcal{C}^{2}$ sur $ \mathcal{U}$, un ouvert de $ \mathbb{R}^{p}$$ u\in\mathcal{U}$. Alors
$\displaystyle f\left( u+du\right)$$\displaystyle =f\left( u\right) +\left( \dfrac{\partial f}{\partial x_{1}}\lef... ... dx_{2}+\cdots+\dfrac{\partial f}{\partial x_{p}}\left( u\right) dx_{p}\right)$   
$\displaystyle \qquad +\dfrac{1}{2}\left( \dfrac{\partial f}{\partial x_{1}}\lef... ...dx_{p}\right) ^{\left[ 2\right] }+o\left( \left\Vert du\right\Vert ^{2}\right)$   

Avec, $ ^{\left[ 2\right] }$ qui est un pseudo-carré où, au lieu d'avoir des produits de dérivées partielles, on a des composées.
$\displaystyle \left( \dfrac{\partial f}{\partial x_{1}}\, dx_{1}+\dfrac{\partia... ...+\cdots+\dfrac{\partial f}{\partial x_{p}}\, dx_{p}\right) ^{\left[ 2\right] }$$\displaystyle =\sum_{1\leqslant i,j\leqslant n}\dfrac{\partial^{2} f}{\partial x_{j}\partial x_{i}}\, dx_{j}\, dx_{i}$   
$\displaystyle =\sum_{i=1}^{n}\dfrac{\partial^{2}f}{\partial x_{i}^{2}}\, dx_{i}... ...ant n}\dfrac{\partial^{2}f}{\partial x_{j}\, \partial x_{i}}\, dx_{j}\, dx_{i}$   

2.4 Extrémums d'une application de classe $ \mathcal{C}^{2}$ sur$ \mathcal{U}$

On va d'abord chercher une condition nécessaire d'existence d'un extrémum pour une application de classe $ \mathcal{C}^{1}$ sur$ \mathcal{U}$.

Théorème :   $ f:\mathbb{R}^{p}\rightarrow\mathbb{R}$, définie sur $ \mathcal{U}$, un ouvert de $ \mathbb{R}^{p}$, de classe $ \mathcal{C}^{1}$ sur $ \mathcal{U}$,$ u\in\mathcal{U}$$ u$ en extrémum local de $ f$.
Alors, $ df_{u}=0$, c'est à dire :    $ \dfrac{\partial f}{\partial x_{1}}\left( u\right) =\dfrac{\partial f}{\partia... ...left( u\right) =\cdots=\dfrac{\partial f}{\partial x_{p} }\left( u\right) =0 $
Une condition nécessaire pour que $ f$ de classe $ \mathcal{C}^{1}$ sur $ \mathcal{U}$, admette un extrémum est que toutes les dérivées partielles sont nulles.
Définition :   Un point $ u$ de $ \mathcal{U}$ tel que toutes les dérivées partielles sont nulles est un point critique de $ f$.
Preuve. Si on a un extrémum, $ f\left( u+du\right) -f\left( u\right) =A$ est de signe constant pour $ \left\Vert du\right\Vert $ assez petit.
C'est à dire que :    $ A=\left( \dfrac{\partial f}{\partial x_{1}}\left( u\right) dx_{1} +\dfrac{\pa... ...{\partial f}{\partial x_{p}}\left( u\right) dx_{p}\right) +o\left( du\right) $     est de signe constant.
Si la partie régulière est non nulle, pour $ \left\Vert du\right\Vert $ assez petit, la quantité $ A$ donnée est du signe de cette partie régulière.
Mais en changeant $ du$ en $ -du$, cette partie régulière est changée en son opposé. La quantité $ A$ change donc de signe.
Ce qui prouve que la partie régulière est nulle :
$\displaystyle \dfrac{\partial f}{\partial x_{1}}\left( u\right) dx_{1}+\dfrac{\... ...ht) dx_{2}+\cdots+\dfrac{\partial f}{\partial x_{p}}\left( u\right) dx_{p}=0 $
pour tous $ \left( dx_{1},\, dx_{2},\ldots,\, dx_{p}\right) $. Ce qui prouve que les $ \dfrac{\partial f}{\partial x_{i}}\left( u\right) $ sont tous nuls. $ \qedsymbol$
Théorème :   $ f$ de classe $ \mathcal{C}^{2}$ sur$ \mathcal{U}$, un ouvert de $ \mathbb{R}^{2}$$ (x_{0},y_{0})\in\mathcal{U}$, un point critique de $ f$. On pose :
$\displaystyle r=\dfrac{\partial^{2}f}{\partial x^{2}}(x_{0}, y_{0}), \qquad ... ...0}, y_{0}), \qquad t=\dfrac{\partial^{2}f}{\partial y^{2}}(x_{0}, y_{0}) $
  • Si $ s^{2}-rt<0\quad(x_{0}, y_{0})$ est un extrémum (minimum pour$ r>0$, maximum pour $ r<0)$
  • Si $ s^{2}-rt>0\quad(x_{0}, y_{0})$ est un col
  • Si $ s^{2}-rt=0\quad$on ne peut pas conclure, il faut chercher le signe de $ f(x, y)-f(x_{0}, y_{0})$ au voisinage de $ (x_{0}, y_{0})$.
Preuve. On utilise la formule de Taylor-Young à l'ordre 2. On note $ dx=\left( x-x_{0}\right) $ et $ dy=\left( y-y_{0}\right) $$ f(x,\, y)-f(x_{0},\, y_{0}) =\left( \dfrac{\partial f}{\partial x} \, dx+\dfr... ...al f}{\partial y}\, dy\right) ^{\left[ 2\right] }+o\left( dx^{2}+dy^{2}\right)$$ \qquad=\dfrac{1}{2}\left( \dfrac{\partial f}{\partial x}\, dx+\dfrac{\partial f}{\partial y}\, dy\right) ^{\left[ 2\right] }+o\left( dx^{2}+dy^{2}\right)$$ \qquad=\dfrac{1}{2}\left( r\, dx^{2}+2s\,dx\, dy+t\, dy^{2}\right) +o\left( dx^{2}+dy^{2}\right)$ On pose :    $ \Delta=4\left( s^{2}-rt\right) $
  • Si $ \Delta<0$$ \left( r\, dx^{2}+2s\, dx\, dy+t\, dy^{2}\right) $ ne change strictement pas de signe, donc pour $ \left( dx,\, dy\right) $ assez petit, $ f(x, y)-f(x_{0}, y_{0})$ ne change pas de signe.
    On a un bien un extrémum.
  • Si $ \Delta>0$$ \left( r\, dx^{2}+2s\, dxdy+t\, dy^{2}\right) $ change strictement de signe, donc pour $ \left( dx,\, dy\right) $ assez petit, $ f(x, y)-f(x_{0}, y_{0})$ change de signe.
    On a ici un col.
  • Si $ \Delta=0$, tout dépend du signe de $ o\left( dx^{2} +dy^{2}\right) $ lorsque $ \left( r\, dx^{2}+2s\, dx\, dy+t\, dy^{2}\right) $ s'annule.
    Comme on ne connait pas ce signe, on ne peut pas conclure.
$ \qedsymbol$
En pratique, $ z=f(x, y)\quad$une fonction de classe $ \mathcal{C}^{2}$ sur$ \mathcal{U}$ un ouvert de $ \mathbb{R}^{2}$.

  • On cherche les points critiques, qui vérifient : \begin{displaymath}\left\{ \begin{array}[c]{l} \dfrac{\partial f}{\partial x}(... ...\dfrac{\partial f}{\partial y}(x, y)=0 \end{array} \right. \end{displaymath}
  • Les extrémums sont à chercher parmi les points critiques.
  • On calcule les expressions théoriques de $ r,s$, et $ t$.
  • En chaque point critique $ (x_{0}, y_{0})$, on calcule\begin{displaymath}\left\{ \begin{array}[c]{l} r=\dfrac{\partial^{2}f}{\partia... ...al^{2}f}{\partial y^{2}}(x_{0}, y_{0}) \end{array} \right. \end{displaymath}
    • Si $ s^{2}-rt<0\quad(x_{0}, y_{0})$ est un extrémum (minimum pour$ r>0$, maximum pour $ r<0)$
    • Si $ s^{2}-rt>0\quad(x_{0}, y_{0})$ est un col
    • Si $ s^{2}-rt=0\quad$on ne peut pas conclure, il faut chercher le signe de $ f(x, y)-f(x_{0}, y_{0})$ selon d'autres moyens.
Exemple :   Cherchons sur $ \mathbb{R}^{2}$ les extrémumx de $ f:\left( x,y\right) \rightarrow x^{3}+y^{3}$ On cherche d'abord les points critiques.$ \dfrac{\partial f}{\partial x}=3x^{2}=0\Rightarrow x=0,\quad\dfrac{\partial f}{\partial y}=3y^{2}=0\Rightarrow y=0$
Il n'y a qu'un seul point critique $ \left( 0,0\right) .$$ \dfrac{\partial^{2}f}{\partial x^{2}}=6x=0=r$ en $ \left( 0,0\right) ,\quad\dfrac{\partial^{2}f}{\partial x\partial y}=0=s$ en $ \left( 0,0\right) ,\quad\dfrac{\partial^{2}f}{\partial y^{2}}=6y=0=t$ en $ \left( 0,0\right) $
En $ \left( 0,0\right) ,$ $ s^{2}-rt=0,$ le théorème ne permet pas de conclure.
Mais $ f\left( x,y\right) -f\left( 0,0\right) =x^{3}+y^{3}$ et $ f\left( -x,-y\right) -f\left( 0,0\right) =-x^{3}-y^{3}$ expression de signe opposé.
Ainsi $ f\left( x,y\right) -f\left( 0,0\right) $ change de signe au voisinage du point critique : $ \left( 0,0\right) $ est un point col.
On va ici donner deux exemples sous forme de surfaces où $ \left( 0,0\right) $ est un point critique, on a aussi représenté la fonction nulle qui donne un plan.
C'est la figureci-dessous. Les fonction étudiées sont respectivement
    $ x^{2}+y^{2}$ où $ r=2$$ s=0$$ t=2$$ s^{2}-rt=-4$ $ x^{2}-y^{2}$ où $ r=2$$ s=0$$ t=-2$$ s^{2}-rt=4$
$\textstyle \parbox{3.1272in}{\begin{center} \includegraphics[ trim=0.573332in... ... width=3.1272in ] {point-ballon} \\ Point ballon (minimum) \end{center}}$$\textstyle \parbox{3.1289in}{\begin{center} \includegraphics[ trim=0.573332in... ...height=2.4751in, width=3.1289in ] {point-col} \\ Point col \end{center}}$

3 Fonctions $ \mathbb{R}^{p}\rightarrow\mathbb{R}$ de Classe$ \mathcal{C}^{k}$, Dérivées d'ordre supérieur

3.1 Fonctions $ \mathbb{R}^{p}\rightarrow\mathbb{R}$ de Classe$ \mathcal{C}^{k}$ sur $ \mathcal{U}$ un ouvert de $ \mathbb{R}^{p}$

Définition :   $ f:\mathbb{R}^{p}\rightarrow\mathbb{R}$ est de Classe $ \mathcal{C}^{k}$ sur$ \mathcal{U}$ un ouvert de $ \mathbb{R}^{p}$, avec $ k\geqslant1$,$ \Leftrightarrow f$ est de classe $ \mathcal{C}^{1}$ et toutes les dérivées partielles sont de classe $ \mathcal{C}^{k-1}$.
Le théorème de Schwarz appliqué un certain nombre de fois permet de calculer n'importe quelle dérivée partielle en dérivant dans n'importe quel ordre, dans la limite de $ k$ dérivations.

3.2 Algèbre $ \mathcal{C}^{k}\left( \mathcal{U},\mathbb{R}\right) $

Théorème :   $ \mathcal{C}^{k}\left( \mathcal{U},\mathbb{R}\right) $ a une structure d'algèbre commutative, sous algèbre de $ \mathcal{C}^{1}\left( \mathcal{U},\mathbb{R}\right) $.
Preuve. La démonstration est élémentaire. On a clairement la stabilité par combinaison linéaire, la stabilité par produit et la présence dans $ \mathcal{C}^{k}\left( \mathcal{U},\mathbb{R}\right) $ de l'application constante 1. $ \qedsymbol$

4 Fonctions Vectorielles $ \mathbb{R}\rightarrow$ $ \mathbb{R}^{p}$

4.1 Dérivée d'une fonction $ \mathbb{R}\rightarrow$$ \mathbb{R}^{p}$, classe $ \mathcal{C}^{k}$

Définition :   $ F:\mathbb{R}\rightarrow$ $ \mathbb{R}^{p}$, définie sur $ I$ un intervalle de $ \mathbb{R}$. avec :    $ F\left( x\right) =\left( f_{1}\left( x\right) , f_{2}\left( x\right) ,\ldots, f_{p}\left( x\right) \right) $     qu'on notera en ligne ou en colonne selon les cas.
On dit que $ F$ est de classe $ \mathcal{C}^{k}$ sur $ I\Leftrightarrow f_{1}, f_{2},\ldots, f_{p}$ sont de classe $ \mathcal{C}^{k}$ sur $ I$
On note d'ailleurs, pour $ x\in I$ :    $ F^{\prime}\left( x\right) =\left( f_{1}^{\prime}\left( x\right) , f_{2}^{\prime}\left( x\right) ,\ldots, f_{p}^{\prime}\left( x\right) \right) $     ou simplement :    $ F^{\prime}=\left( f_{1}^{\prime}, f_{2}^{\prime},\ldots, f_{p}^{\prime }\right) $
On fait de même pour les dérivées d'ordre supérieur.
Théorème :   $ \mathcal{C}^{k}\left( I,\mathbb{R}^{p}\right) $, l'ensemble des applications de classe $ \mathcal{C}^{k}$ définies sur $ I$, à valeur dans $ \mathbb{R}^{p}$, muni
  • de la somme de 2 applications et
  • du produit d'une application par une constante,
est un espace vectoriel sur $ \mathbb{R}$.
Preuve. C'est encore une fois clairement un sous espace vectoriel de $ \mathcal{A} ^{k}\left( I,\mathbb{R}^{p}\right) $$ \mathcal{C}^{k}\left( I,\mathbb{R}^{p}\right) $ est bien non vide (application nulle) et stable par combinaison linéaire.
Il suffit d'appliquer le théorème pour les applications à valeur réelle à chaque coordonnée. $ \qedsymbol$

4.2 Développement limité

Définition :   On dit que $ F$ admet un développement limité à l'ordre $ n$ en$ x_{0}$$ \Leftrightarrow$ chacune des $ p$ coordonnées de $ F$ admet un développement limité à l'ordre $ n$ en $ x_{0}$.
Théorème :   $ F$ de classe $ \mathcal{C}^{k}$ au voisinage de $ x_{0}$ admet un développement limité d'ordre $ k$ au voisinage de $ x_{0}$.
De plus, on a
$\displaystyle F\left( x\right) =F\left( x_{0}\right) +\dfrac{\left( x-x_{0}\rig... ...ft( x_{0}\right) +\left( x-x_{0}\right) ^{k}\varepsilon\left( x-x_{0}\right) $
avec $ \varepsilon\left( x-x_{0}\right) \rightarrow0$ quand $ x\rightarrow x_{0}$
On notera que $ F, F^{\prime},\ldots, F^{\left( k\right) }$ et $ \varepsilon$ sont des fonctions vectorielles.
Cette formule s'appelle encore formule de Taylor-Young à l'ordre $ k$.
Preuve.$ F$ est de classe $ \mathcal{C}^{k}$ au voisinage de $ x_{0}$, d'où chaque$ f_{i}$ est de classe $ \mathcal{C}^{k}$ au voisinage de $ x_{0}$.
Chaque$ f_{i}$ admet donc un $ \mathrm{dl}_{k}$ au voisinage de $ x_{0}$ et enfin $ F$ admet un$ \mathrm{dl}_{k}$ au voisinage de $ x_{0}$$ \qedsymbol$

4.3 Dérivée d'une fonction du type $ :x\rightarrow \lambda \left ( x\right ) F\left ( x\right ) $

Théorème :   Soit $ \lambda:I\rightarrow\mathbb{R}$ et $ F:I\rightarrow\mathbb{R}^{p}$ une fonction scalaire et une fonction vectorielle de classe $ \mathcal{C}^{k}$ sur$ I$. Alors \begin{displaymath}G:\left\{ \begin{array}[c]{rcl} I & \rightarrow & \mathbb{R... ... \lambda\left( x\right) F\left( x\right) \end{array} \right. \end{displaymath} est de classe $ \mathcal{C}^{k}$ sur $ I$.
De plus, on a la formule de Leibniz :    $ \left( \lambda F\right) ^{\left( k\right) }=\displaystyle\sum_{i=0}^{k} \mathcal{C} _{k}^{i}$ $ \lambda^{\left( i\right) }$ $ F^{\left( k-i\right) } $     avec la convention habituelle $ \lambda^{\left( 0\right) }=\lambda$ et$ F^{\left( 0\right) }=F$.
Preuve. On applique les théorèmes correspondants à chacune des coordonnées $ :x\rightarrow\lambda\left( x\right) f_{j}\left( x\right) $$ \qedsymbol$

4.4 Dérivée d'un produit scalaire, d'un produit vectoriel.

Le principe est simple, un produit scalaire, ou le produit vectoriel (dans ce cas, on est en dimension 3) se dérivent comme des produits.
Théorème :   Soit $ F,G:I\rightarrow\mathbb{R}^{p}$, deux fonctions vectorielles de classe$ \mathcal{C}^{k}$ sur $ I$. Soit \begin{displaymath}s:\left\{ \begin{array}[c]{rcl} I & \rightarrow & \mathbb{R... ...& F\left( x\right) G\left( x\right) \end{array} \right. \quad\end{displaymath}
Alors $ s$ est de classe $ \mathcal{C}^{k}$ sur $ I$.
$\displaystyle s^{\prime}\left( x\right)$$\displaystyle =F^{\prime}\left( x\right) G\left( x\right) +F\left( x\right) G^{\prime}\left( x\right)$   
$\displaystyle s^{\left( k\right) }\left( x\right)$$\displaystyle =\sum_{i=0}^{k} \mathcal{C}_{k} ^{i} F^{\left( i\right) }\left( x\right) G^{\left( k-i\right) }\left( x\right)$   

Preuve. On vérifie la formule pour $ s^{\prime}$.
Ensuite, il suffit de procéder par récurrence, comme on l'a fait lors de la dé monstration de la formule de Leibniz pour les fonctions à valeur réelle.
$\displaystyle s\left( x\right)$$\displaystyle =f_{1}\left( x\right) g_{1}\left( x\right) +f_{2}\left( x\right) g_{2}\left( x\right) +\cdots+f_{p}\left( x\right) g_{p}\left( x\right)$   
$\displaystyle s^{\prime}\left( x\right)$$\displaystyle =f_{1}^{\prime}\left( x\right) g_{1}\left( x\right) +f_{1}\left(... ...ight) g_{p}\left( x\right) +f_{p}\left( x\right) g_{p}^{\prime}\left( x\right)$   
$\displaystyle =\left( f_{1}^{\prime}\left( x\right) g_{1}\left( x\right) +\cdo... ...( x\right) +\cdots +f_{p}\left( x\right) g_{p}^{\prime}\left( x\right) \right)$   
$\displaystyle =F^{\prime}\left( x\right) G\left( x\right) +F\left( x\right) G^{\prime}\left( x\right)$   

$ \qedsymbol$
Théorème :   Soit $ F,G:I\rightarrow\mathbb{R}^{3}$, deux fonctions vectorielles de classe$ \mathcal{C}^{k}$ sur $ I$. Soit \begin{displaymath}V:\left\{ \begin{array}[c]{rcl} I & \rightarrow & \mathbb{R... ...t( x\right) \wedge G\left( x\right) \end{array} \right. \quad\end{displaymath}
Alors $ V$ est de classe $ \mathcal{C}^{k}$ sur $ I$.
$\displaystyle V^{\prime}\left( x\right)$$\displaystyle =F^{\prime}\left( x\right) \wedge G\left( x\right) +F\left( x\right) \wedge G^{\prime}\left( x\right)$   
$\displaystyle V^{\left( k\right) }\left( x\right)$$\displaystyle =\sum_{i=0}^{k} \mathcal{C}_{k} ^{i} F^{\left( i\right) }\left( x\right) \wedge G^{\left( k-i\right) }\left( x\right)$   

Preuve. On vérifie la formule pour $ V^{\prime}$.
Ensuite, il suffit de procéder par récurrence.
$\displaystyle V\left( x\right)$$\displaystyle =f_{1}\left( x\right) \wedge g_{1}\left( x\right) +\cdots+f_{p}\left( x\right) \wedge g_{p}\left( x\right)$   
$\displaystyle V^{\prime}\left( x\right)$$\displaystyle =f_{1}^{\prime}\left( x\right) \wedge g_{1}\left( x\right) +f_{1... ..._{p}\left( x\right) +f_{p}\left( x\right) \wedge g_{p}^{\prime}\left( x\right)$   
$\displaystyle =\left( f_{1}^{\prime}\left( x\right) \wedge g_{1}\left( x\right)... ...ght) +\cdots+f_{p}\left( x\right) \wedge g_{p}^{\prime}\left( x\right) \right)$   
$\displaystyle =F^{\prime}\left( x\right) \wedge G\left( x\right) +F\left( x\right) \wedge G^{\prime}\left( x\right)$   

$ \qedsymbol$
En résumé, dans tous les cas, un produit se dérive comme un produit. 

5 Fonction Vectorielle $ \mathbb{R}^{n}\rightarrow\mathbb{R}^{p}$, classe $ \mathcal{C}^{1}$

5.1 Fonction de classe $ \mathcal{C}^{1}$

Définition :   Soit $ F:\mathbb{R}^{n}\rightarrow\mathbb{R}^{p}$, définie sur$ \mathcal{U}$ un ouvert de $ \mathbb{R}^{n}$.
On dit que $ F$ est de classe$ \mathcal{C}^{1}$ sur $ \mathcal{U}$$ \Leftrightarrow\forall i\in\left\{ 1, 2,\ldots, p\right\} ,\quad f_{i} :\mathbb{R}^{n}\rightarrow\mathbb{R}$    (les applications coordonnées de$ F$), sont de classe $ \mathcal{C}^{1}$sur $ \mathcal{U}$.\begin{displaymath}\forall j\in\left\{ 1, 2,\ldots, n\right\}:\quad\dfrac{\p... ... \dfrac{\partial f_{p}}{\partial x_{j}} \end{array} \right) \end{displaymath}     est aussi une fonction $ \mathbb{R}^{n}\rightarrow\mathbb{R}^{p}$.

5.2 Différentielle d'une fonction de classe $ \mathcal{C}^{1}$, matrice jacobienne

Définition :   Soit $ F:\mathbb{R}^{n}\rightarrow\mathbb{R}^{p}$, de classe $ \mathcal{C}^{1}$ sur $ \mathcal{U}$ un ouvert de $ \mathbb{R}^{n}$.
La différentielle de $ F$ en $ u$, notée $ dF_{u}$, est l'application linéaire :\begin{displaymath}dF_{u}:\left\{ \begin{array}[c]{rll} \mathbb{R}^{n} & \righ... ...rac{\partial F}{\partial x_{n}}\, dx_{n} \end{array} \right. \end{displaymath}
Coordonnée par coordonnée, on a la différentielle de chaque$ f_{i}$ en $ u$.
Définition :   La matrice jacobienne de $ F$ en $ u$ est la matrice (dans la base canonique) de la différentielle de $ F$ en $ u$.
Toutes les dérivées partielles étant prises en $ u$, la matrice jacobienne de $ F$ en $ u$ est :
\begin{displaymath} J_{F}\left( u\right) =\left( \begin{array}[c]{cccc} \dfra... ... \dfrac{\partial f_{p}}{\partial x_{n}} \end{array} \right) \end{displaymath}

5.3 Cas où $ F:\mathbb{R}^{n}\rightarrow\mathbb{R}^{n}$, Jacobien

Définition :   Dans le cas où $ n=p$, le déterminant de la matrice jacobienne de $ F$ en $ u$ est appelé jacobien de $ F$ en $ u$.

5.4 Composée de fonctions de classe $ \mathcal{C}^{1}$

Théorème :   \begin{displaymath}\left. \begin{array}[c]{r} F:\mathbb{R}^{n}\rightarrow\math... ... \subset\mathcal{V} \end{array} \right\} \Rightarrow G\circ F\end{displaymath} est de classe $ \mathcal{C}^{1}$ sur$ \mathcal{U}$ et,
$\displaystyle J_{G\circ F}$$\displaystyle =J_{G}\times J_{F}$   
$\displaystyle J_{G\circ F}\left( u\right)$$\displaystyle =J_{G}\left( F\left( u\right) \right) \times J_{F}\left( u\right)$   

Preuve. On appelle $ \left( f_{1},\ldots, f_{m}\right) $ et $ \left( g_{1} ,\ldots, g_{p}\right) $ les composantes de $ F$ et de $ G$.
On note $ u=\left( x_{1},\ldots, x_{n}\right) $ et :
$\displaystyle F\left( u\right)=\left( y_{1},\ldots, y_{m}\right) =\left( f_{... ..., x_{n}\right) ,\ldots, f_{m}\left( x_{1},\ldots, x_{n}\right) \right) $
\begin{displaymath} G\left( F\left( u\right) \right)=\left( \begin{array}[c]{c... ..._{p}\left( x_{1},\ldots, x_{n}\right) \end{array} \right) \end{displaymath}
Ces composantes sont clairement de classe $ \mathcal{C}^{1}$. Pour alléger les notations, on ne précise plus en quels points on prend ces dérivées partielles.
En appliquant le théorème de dérivation des fonctions composées, on a :
\begin{displaymath} \dfrac{\partial h_{i}}{\partial x_{j}}=\dfrac{\partial g_{i... ... \dfrac{\partial f_{m}}{\partial x_{j}} \end{array} \right) \end{displaymath}
On reconnait bien sûr le produit de la $ i^{\grave{e}me}$ ligne de la matrice jacobienne de $ G$ par la $ j^{\grave{e}me}$ colonne de la matrice jacobienne de $ F$.
Ce qui est bien l'élément $ i^{\grave{e}me}$ ligne, $ j^{\grave{e}me}$ colonne de la matrice jacobienne de $ G\circ F$$ \qedsymbol$

5.5 Fonction $ \mathbb{R}^{n}\rightarrow\mathbb{R}^{n}$, classe$ \mathcal{C}^{1}$

Théorème :   \begin{displaymath}\left. \begin{array}[c]{r} F:\mathbb{R}^{n}\rightarrow\math... ...-1}}\left( v\right) =\left( J_{F}\left( u\right) \right) ^{-1}\end{displaymath}
La matrice jacobienne de $ F^{-1}$ en $ v=F\left( u\right) $ est l'inverse de la matrice jacobienne de $ F$ en $ u$.
Preuve. On a :    $ F^{-1}\circ F=Id $ La matrice jacobienne de l'identité en tout point est $ I_{n}$.
D'où :    $ J_{F^{-1}}\left( v\right) \times J_{F}\left( u\right) =I_{n} $     ce qui donne le résultat.
Ceci prouve d'ailleurs au passage que, dans ces conditions, la matrice jacobienne est inversible. $ \qedsymbol$
Corollaire :   Dans les mêmes conditions, le jacobien de $ F^{-1}$ en $ v=F\left( u\right) $ est l'inverse du jacobien de $ F$ en $ u$.
Si on a $ \left( X, Y\right) =F\left( x, y\right) $, le jacobien de $ F$ en$ \left( x, y\right) $ se note $ \dfrac{D\left( X, Y\right) }{D\left( x, y\right) }$.

6 Compléments

6.1 Les mathématiciens du chapitre

Schwarz Hermann Amandus 1843-1920
Il est l'auteur du théorème qui porte son nom, et aussi du théorème de Cauchy-Schwarz. Ses travaux portent aussi sur les équations de Laplace, les fonctions harmoniques et la théorie du potentiel ...

6.2 Avec Maple

Comme il y a des vecteurs et des matrices, on a besoin du package « linalg ».
C'est « jacobian » qui permet de calculer une matrice jacobienne. Si elle est carrée, son déterminant est le jacobien.
C'est « grad » qui permet de calculer un gradient de fonction de plusieurs variables.
Celui-ci possède des options pour le calcul direct en coordonnées sphérique ou cylindriques.
Je vous renvoie à l'aide Maple.

No comments:

Post a Comment