Eclats de vers : Matemat 08 : Différentielles

Index des Grimoires

Retour à l’accueil

Table des matières

\( \newcommand{\parentheses}[1]{\left(#1\right)} \newcommand{\crochets}[1]{\left[#1\right]} \newcommand{\accolades}[1]{\left\{#1\right\}} \newcommand{\ensemble}[1]{\left\{#1\right\}} \newcommand{\identite}{\mathrm{Id}} \newcommand{\indicatrice}{\boldsymbol{\delta}} \newcommand{\dirac}{\delta} \newcommand{\moinsun}{{-1}} \newcommand{\inverse}{\ddagger} \newcommand{\pinverse}{\dagger} \newcommand{\topologie}{\mathfrak{T}} \newcommand{\ferme}{\mathfrak{F}} \newcommand{\img}{\mathbf{i}} \newcommand{\binome}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\canonique}{\mathfrak{c}} \newcommand{\tenseuridentite}{\boldsymbol{\mathcal{I}}} \newcommand{\permutation}{\boldsymbol{\epsilon}} \newcommand{\matriceZero}{\mathfrak{0}} \newcommand{\matriceUn}{\mathfrak{1}} \newcommand{\christoffel}[2]{ \left\{ \begin{array}{c} #1 \\ #2 \\ \end{array} \right\} } \newcommand{\lagrangien}{\mathfrak{L}} \newcommand{\sousens}{\mathfrak{P}} \newcommand{\partition}{\mathrm{Partition}} \newcommand{\tribu}{\mathrm{Tribu}} \newcommand{\topologies}{\mathrm{Topo}} \newcommand{\setB}{\mathbb{B}} \newcommand{\setN}{\mathbb{N}} \newcommand{\setZ}{\mathbb{Z}} \newcommand{\setQ}{\mathbb{Q}} \newcommand{\setR}{\mathbb{R}} \newcommand{\setC}{\mathbb{C}} \newcommand{\corps}{\mathbb{K}} \newcommand{\boule}{\mathfrak{B}} \newcommand{\intervalleouvert}[2]{\relax \ ] #1 , #2 [ \ \relax} \newcommand{\intervallesemiouvertgauche}[2]{\relax \ ] #1 , #2 ]} \newcommand{\intervallesemiouvertdroite}[2]{[ #1 , #2 [ \ \relax} \newcommand{\fonction}{\mathbb{F}} \newcommand{\bijection}{\mathrm{Bij}} \newcommand{\polynome}{\mathrm{Poly}} \newcommand{\lineaire}{\mathrm{Lin}} \newcommand{\continue}{\mathrm{Cont}} \newcommand{\homeomorphisme}{\mathrm{Hom}} \newcommand{\etagee}{\mathrm{Etagee}} \newcommand{\lebesgue}{\mathrm{Leb}} \newcommand{\lipschitz}{\mathrm{Lip}} \newcommand{\suitek}{\mathrm{Suite}} \newcommand{\matrice}{\mathbb{M}} \newcommand{\krylov}{\mathrm{Krylov}} \newcommand{\tenseur}{\mathbb{T}} \newcommand{\essentiel}{\mathfrak{E}} \newcommand{\relation}{\mathrm{Rel}} \newcommand{\strictinferieur}{\ < \ } \newcommand{\strictsuperieur}{\ > \ } \newcommand{\ensinferieur}{\eqslantless} \newcommand{\enssuperieur}{\eqslantgtr} \newcommand{\esssuperieur}{\gtrsim} \newcommand{\essinferieur}{\lesssim} \newcommand{\essegal}{\eqsim} \newcommand{\union}{\ \cup \ } \newcommand{\intersection}{\ \cap \ } \newcommand{\opera}{\divideontimes} \newcommand{\autreaddition}{\boxplus} \newcommand{\autremultiplication}{\circledast} \newcommand{\commutateur}[2]{\left[ #1 , #2 \right]} \newcommand{\convolution}{\circledcirc} \newcommand{\correlation}{\ \natural \ } \newcommand{\diventiere}{\div} \newcommand{\modulo}{\bmod} \newcommand{\pgcd}{pgcd} \newcommand{\ppcm}{ppcm} \newcommand{\produitscalaire}[2]{\left\langle #1 \left|\right\relax #2 \right\rangle} \newcommand{\scalaire}[2]{\left\langle #1 \| #2 \right\rangle} \newcommand{\braket}[3]{\left\langle #1 \right| #2 \left| #3 \right\rangle} \newcommand{\orthogonal}{\bot} \newcommand{\forme}[2]{\left\langle #1 , #2 \right\rangle} \newcommand{\biforme}[3]{\left\langle #1 , #2 , #3 \right\rangle} \newcommand{\contraction}[3]{\left\langle #1 \odot #3 \right\rangle_{#2}} \newcommand{\dblecont}[5]{\left\langle #1 \right| #3 \left| #5 \right\rangle_{#2,#4}} \newcommand{\major}{major} \newcommand{\minor}{minor} \newcommand{\maxim}{maxim} \newcommand{\minim}{minim} \newcommand{\argument}{arg} \newcommand{\argmin}{arg\ min} \newcommand{\argmax}{arg\ max} \newcommand{\supessentiel}{ess\ sup} \newcommand{\infessentiel}{ess\ inf} \newcommand{\dual}{\star} \newcommand{\distance}{\mathfrak{dist}} \newcommand{\norme}[1]{\left\| #1 \right\|} \newcommand{\normetrois}[1]{\left|\left\| #1 \right\|\right|} \newcommand{\adh}{adh} \newcommand{\interieur}{int} \newcommand{\frontiere}{\partial} \newcommand{\image}{im} \newcommand{\domaine}{dom} \newcommand{\noyau}{ker} \newcommand{\support}{supp} \newcommand{\signe}{sign} \newcommand{\abs}[1]{\left| #1 \right|} \newcommand{\unsur}[1]{\frac{1}{#1}} \newcommand{\arrondisup}[1]{\lceil #1 \rceil} \newcommand{\arrondiinf}[1]{\lfloor #1 \rfloor} \newcommand{\conjugue}{conj} \newcommand{\conjaccent}[1]{\overline{#1}} \newcommand{\division}{division} \newcommand{\difference}{\boldsymbol{\Delta}} \newcommand{\differentielle}[2]{\mathfrak{D}^{#1}_{#2}} \newcommand{\OD}[2]{\frac{d #1}{d #2}} \newcommand{\OOD}[2]{\frac{d^2 #1}{d #2^2}} \newcommand{\NOD}[3]{\frac{d^{#3} #1}{d #2^{#3}}} \newcommand{\deriveepartielle}[2]{\frac{\partial #1}{\partial #2}} \newcommand{\dblederiveepartielle}[2]{\frac{\partial^2 #1}{\partial #2 \partial #2}} \newcommand{\dfdxdy}[3]{\frac{\partial^2 #1}{\partial #2 \partial #3}} \newcommand{\dfdxdx}[2]{\frac{\partial^2 #1}{\partial #2^2}} \newcommand{\gradient}{\mathbf{\nabla}} \newcommand{\combilin}[1]{\mathrm{span}\{ #1 \}} \newcommand{\trace}{tr} \newcommand{\proba}{\mathbb{P}} \newcommand{\probaof}[1]{\mathbb{P}\left[#1\right]} \newcommand{\esperof}[1]{\mathbb{E}\left[#1\right]} \newcommand{\cov}[2]{\mathrm{cov} \left( #1 , #2 \right) } \newcommand{\var}[1]{\mathrm{var} \left( #1 \right) } \newcommand{\rand}{\mathrm{rand}} \newcommand{\variation}[1]{\left\langle #1 \right\rangle} \newcommand{\composante}{comp} \newcommand{\bloc}{bloc} \newcommand{\ligne}{ligne} \newcommand{\colonne}{colonne} \newcommand{\diagonale}{diag} \newcommand{\matelementaire}{\mathrm{Elem}} \newcommand{\matpermutation}{permut} \newcommand{\matunitaire}{\mathrm{Unitaire}} \newcommand{\gaussjordan}{\mathrm{GaussJordan}} \newcommand{\householder}{\mathrm{Householder}} \newcommand{\rang}{rang} \newcommand{\schur}{\mathrm{Schur}} \newcommand{\singuliere}{\mathrm{DVS}} \newcommand{\convexe}{\mathrm{Convexe}} \newcommand{\petito}[1]{o\left(#1\right)} \newcommand{\grando}[1]{O\left(#1\right)} \)

1. Différentielles

1.1. Dépendances

  • Chapitre \ref{chap:lineaire} : Les fonctions linéaires

1.2. Définition

Soit les espaces vectoriels \(\Omega, F\) sur \(\corps\).

L'idée à la base de la notion de différentielles est de linéariser localement une fonction \(f : \Omega \mapsto F\) autour d'un point \(a \in \Omega\). Pour tout \(h \in \Omega\) suffisamment petit, on veut donc avoir :

\[f(a + h) - f(a) \approx \differentielle{f}{a}(h)\]

où \(\differentielle{f}{a}\) est une application linéaire de \(\Omega\) vers \(F\). On suppose que la norme existe de \(\differentielle{f}{a}\) existe, de sorte que nous puissions écrire :

\[\norme{ \differentielle{f}{a}(h) } \le \norme{ \differentielle{f}{a} } \cdot \norme{h}\]

On voit que la norme de la différentielle tend plus vite que \(h\) vers \(0\). On demande que la norme de l'erreur donnée par :

\[E(h) = f(a + h) - f(a) - \differentielle{f}{a}(h)\]

devienne négligeable par rapport à :

\[\norme{ \differentielle{f}{a} } \cdot \norme{h}\]

lorsque \(h\) tend vers \(0\). Comme la norme de la différentielle ne varie pas, il nous suffit d'imposer que :

\[\lim_{ \substack{ h \to 0 \\ h \ne 0 } } \frac{ \norme{E(h)} }{ \norme{h} } = 0\]

Si ces conditions sont vérifiées, on dit que \(f\) est différentiable en \(a\) et que \(\differentielle{f}{a}\) est la différentielle de \(f\) en \(a\). On a alors :

\[f(a + h) - f(a) = \differentielle{f}{a}(h) + E(h)\]

1.2.1. Notation

Tout au long de ce chapitre, nous notons :

\( \lim_{h \to 0} = \lim_{ \substack{ h \to 0 \\ h \ne 0 } } \\ \lim_{b \to a} = \lim_{ \substack{ b \to a \\ b \ne a } } \)

1.3. Continuité

Si \(a\) est différentiable en \(a\), elle est forcément continue en \(a\). En effet, la différentielle est bien continue :

\[\norme{ \differentielle{f}{a}(0) } \le \norme{ \differentielle{f}{a} } \cdot \norme{0} = 0\]

Par définition, pour tout \(\epsilon \strictsuperieur 0\), on peut trouver \(\delta \strictsuperieur 0\) tel que :

\[\frac{ \norme{E(h)} }{ \norme{h} } \le \epsilon\]

c'est-à-dire :

\[\norme{E(h)} \le \epsilon \cdot \norme{h}\]

On en déduit que l'erreur est continue en \(h = 0\). On a donc :

\[\lim_{h \to 0} \norme{E(h)} = 0\]

L'expression de \(f(a + h)\) peut donc s'écrire :

\[\lim_{h \to 0} f(a + h) = f(a) + \lim_{h \to 0} \left[ \differentielle{f}{a}(h) + E(h) \right] = f(a)\]

1.4. Dérivées partielles

Nous allons à présent voir comment obtenir les composantes de la différentielle dans le cas d'espaces de dimensions finies. Nous disposons donc d'une base \((\varpi_1,...,\varpi_n)\) de \(\Omega\) et d'une base \((\phi_1,...,\phi_m)\) de \(F\). Nous introduisons les composantes \(f_1,...,f_m : \Omega \mapsto F\) de \(f\) telles que :

\[f(x) = \sum_{i = 1}^m f_i(x) \cdot \phi_i\]

pour tout \(x \in \Omega\). Nous procédons de même pour l'erreur :

\[E(h) = \sum_{i = 1}^m E_i(h) \cdot \phi_i\]

pour tout \(h \in \Omega\). Nous allons également utiliser les coordonnées \(h_1,...,h_n \in \corps\) de \(h\) :

\[h = \sum_{i = 1}^n h_i \cdot \varpi_i\]

Par linéarité :

\[f(a + h) - f(a) = \sum_{j = 1}^n \differentielle{f}{a}(\varpi_j) \cdot h_j + E(h)\]

Mais on peut trouver des \(\Delta_{ij} \in \corps\) tels que :

\[\differentielle{f}{a}(\varpi_j) = \sum_{i = 1}^m \Delta_{ij} \cdot \phi_i\]

Injectons les expressions des composantes dans \(F\). On obtient :

\[\sum_i \phi_i \cdot \left[ f_i(a + h) - f_i(a) - E_i(h) - \sum_{j = 1}^n \Delta_{ij} \cdot h_j \right] = 0\]

Par indépendance linéaire des \(\phi_i\), on a alors :

\[f_i(a + h) - f_i(a) = \sum_{j = 1}^n \Delta_{ij} \cdot h_j + E_i(h)\]

pour tout \(i \in \setZ(1,m)\). On nomme \(\Delta_{ij}\) la dérivée partielle de \(f_i\) par rapport à \(\varpi_j\). On la note :

\[\partial_j f_i(a) = \deriveepartielle{f_i}{x_j}(a) = \Delta_{ij}\]

1.4.1. Attention

Ne pas confondre la frontière \(\frontiere A\) d'un ensemble \(A\) avec la dérivée \(\partial f\) d'une fonction \(f\).

1.5. Dérivées et limites

Soit \(\lambda \in \corps\). Si l'on choisit \(h = \lambda \ \varpi_j\), on a \(h_k = \lambda \ \indicatrice_{jk}\) et :

\begin{align} f_i(a + \lambda \ \varpi_j) - f_i(a) &= \sum_{k = 1}^n \partial_k f_i(a) \cdot \lambda \cdot \indicatrice_{jk} + E_i(h) \\ &= \lambda \cdot \partial_j f_i(a) + E_i(h) \end{align}

En divisant l'équation ci-dessus par \(\lambda\) puis en faisant tendre \(\lambda\) vers 0, on obtient :

\[\partial_j f_i(a) = \lim_{\lambda \to 0} \left[ \frac{f_i(a + \lambda \ \varpi_j) - f_i(a)}{\lambda} - \frac{E_i(h)}{\lambda} \right]\]

Comme l'erreur doit converger plus vite vers zéro que la norme \(\norme{h} = \lambda\), la limite du second terme du membre de droite s'annule et on a :

\[\partial_j f_i(a) = \lim_{\lambda \to 0} \frac{f_i(a + \lambda \ \varpi_j) - f_i(a)}{\lambda}\]

Ce qui montre que la dérivée partielle \(\partial_j f_i\) est la variation de \(f_i\) obtenue lorsqu'on fait varier la \(j^{ème}\) variable (celle correspondant à \(\varpi_j\)).

1.6. Représentation matricielle

On associe à la différentielle \(\differentielle{f}{a}\) la matrice Jacobienne \(\partial f(a)\) de \(f\) en \(a\) définie par :

\[\partial f(a) = \Big( \partial_j f_i(a) \Big)_{i,j}\]

On peut alors écrire la linéarisation de \(f\) sous forme de produit matriciel :

\[f(a + h) - f(a) = \partial f(a) \cdot h + E(h)\]

où \(f,h,E\) sont les vecteurs colonnes associés aux grandeurs du même nom.

1.6.1. Vecteurs associés

On dispose de \(n\) vecteurs représentant chacun la dérivée des composantes de \(f\) par rapport à la \(j^{ème}\) variable :

\[\partial_j f(a) = \Big( \partial_j f_i(a) \Big)_i\]

et de \(m\) vecteurs représentant chacun les dérivées de la \(i^{ème}\) composante de \(f\) :

\[\partial f_i(a) = \Big( \partial_j f_i(a) \Big)_j\]

1.6.2. Notation

Dans le cas où la variable porte un nom par défaut, comme par exemple :

\[f : x \mapsto f(x)\]

on note aussi :

\[\deriveepartielle{f}{x}(a) = \partial f(a)\]

1.6.2.1. Plusieurs sous-variables

Lorsque plusieurs sous variables portent un nom par défaut, comme par exemple :

\[f : (x,y) \mapsto f(x,y)\]

on note aussi :

\[\deriveepartielle{f}{x}(a) = \partial_x f(a)\]

pour la Jacobienne par rapport aux variables \(x = (x_1,...,x_s)\) et :

\[\deriveepartielle{f}{y}(a) = \partial_y f(a)\]

pour la Jacobienne par rapport aux variables \(y = (y_1,...,y_t)\)

1.6.2.2. Symbolique

On a aussi les notations symboliques :

\( df = \deriveepartielle{f}{x^T} \ dx \\ df_i = \sum_j \deriveepartielle{f_i}{x_j} \ dx_j \)

où \(df\) représente une petite variation de \(f\) suite à une petite variation \(dx\) de \(x\).

On utilise parfois la transposée de la Jacobienne :

\[\Big[ \partial f(x) \Big]^T = \deriveepartielle{f^T}{x} = \left( \deriveepartielle{f}{x^T} \right)^T\]

1.6.3. Appellation

Pour des fonctions du type \(f : \setR^n \mapsto \setR\), la Jacobienne se réduit à un vecteur matriciel. On dit alors que \(\partial f\) est le gradient de \(f\).

1.7. Dérivées ordinaires

Dans le cas où \(m = n = 1\), il n'y a qu'une dérivée partielle, \(\partial_1 f_1\), que l'on appelle alors dérivée ordinaire. On a les équivalences :

\[\lambda \ \phi_1 \quad \Leftrightarrow \quad \lambda \quad \Leftrightarrow \quad \lambda \ \epsilon_1\]

On peut considérer \(\Omega\) et \(F\) comme équivalents à \(\corps\) et se restreindre à des fonctions \(f : \corps \mapsto \corps\) sans perte de généralité. La dérivée ordinaire est alors simplement :

\[\partial f(a) = \lim_{\lambda \to 0} \frac{f(a + \lambda) - f(a)}{\lambda}\]

1.7.1. Notation

On note aussi :

\[\OD{f}{x}(a) = \lim_{\lambda \to 0} \frac{f(a + \lambda) - f(a)}{\lambda}\]

On a alors :

\[f(a + h) = f(a) + \OD{f}{x}(a) \cdot h + E(h)\]

et :

\[\lim_{\lambda \to 0} \frac{E(\lambda)}{\lambda} = \lim_{\lambda \to 0} \left[ \frac{f(a + \lambda) - f(a)}{\lambda} - \OD{f}{x}(a) \right] = 0\]

1.7.2. Définition équivalente

Si on pose \(b = a + \lambda\), on voit que \(\lambda = b - a\) et que la convergence \(h \to 0\) est équivalente à \(b \to a\). On a donc :

\[\OD{f}{x}(a) = \lim_{b \to a} \frac{f(b) - f(a)}{b - a}\]

1.8. L'application dérivée

Si \(f\) est différentiable en tout vecteur \(a\) de \(A \subseteq \Omega\), on dit que \(f\) est différentiable sur \(A\). On peut alors définir une application dérivée \(\partial f : A \mapsto \matrice(\corps,m,n)\) définie par :

\[\partial f : a \mapsto \partial f(a)\]

pour tout \(a \in A\). Si cette nouvelle application \(\partial f\) est également continue, on dit que \(f\) est continûment différentiable. On note \(\continue^1(A,F)\) l'ensemble des fonctions continûment différentiables de \(A\) vers \(F\).

1.9. Hessienne

Soit \(f : \Omega \mapsto \corps\) avec \(\Omega\) de dimension finie \(n\). Supposons que \(f\) est différentiable sur \(A \subseteq \Omega\). La dimension de \(\corps\) sur \(\corps\) étant \(1\), la Jacobienne \(\partial f(a)\) se réduit à un vecteur matriciel de composantes \(\partial_i f\). Si la dérivée \(\partial f : A \mapsto \corps^n\) est elle-même différentiable, on nomme l'application définie par :

\[\partial^2 f = \partial \left( \partial f \right)\]

la dérivée seconde de \(f\). Il s'agit d'une fonction qui transforme un élément de \(A\) en un « vecteur matriciel de vecteurs matriciels » appartenant à \(\matrice(\corps^n,n,1)\). On peut assimiler cet objet à une matrice équivalente de taille \((n,n)\) dont les composantes sont des éléments de \(\corps\). En définitive, nous avons \(\partial^2 f(a) \in \matrice(\corps,n,n)\) pour tout \(a \in A\). Cette matrice est appellée hessienne de \(f\) en \(a\). Ses composantes sont données par :

\[\partial_{ij}^2 f(a) = \partial_i \left( \partial_j f \right)(a)\]

1.9.1. Notation

On note aussi :

\[\dfdxdy{f}{x_i}{x_j}(a) = \partial_{ij}^2 f(a)\]

Lorsque \(i = j\), on note :

\[\dfdxdx{f}{x_i} = \dfdxdy{f}{x_i}{x_i} = \partial_{ii}^2 f(a)\]

En termes matriciels, cela donne :

\[\dblederiveepartielle{f}{x}(a) = \partial^2 f(a)\]

1.9.2. Dérivée ordinaire

Dans le cas où la dimension de \(\Omega\) est un \(1\), on peut l'assimiler à \(\corps\), on a alors une fonction \(f : \corps \mapsto \corps\) possédant une seule dérivée seconde, que l'on note :

\[\OOD{f}{t}(a) = \partial^2 f(a)\]

1.9.3. Continuité

On note \(\continue^2(A,\corps)\) l'ensemble des fonctions dont la dérivée seconde est continue sur \(A\).

1.10. Dérivée d'ordre \(k\)

Soit \(f : \corps \mapsto \corps\) et \(k \in \setN\). Pour autant que la fonction \(f\) soit suffisamment dérivable, on définit par récurrence la fonction \(\partial^k f : \corps \mapsto \corps\) :

\begin{align} \partial^0 f &= f \\ \partial^k f &= \partial \big( \partial^{k-1} f \big) \end{align}

La dérivée d'ordre \(k\) de \(f\) est donc la fonction obtenue lorsqu'on applique un nombre \(k\) de fois l'opérateur de dérivation \(\partial\) à la fonction \(f\) :

\[\partial^k f = (\partial \circ ... \circ \partial)(f)\]

1.10.1. Ensembles

On note \(\continue^k(A,\corps)\) l'ensemble des fonctions \(f : A \mapsto \corps\) dont la dérivée d'ordre \(k\) :

\[\partial^k f : A \mapsto \corps\]

existe et est continue sur \(A\).

1.10.1.1. Infini

Si la dérivée \(\partial^k f\) existe pour tout \(k \in \setN\), on dit que \(f\) est indéfiniment dérivable. On note \(\continue^\infty(A,\corps)\) l'ensemble des fonctions indéfiniment dérivables.

1.10.1.2. Ordre \(0\)

On voit que \(\continue^0 = \continue\).

1.10.2. Homéomorphisme

On note \(\homeomorphisme^k(A,\corps)\) l'ensemble des bijections \(f\) de \(\continue^k\) telles que la fonction \(f^{-1}\) soit aussi dans \(\continue^k\).

1.10.3. Notations

Pour \(\alpha = (\alpha_1, \alpha_2, ..., \alpha_n)\), on écrit également :

\( \partial^\alpha f = \partial^{\alpha_1 ... \alpha_n} f = \partial_1^{\alpha_1} ... \partial_n^{\alpha_n} f \)

1.11. Fonctions à intégrale continue

Soit une fonction \(u : A \mapsto B\). Si la fonction \(v\) définie par :

\[v(x) = \int_a^x u(x) d\mu(x)\]

est continue, on dit que \(u\) est à intégrale continue. On note \(\continue_{\mu}^{-1}(A,B)\) l'ensemble des fontions à intégrale continue.

1.12. Différentiabilité uniforme

On dit qu'une fonction \(f\) est uniformément différentiable sur \(A\) si pour tout \(\epsilon \strictsuperieur 0\), on peut trouver un \(\delta \strictsuperieur 0\) tel que :

\[\abs{f(s) - f(t) - \partial f(t) \cdot (s - t)} \le \epsilon \cdot \abs{s - t}\]

quel que soit \(s,t \in A\) vérifiant \(\abs{s - t} \le \delta\).

2. Dérivées

2.1. Dépendances

  • Chapitre \ref{chap:differ} : Les différentielles

2.2. Fonction constante

Si \(f\) est constante, on peut trouver \(c \in F\) tel que :

\[f(x) = c\]

pour tout \(x \in \Omega\). On a alors :

\[\partial_j f(a) = \lim_{\lambda \to 0} \frac{c - c}{\lambda} = 0\]

Par conséquent :

\[\partial f(a) = 0\]

2.3. Identité

Considérons le cas particulier où \(m = n\) et où \(f = \identite\). Lorsque \(i = j\), nous avons :

\[\partial_i f_i(a) = \lim_{\lambda \to 0} \frac{x_i + \lambda - x_i}{\lambda} = \lim_{\lambda \to 0} \frac{\lambda}{\lambda} = 1\]

Lorsque \(i \ne j\), on a par contre :

\[\partial_j f_i(a) = \lim_{\lambda \to 0} \frac{x_i - x_i}{\lambda} = \lim_{\lambda \to 0} \frac{0}{\lambda} = 0\]

On en conclut que :

\[\partial f(a) = \partial \identite(a) = ( \indicatrice_{ij} )_{i,j} = I\]

La Jacobienne de la fonction identité est la matrice identité.

2.4. Composition de fonctions

Nous allons nous intéresser à présent au moyen d'obtenir la dérivée d'une composée de fonctions \(f : E \mapsto F\) et \(g : F \mapsto G\). Supposons que \(f\) soit différentiable en \(a\) et que \(g\) soit différentiable en \(b = f(a)\). On a alors :

\( df(a) = f(a + da) - f(a) = \partial f(a) \cdot da + E_f(da) \\ dg(b) = g(b + db) - g(b) = \partial g(b) \cdot db + E_g(db) \)

Choisissons en particulier \(db = f(a + da) - f(a)\). On a alors :

\begin{align} dg(b) &= g(f(a + da)) - g(f(a)) \\ &= (g \circ f)(a + da) - (g \circ f)(a) \\ &= d(g \circ f)(a) \end{align}

Mais d'un autre coté :

\begin{align} dg(b) &= \partial g(f(a)) \cdot df(a) + E_g(df(a)) \\ &= \partial g(f(a)) \cdot \left( \partial f(a) \cdot da + E_f(da) \right) + E_g(df(a)) \\ &= \partial g(f(a)) \cdot \partial f(a) \cdot da + E_f(da) \cdot da + E_g(df(a)) \\ \end{align}

Il est aisé de vérifier que :

\[\lim_{h \to 0} \frac{\partial g(f(a)) \cdot E_f(da) + E_g(df(a))}{\norme{h}} = 0\]

puisque \(\partial g(f(a))\) ne dépend pas de \(da\). On a donc montré que \(g \circ f\) est différentiable en \(a\) et que :

\[\partial (g \circ f)(a) = \partial g(f(a)) \cdot \partial f(a) = (\partial g \circ f)(a) \cdot \partial f(a)\]

La dérivée d'une composée de fonctions est donc tout simplement le produit des Jacobiennes.

2.4.1. Notation

Soit le schéma fonctionnel :

\[(x_1,...,x_n) \mapsto (y_1,...,y_m) \mapsto (z_1,...,z_p)\]

On note aussi :

\( \deriveepartielle{z_i}{x_j} = \sum_k \deriveepartielle{z_i}{y_k} \cdot \deriveepartielle{y_k}{x_j} \\ \\ \deriveepartielle{z}{x^T} = \deriveepartielle{z}{y^T} \cdot \deriveepartielle{y}{x^T} \)

Pour \(z : t \mapsto (x_1(t),x_2(t),...,x_n(t))\), on a également :

\[\OD{z}{t} = \sum_k \deriveepartielle{z}{x_k} \cdot \OD{x_k}{t}\]

Si \(x,y,z \in \corps\), on a encore :

\[\OD{z}{x} = \OD{z}{y} \cdot \OD{y}{x}\]

2.5. Inverse fonctionnel

En considérant le cas particulier \(g = f^{-1}\), on a \(g \circ f = \identite\). Choisissons un vecteur \(a\) où \(f\) est différentiable et posons \(b = f(a)\). On a :

\[\partial f^{-1}(b) \cdot \partial f(a) = \partial \identite(a) = I\]

La jacobienne de l'inverse d'une fonction est donc l'inverse matriciel de sa jacobienne :

\[\partial f^{-1}(b) = \left[ \partial f(a) \right]^{-1}\]

2.5.1. Notation

On note aussi :

\[\deriveepartielle{y}{x} = \left(\deriveepartielle{x}{y}\right)^{-1}\]

ou, pour des fonctions \(y : \corps \mapsto \corps\) :

\[\OD{y}{x} = \left(\OD{x}{y}\right)^{-1}\]

2.6. Addition

Si \(f,g\) sont différentiables en \(a\), on a :

\( f(a + h) - f(a) = \partial f(a) \cdot h + E_f(h) \\ g(a + h) - g(a) = \partial g(a) \cdot h + E_g(h) \)

En additionnant les équations ci-dessus, on obtient :

\( \left[ f(a + h) + g(a + h) \right] - \left[ f(a) + g(a) \right] = [ \partial f(a) + \partial g(a) ] \cdot h \\ \qquad \qquad + E_f(h) + E_g(h) \)

Il est clair que :

\[\lim_{h \to 0} \frac{\norme{E_f(h) + E_g(h)}}{\norme{h}} = 0\]

La fonction \(f + g\) est donc différentiable en \(a\) et :

\[\partial (f + g)(a) = \partial f(a) + \partial g(a)\]

On peut montrer, cette fois en soustrayant les deux équations que :

\[\partial (f - g)(a) = \partial f(a) - \partial g(a)\]

2.7. Produit scalaire

Considérons deux fonctions \(f,g\) différentiables en \(a\) :

\( f(a + h) = f(a) + \partial f(a) \cdot h + E_f(h) \\ g(a + h) = g(a) + \partial g(a) \cdot h + E_g(h) \\ \)

Leur produit scalaire s'écrit :

\( \scalaire{f(a + h)}{g(a + h)} = \scalaire{f(a)}{g(a)} + \scalaire{f(a)}{\partial g(a) \cdot h} + \scalaire{\partial f(a) \cdot h}{g(a)} \\ \qquad \qquad \qquad + E_{f \cdot g}(h) \)

où :

\( E_{f \cdot g}(h) = \scalaire{E_f(h)}{E_g(h)} + \scalaire{E_f(h)}{g(a)} + \scalaire{E_f(h)}{\partial g(a)} + \\ \qquad \qquad \scalaire{f(a)}{E_g(h)} + \scalaire{\partial f(a)}{E_g(h)} \)

On a donc :

\[\lim_{h \to 0} \frac{\norme{E_{f \cdot g}(h)}}{\norme{h}} = 0\]

ce qui nous montre que la différentielle du produit scalaire s'écrit :

\[\differentielle{ \scalaire{f}{g} }{a}(h) = \scalaire{f(a)}{\partial g(a) \cdot h} + \scalaire{\partial f(a) \cdot h}{g(a)}\]

En terme de composantes, on a :

\[\differentielle{ \scalaire{f}{g} }{a}(h) = \sum_{j = 1}^n \varpi_j \cdot h_j \cdot \sum_{i = 1}^m \left[ f_i(a) \cdot \partial_j g_i(a) + \partial_j f_i(a) \cdot g_i(a) \right]\]

La représentation matricielle s'écrit donc :

\[\partial \scalaire{f}{g}(a) = \left[ \partial g(a) \right]^T \cdot f(a) + \left[ \partial f(a) \right]^T \cdot g(a)\]

2.7.1. Dérivée ordinaire

Dans le cas où \(m = n = 1\), cette expression se simplifie en :

\[\OD{}{x}(f \cdot g)(a) = f(a) \cdot \OD{g}{x}(a) + \OD{f}{x}(a) \cdot g(a)\]

2.7.2. Constante

Si une des deux fonctions est constante, soit \(g(x) = c\) pour tout \(x\), on a :

\[\partial g(x) = 0\]

et :

\[\OD{}{x}(f \cdot c)(a) = f(a) \cdot 0 + \OD{f}{x}(a) \cdot c = c \cdot \OD{f}{x}(a)\]

2.7.3. Notation

On note aussi :

\[d(f \cdot g) = df \cdot g + f \cdot dg\]

2.8. Inverse multiplicatif

Soit les fonctions \(f,g : \corps \mapsto \corps\) reliées par l'équation :

\[f \cdot g = 1\]

En dérivant, on obtient :

\[\OD{f}{x} \cdot g + f \cdot \OD{g}{x} = \OD{1}{x} = 0\]

Donc, si \(g \ne 0\), on a :

\[\OD{f}{x} = - \frac{f}{g} \cdot \OD{g}{x}\]

Mais comme \(f(x) = 1/g(x)\), cela nous donne :

\[\OD{}{x}\left(\unsur{g}\right)(x) = - \unsur{g(x)^2} \cdot \OD{g}{x}(x)\]

2.9. Fraction

En appliquant les résultats précédents, on obtient :

\[\OD{}{x}\left( \frac{f}{g} \right)(x) = \OD{}{x}\left( f \cdot \unsur{g} \right)(x) = \OD{f}{x}(x) \cdot g(x) - \frac{f(x)}{g(x)^2} \cdot \OD{g}{x}(x)\]

et finalement :

\[\OD{}{x}\left( \frac{f}{g} \right)(x) = \frac{\OD{f}{x}(x) \cdot g(x) - f(x) \cdot \OD{g}{x}}{g(x)^2}\]

2.10. Dérivée d'une limite

Soit la suite de fonctions :

\[F = \{ f_n \in \setR^\setR : n \in \setN \}\]

convergeant en tout point \(x \in \setR\) vers une fonction \(f : \setR \mapsto \setR\) :

\[\lim_{n \to \infty} f_n(x) = f(x)\]

Si la fonction \(f\) est différentiable en \(a \in \setR\), on a :

\begin{align} \partial f(a) &= \lim_{h \to 0} \unsur{h} \big[f(a + h) - f(a)\big] \\ &= \lim_{h \to 0} \unsur{h} \crochets{\lim_{n \to \infty} f_n(a + h) - \lim_{n \to \infty} f_n(a)} \\ &= \lim_{h \to 0} \lim_{n \to \infty} \frac{f_n(a + h) - f_n(a)}{h} \end{align}

3. Différentielles et polynômes

\label{chap:diffpoly}

3.1. Dépendances

  • Chapitre \ref{chap:differ} : Les différentielles

3.2. Polynômes

Soit \(n \in \setN\). Nous allons analyser la différentiabilité du monôme \(\mu : \setR \mapsto \setR\) défini par :

\[\mu : t \mapsto t^n\]

pour tout \(t \in \setR\). La formule de factorisation nous donne :

\[s^n - t^n = (s - t) \sum_{i = 0}^{n - 1} s^i \cdot t^{n - 1 - i}\]

On a donc :

\[\frac{s^n - t^n}{s - t} = \sum_{i = 0}^{n - 1} s^i \cdot t^{n - 1 - i}\]

Passant à la limite \(s \to t\), on obtient :

\[\lim_{ s \to t} \frac{s^n - t^n}{s - t} = \sum_{i = 0}^{n - 1} t^i \cdot t^{n - 1 - i} = \sum_{i = 0}^{n - 1} t^{n - 1} = n \cdot t^{n - 1}\]

On en conclut que la dérivée existe sur \(\setR\) et que :

\[\OD{}{t} (t^n) = \lim_{ s \to t} \frac{s^n - t^n}{s - t} = n \cdot t^{n - 1}\]

La dérivée d'une combinaison linéaire étant identique à la combinaison linéaire des dérivées (voir dérivée d'une somme et la multiplication par une constante), on en conclut que tous les polynômes sont dérivables sur \(\setR\).

3.2.1. Uniformité

Choisissons \(\alpha,\beta \in \setR\) avec \(\alpha \le \beta\) et analysons la différentiabilité sur l'intervalle \([\alpha,\beta]\). Posons :

\[e(s,t) = \frac{s^n - t^n}{s - t} - \OD{}{t}(t^n)\]

Si \(n = 1\), on a :

\[e(s,t) = \frac{s - t}{s - t} - 1 = 0\]

Le monôme de degré \(1\) est donc uniformément différentiable. Considérons à présent le cas où \(n \ge 2\). Le passage à la limite nous montre que :

\[\OD{}{t} (t^n) = \sum_{i = 0}^{n - 1} t^i \cdot t^{n - 1 - i}\]

En utilisant les propriétés des sommes, on obtient :

\begin{align} e(s,t) &= \sum_{i = 0}^{n - 1} s^i \ t^{n - 1 - i} - \sum_{i = 0}^{n - 1} t^i \ t^{n - 1 - i} \\ &= \sum_{i = 0}^{n - 1} (s^i - t^i) \ t^{n - 1 - i} \end{align}

En factorisant tous les \(s^i - t^i\), on a alors :

\[e(s,t) = \sum_{i = 0}^{n - 1} t^{n - 1 - i} \ (s - t) \ \sum_{k = 0}^{i - 1} s^k \ t^{i - 1 - k}\]

et comme \(s - t\) ne dépend pas de \(i\) :

\[e(s,t) = (s - t) \sum_{i = 0}^{n - 1} t^{n - 1 - i} \ \sum_{k = 0}^{i - 1} s^k \ t^{i - 1 - k}\]

Si on pose \(M = \max \{ \abs{\alpha} , \abs{\beta} \}\), on a clairement \(\abs{s}, \abs{t} \le M\). On peut alors trouver la borne supérieure :

\begin{align} \abs{e(s,t)} &\le \abs{s - t} \sum_{i = 0}^{n - 1} M^{n - 1 - i} \ \sum_{k = 0}^{i - 1} M^{i - 1} \\ &\le \abs{s - t} \sum_{i = 0}^{n - 1} M^{n - 1 - i} \ i \ M^{i - 1} \\ &\le \abs{s - t} \ M^{n - 2} \ \sum_{i = 0}^{n - 1} i \\ &\le \unsur{2} \ \abs{s - t} \ M^{n - 2} \ (n - 1) \ n \end{align}

Fixons à présent \(\epsilon \strictsuperieur 0\). Il suffit de prendre :

\[\abs{s - t} \le \delta \le \frac{ 2 \epsilon}{ M^{n - 2} \cdot (n - 1) \cdot n }\]

pour avoir :

\[\abs{e(s,t)} \le \frac{ M^{n - 2} \cdot (n - 1) \cdot n \cdot \delta }{2} \le \epsilon\]

Comme on a :

\[\mu(s) - \mu(t) - \partial \mu(t) = s^n - t^n - n \cdot t^{n - 1} = e(s,t) \cdot (s - t)\]

on dispose de la borne supérieure :

\[\abs{\mu(s) - \mu(t) - \partial \mu(t)} \le \abs{e(s,t)} \cdot \abs{s - t} \le \epsilon \cdot \abs{s - t}\]

Comme le choix de \(\delta\) ne dépend ni de \(s\) ni de \(t\), le monôme \(\mu\) est uniformément différentiable sur \([\alpha,\beta]\).

On généralise aisément à un polynôme quelconque :

\[p(x) = \sum_{i = 0}^n a_i \cdot x^i\]

en constatant que :

\[\abs{p(s) - p(t) - \partial p(t) \cdot (s - t)} \le \abs{s - t} \sum_{i = 0}^n \abs{a_i} \cdot \abs{e_i(s,t)}\]

où \(e_i\) est l'erreur obtenue avec le monôme de degré \(i\). Mais comme on peut trouver des \(\delta_k\) tels que :

\[\abs{e_i(s,t)} \le \frac{\epsilon}{\sum_j \abs{a_j}}\]

il suffit de choisir \(\delta = \min \{ \delta_0, \delta_1, ..., \delta_n \}\) pour avoir :

\[\abs{p(s) - p(t) - \partial p(t) \cdot (s - t)} \le \abs{s - t} \cdot \epsilon \cdot \frac{ \sum_i \abs{a_i} }{ \sum_j \abs{a_j} } = \abs{s - t} \cdot \epsilon\]

Tout polynôme est uniformément différentiable sur des intervalles de la forme \([\alpha,\beta]\). Cette généralisation montre aussi que toute combinaison linéaire de fonctions uniformément différentiables est uniformément différentiable.

4. Dérivées des puissances

4.1. Introduction

Nous allons évaluer les dérivées des fonctions \(f : x \mapsto x^\alpha\) où \(x,\alpha \in \setR\).

4.2. L'inverse multiplicatif

Commençons par :

\( x \cdot y = 1 \\ y = \unsur{x} = x^{-1} \)

On en déduit que :

\[x \cdot dy + y \cdot dx = d(1) = 0\]

ce qui nous donne :

\[\OD{}{x}\left( \unsur{x} \right) = \OD{y}{x} = -\frac{y}{x} = -\frac{1}{x^2}\]

4.3. Puissances négatives

Considérons la relation :

\[y = x^{-n}\]

où \(n\in\setN\). On définit la variable intermédiaire \(z\) telle que :

\( z = x^{-1} \\ y = z^n \)

On en déduit :

\begin{align} \OD{y}{x} = \OD{y}{z} \cdot \OD{z}{x} &= n \cdot z^{n - 1} \cdot \left( -\unsur{x^2} \right) \\ &= - n \cdot x^{1 - n} \cdot x^{-2} \\ &= (-n) \cdot x^{-n - 1} \end{align}

4.4. Racines

Toujours pour \(n \in \setN\), considérons la relation :

\[y = x^n \qquad \Leftrigfhtarrow\qquad x = y^{1/n}\]

Posons \(\alpha = 1/n\). On a :

\[\OD{y}{x} = n \cdot x^{n - 1} = n \cdot y \cdot y^{-\alpha}\]

Donc :

\[\OD{x}{y} = \alpha \cdot y^{\alpha-1}\]

4.5. Puissances fractionnaires

Choisissons à présent :

\[y = x^{m/n}\]

où \(m\in\setZ\) et \(n\in\setN\). Définissons la variable intermédiaire :

\[z = x^m\]

On a alors :

\[y = z^{1/n}\]

Posons \(\alpha = m/n\). La dérivée s'écrit :

\begin{align} \OD{y}{x} = \OD{y}{z} \cdot \OD{z}{x} &= \unsur{n} \cdot z^{\unsur{n} - 1} \cdot m \cdot x^{m - 1} \\ &= \alpha \cdot x^{\alpha - m} \cdot x^{m - 1} \\ &= \alpha \cdot x^{\alpha - 1} \end{align}

On a donc :

\[\OD{}{x}\left( x^\alpha \right) = \alpha \cdot x^{\alpha-1}\]

4.6. Puissances réelles

Par passage à la limite, on obtient :

\[\OD{}{x}\left( x^\alpha \right) = \alpha \cdot x^{\alpha-1}\]

pour tout \(\alpha \in \setR\).

5. Différentielles et matrices

5.1. Applications linéaires

Soit \(A \in \matrice(\setR,m,n)\). Considérons la fonction \(\mathcal{A} : \setR^m \times \setR^n \mapsto \setR\) définie par :

\[\mathcal{A}(x) = A \cdot x\]

En terme de composantes, on a :

\[\mathcal{A}_i(x) = \sum_j A_{ij} \cdot x_j\]

Les dérivées s'écrivent :

\[\deriveepartielle{\mathcal{A}_i}{x_k}(x) = A_{ik}\]

On a donc :

\[\deriveepartielle{}{x}(A \cdot x) = A\]

5.2. Formes linéaires

Soit \(u \in \setR^n\). Considérons la forme linéaire \(\varphi : \setR^n \mapsto \setR\) définie par :

\[\varphi(x) = x^\dual \cdot u\]

En terme de composantes, on a :

\[\varphi(x) = \sum_i x_i \cdot u_i\]

Les dérivées s'écrivent :

\[\deriveepartielle{\varphi}{x_k}(x) = u_i\]

On a donc :

\[\deriveepartielle{}{x}(x^\dual \cdot u) = u\]

Comme \(u^\dual \cdot x = x^\dual \cdot u\), on a aussi :

\[\deriveepartielle{}{x}(u^\dual \cdot x) = u\]

5.3. Formes bilinéaires

Soit à présent \(A \in \matrice(\setR,m,n)\). Considérons la forme bilinéaire \(\vartheta : \setR^m \times \setR^n \mapsto \setR\) définie par :

\[\vartheta(x,y) = x^\dual \cdot A \cdot y\]

En terme de composantes, on a :

\[\vartheta(x,y) = \sum_{i,j} x_i \cdot A_{ij} \cdot y_j\]

Les dérivées s'écrivent :

\( \deriveepartielle{\vartheta}{x_k}(x,y) = \sum_j A_{kj} \cdot y_j \\ \\ \deriveepartielle{\vartheta}{y_k}(x,y) = \sum_i x_i \cdot A_{ik} \)

On a donc :

\( \deriveepartielle{}{x}(x^\dual \cdot A \cdot y) = A \cdot y \\ \\ \deriveepartielle{}{y}(x^\dual \cdot A \cdot y) = A^\dual \cdot x \)

Les dérivées secondes s'en déduisent alors :

\( \dfdxdy{}{x}{x}(x^\dual \cdot A \cdot y) = 0 \\ \\ \dfdxdy{}{y}{y}(x^\dual \cdot A \cdot y) = 0 \\ \\ \dfdxdy{}{y}{x}(x^\dual \cdot A \cdot y) = A \)

5.4. Formes quadratiques

Soit à présent \(A \in \matrice(\setR,n,n)\). Considérons la forme quadratique \(\mathcal{Q} : \setR^m \times \setR^n \mapsto \setR\) définie par :

\[\mathcal{Q}(x) = x^\dual \cdot A \cdot x\]

En terme de composantes, on a :

\[\mathcal{Q}(x) = \sum_{i,j} x_i \cdot A_{ij} \cdot x_j\]

Les dérivées s'écrivent :

\begin{align} \deriveepartielle{\mathcal{Q}}{x_k}(x) &= \sum_j A_{kj} \cdot x_j + \sum_i x_i \cdot A_{ik} \\ &= \sum_i (A_{ki} + A_{ik}) \cdot x_i \end{align}

On a donc :

\[\deriveepartielle{}{x}(x^\dual \cdot A \cdot x) = (A + A^\dual) \cdot x\]

La dérivée seconde est alors immédiate :

\[\dfdxdy{}{x}{x}(x^\dual \cdot A \cdot x) = A + A^\dual\]

Un cas fréquent est celui d'une matrice \(H\) hermitienne (\(H^\dual = H\)). On a alors :

\[\deriveepartielle{}{x}(x^\dual \cdot H \cdot x) = 2 \cdot H \cdot x\]

et :

\[\dfdxdy{}{x}{x}(x^\dual \cdot H \cdot x) = 2 \cdot H\]

5.5. Produit matriciel

Soient les fonctions \(A : \setR \mapsto \matrice(\setR,m,n)\) et \(B : \setR \mapsto \matrice(\setR,n,p)\) qui, à chaque réel \(t\), associent des matrices de composantes réelles. Nous allons tenter de trouver une expression de la dérivée du produit matriciel \(A \cdot B\). Les propriétés des différentielles nous permettent d'écrire :

\[\partial \sum_{k = 1}^n A_{ik}(t) \cdot B_{kj}(t) = \sum_{k = 1}^n \partial A_{ik}(t) \cdot B_{kj}(t) + \sum_{k=1}^n A_{ik}(t) \cdot \partial B_{kj}(t)\]

On a donc :

\[\partial (A \cdot B) = \partial A \cdot B + A \cdot \partial B\]

ou, symboliquement :

\[d(A \cdot B) = dA \cdot B + A \cdot dB\]

5.6. Matrice inverse

Considérons le cas où \(A\) est carrée (\(m = n\)). En dérivant la relation \(A \cdot A^{-1} = I\), on obtient :

\[0 = dI = d(A \cdot A^{-1}) = dA \cdot A^{-1} + A \cdot dA^{-1}\]

et donc :

\[d(A^{-1}) = - A^{-1} \cdot dA \cdot A^{-1}\]

6. Résolution d'équations

6.1. Introduction

Soit une fonction \(F : \setR^n \mapsto \setR^n\) et l'espace des solutions :

\[S = \{ s \in \setR^n : F(s) = 0 \} = \noyau F\]

Nous allons tenter d'obtenir itérativement une estimation d'un \(s \in S\). 0n part d'un certain \(x_0 \in \setR^n\) et on essaie à chaque itération :

\[x_{k + 1} = I(x_k) = x_k + \Delta_k\]

d'améliorer la qualité de notre estimation, c'est à dire de rapprocher \(F(x_{k + 1})\) de zéro. On espère que pour \(K\) assez grand, on aura :

\[F(x_K) \approx \lim_{k \to \infty} F(x_k) = 0\]

A moins que l'on ait déjà une vague idée d'une région \(X \subseteq \setR^n\) contenant une solution \(s \in S\), on choisit en général \(x_0 = 0\).

6.2. Newton-Raphson

On demande à chaque étape que le développement du premier ordre autour de \(x_k\) s'annule en \(x_{k + 1} = x_k + \Delta_k\). On impose donc :

\[F(x_{k + 1}) \approx F(x_k) + \partial F(x_k) \cdot \Delta_k \approx 0\]

On est amenés à résoudre le système :

\[\partial F(x_k) \cdot \Delta_k = - F(x_k)\]

Si la matrice \(\partial F(x_k)\) est inversible, on a :

\[\Delta_k = - \left[\partial F(x_k)\right]^{-1} \cdot F(x_k)\]

et :

\[x_{k + 1} = x_k - \left[\partial F(x_k)\right]^{-1} \cdot F(x_k)\]

6.3. Banach

On voit que la condition \(F(s) = 0\) est équivalente à \(F(s) + s = s\). On définit donc la fonction \(f : \setR^n \to \setR^n\) par :

\[f(x) = F(x) + x\]

pour tout \(x \in \setR^n\), et on cherche un \(s\) tel que \(f(s) = F(s) + s = s\). Si \(f\) est contractante, on applique le théorème de Banach en itérant simplement par :

\[x_{k + 1} = f(x_k) = f^{k + 1}(x_0)\]

Pour \(K\) assez grand, on a alors :

\[x_K \approx \lim_{k \to \infty} x_k = s\]

6.4. Méthode hybride d'Aitken

Supposons à présent que \(F,f : \setR \to \setR\) avec \(f(x) = F(x) + x\) pour tout \(x \in \setR\). L'idée est d'utiliser simultanément les deux approches \(F(s) = 0\) et \(f(s) = F(s) + s = s\). Soit :

\[F'(x) = \OD{F}{x}(x)\]

Supposons qu'au bout de \(k\) itérations on ait obtenu \(x_k\) comme approximation de la solution \(s\). On commence par effectuer deux $f$-itérations en partant de \(x_k\) :

\begin{align} u_0 &= x_k \\ u_1 &= f(u_0) \\ u_2 &= f(u_1) \end{align}

Les valeurs de \(F\) s'écrivent alors :

\( F(u_0) = f(u_0) - u_0 = u_1 - u_0 \\ F(u_1) = f(u_1) - u_1 = u_2 - u_1 \)

On se sert ensuite du développement :

\[F(u_0) \approx F(u_1) + F'(u_1) \cdot (u_0 - u_1)\]

pour approximer \(F'\) :

\[F'(u_1) \approx \frac{F(u_0) - F(u_1)}{u_0 - u_1} = \frac{F(u_1) - F(u_0)}{u_1 - u_0}\]

On a donc :

\[F'(u_1) \approx \frac{(u_2 - u1) - (u_1 - u_0)}{u_1 - u_0} = \frac{(u_2 - 2 u_1 + u_0)}{u_1 - u_0}\]

On applique ensuite l'itération de Newton-Raphson :

\[x_{k + 1} = x_{k} - \frac{F(x_k)}{F'(x_k)}\]

en remplaçant la dérivée \(F'\) par son approximation :

\[x_{k+1} = x_k - \frac{(u_1 - u_0)^2}{u_2 - 2 u_1 + u_0}\]

On espère que la suite des \(x_k\) ainsi définie converge plus vite vers la solution \(s\) que la suite des \(f^k(x_0)\).

Auteur: chimay

Created: 2023-05-10 mer 16:44

Validate