Add differentiability definition.
authorJérôme Benoit <jerome.benoit@piment-noir.org>
Fri, 19 Oct 2018 14:33:53 +0000 (16:33 +0200)
committerJérôme Benoit <jerome.benoit@piment-noir.org>
Fri, 19 Oct 2018 14:33:53 +0000 (16:33 +0200)
Signed-off-by: Jérôme Benoit <jerome.benoit@piment-noir.org>
rapport/ProjetOptimRO.tex

index 52420143c3578b15d9b2f033136fad16d46df0b3..9157eb6039bc7de61d0d5e84dc15c3289b56ae33 100644 (file)
@@ -5,6 +5,8 @@
 
 
 \usepackage{latexsym}
+\usepackage{amsmath}
+\usepackage{mathtools}
 \usepackage{amssymb}
 \usepackage[utf8]{inputenc}
 \usepackage[francais]{babel}
@@ -27,7 +29,7 @@
 \fancyhead[HC]{\footnotesize\leftmark} % chapitre centre haut
 \renewcommand{\headrulewidth}{0.2pt} % filet en haut
 \addtolength{\headheight}{0.5pt} % espace pour le filet
-\renewcommand{\footrulewidth}{0.2pt} %filet en bas
+\renewcommand{\footrulewidth}{0.2pt} % filet en bas
 
 
 %%%%%Th\'eor\`eme et d\'efinitions
@@ -39,6 +41,7 @@
 \newtheorem{Cor}[Th]{Corollaire}
 \newtheorem{Rmq}{Remarque}
 
+\newcommand{\norme}[1]{\left\Vert #1\right\Vert}
 
 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
@@ -189,6 +192,20 @@ Elle se doit de résoudre les problèmes d'existence d'une solution ($ \mathcal{
 
 \section{Qu'est-ce que l'optimisation?}
 
+La recherche d'un optimum au problème $ \mathcal{P} $ est l'activité principale de l'optimisation.
+\begin{Def}
+ Soient une fonction $ f: \mathbb{R}^n \longrightarrow \mathbb{R} $
+ et $ x^\ast, h \in \mathbb{R}^n $.
+ On dit que $ f $ est différentiable en $ x^\ast $ si il existe une application linéraire $ d_{x^\ast}f $ de $ \mathbb{R}^n $ dans $ \mathbb{R} $ telle que
+ \[
+  f(x^\ast + h) = f(x^\ast) + d_{x^\ast}f(h) + \underset{h \rightarrow 0}{\mathrm{o}}(\norme{h})
+ \]
+ Autrement dit il existe une application $ \varepsilon_{x^\ast} $ définie sur le voisinage de $ 0 $ dans $ \mathbb{R}^n $ et à valeurs dans $ \mathbb{R} $
+ telle que $ \lim\limits_{h \rightarrow 0} \varepsilon_{x^\ast}(h) = 0 $ et
+ \[
+  f(x^\ast + h) = f(x^\ast) + d_{x^\ast}f(h) + \norme{h}\varepsilon_{x^\ast}(h)
+ \]
+\end{Def}
 \begin{Def}
  Soit une fonction $ f: \mathbb{R}^n \longrightarrow \mathbb{R} $ différentiable.
  \newline
@@ -197,13 +214,10 @@ Elle se doit de résoudre les problèmes d'existence d'une solution ($ \mathcal{
   \nabla f(x^\ast) = (\frac{\partial f}{\partial x_1}(x^\ast),\ldots,\frac{\partial f}{\partial x_n}(x^\ast))
  \]
 \end{Def}
-La recherche d'un optimum au problème $ \mathcal{P} $ est l'activité principale de l'optimisation.
-\newline
-Dans le cas où $ J $ est continûment différentiable et ses dérivées sont continues,
-une condition suffisante pour que $ x^\ast \in \mathbb{R}^n $ soit un de ses extremums
-est que $ \nabla f(x^\ast) = 0 $.
+Dans le cas où $ J $ est continûment différentiable et ses dérivées sont continues (ou de classe $ \mathcal{C}^1 $),
+une condition suffisante et nécessaire pour que $ x^\ast \in \mathbb{R}^n $ soit un de ses extremums local ou global est que $ \nabla f(x^\ast) = 0 $.
 \newline
-Dans ce projet nous nous proposons d'étudier une des méthodes d'optimisation non linéaire avec contraintes nommée programmation quadratique séquentielle.
+Dans ce projet, nous nous proposons d'étudier une des méthodes d'optimisation non linéaire avec contraintes nommée programmation quadratique séquentielle.
 
 % Dans cette section nous prenons appui sur l'ouvrage {\it Optimisation et contrôle des systèmes linéaires} \cite{Berg} de Maïtine Bergounioux \footnote{Maïtine Bergounioux, {\it Optimisation et contrôle des systèmes linéaires}, Dunod, 2001.}.
 % Nous utiliserons aussi l'ouvrage de  Francis Filbet\footnote{Francis Filbet, {\it Analyse numérique - Algorithme et étude mathématique}, Dunod, 2009.}, {\it Analyse numérique - Algorithme et étude mathématique} \cite{Filb}.