Refine some more the preliminar definitions.
authorJérôme Benoit <jerome.benoit@piment-noir.org>
Fri, 19 Oct 2018 21:10:44 +0000 (23:10 +0200)
committerJérôme Benoit <jerome.benoit@piment-noir.org>
Fri, 19 Oct 2018 21:10:44 +0000 (23:10 +0200)
Signed-off-by: Jérôme Benoit <jerome.benoit@piment-noir.org>
rapport/ProjetOptimRO.tex

index 13426c051f58eb0be12ede8db913f48283a33afc..8bbbec296a5528fd104d4176aef97c0ac1d9466d 100644 (file)
@@ -192,10 +192,22 @@ Elle se doit de résoudre les problèmes d'existence d'une solution ($ \mathcal{
 
 \section{Qu'est-ce que l'optimisation?}
 
 
 \section{Qu'est-ce que l'optimisation?}
 
-La recherche d'un optimum au problème $ \mathcal{P} $ est l'activité principale de l'optimisation.
+La recherche d'une valeur optimum au problème $ \mathcal{P} $ est l'activité principale de l'optimisation.
+\begin{Def}
+ Soient $ k \in \{ 1,\ldots,n \} $ et une fonction $ f: \mathbb{R}^n \longrightarrow \mathbb{R} $.
+ \newline
+ On dit que la $ k^{ième} $ dérivée partielle de $ f $ existe au point $ x^\ast \in \mathbb{R}^n $ si l’application
+ $$ t \longmapsto f(x^\ast_1,\ldots,x^\ast_{k-1},x^\ast_k + t,x^\ast_{k+1},\ldots,x^\ast_n) $$
+ définie sur un voisinage de $ 0 $ dans $ \mathbb{R} $ et à valeurs dans $ \mathbb{R} $ est dérivable en $ 0 $.
+ \newline
+ Dans ce cas on note
+ $$ \frac{\partial f}{\partial x_k}(x^\ast) $$ ou $$ \partial_k f(x^\ast) $$
+ cette dérivée.
+\end{Def}
 \begin{Def}
  Soient une fonction $ f: \mathbb{R}^n \longrightarrow \mathbb{R} $
  et $ x^\ast, h \in \mathbb{R}^n $.
 \begin{Def}
  Soient une fonction $ f: \mathbb{R}^n \longrightarrow \mathbb{R} $
  et $ x^\ast, h \in \mathbb{R}^n $.
+ \newline
  On dit que $ f $ est différentiable en $ x^\ast $ si il existe une application linéraire $ d_{x^\ast}f $ de $ \mathbb{R}^n $ dans $ \mathbb{R} $ telle que
  \[
   f(x^\ast + h) = f(x^\ast) + d_{x^\ast}f(h) + \underset{h \rightarrow 0}{\mathrm{o}}(\norme{h})
  On dit que $ f $ est différentiable en $ x^\ast $ si il existe une application linéraire $ d_{x^\ast}f $ de $ \mathbb{R}^n $ dans $ \mathbb{R} $ telle que
  \[
   f(x^\ast + h) = f(x^\ast) + d_{x^\ast}f(h) + \underset{h \rightarrow 0}{\mathrm{o}}(\norme{h})
@@ -205,8 +217,11 @@ La recherche d'un optimum au problème $ \mathcal{P} $ est l'activité principal
  \[
   f(x^\ast + h) = f(x^\ast) + d_{x^\ast}f(h) + \norme{h}\varepsilon_{x^\ast}(h)
  \]
  \[
   f(x^\ast + h) = f(x^\ast) + d_{x^\ast}f(h) + \norme{h}\varepsilon_{x^\ast}(h)
  \]
+ On appelle $ d_{x^\ast}f $ la différentielle de $ f $ en $ x^\ast $.
 \end{Def}
 \end{Def}
-On peut confondre la somme des dérivées partielles et la fonction linéaire $ d_{x^\ast}f $.   
+\begin{Rmq}
+ On peut démontrer que : $$ d_{x^\ast}f = \sum_{i=1}^n\frac{\partial f}{\partial x_i}(x^\ast) $$.
+\end{Rmq}
 \begin{Def}
  Soit une fonction $ f: \mathbb{R}^n \longrightarrow \mathbb{R} $ différentiable.
  \newline
 \begin{Def}
  Soit une fonction $ f: \mathbb{R}^n \longrightarrow \mathbb{R} $ différentiable.
  \newline
@@ -215,8 +230,10 @@ On peut confondre la somme des dérivées partielles et la fonction linéaire $
   \nabla f(x^\ast) = (\frac{\partial f}{\partial x_1}(x^\ast),\ldots,\frac{\partial f}{\partial x_n}(x^\ast))
  \]
 \end{Def}
   \nabla f(x^\ast) = (\frac{\partial f}{\partial x_1}(x^\ast),\ldots,\frac{\partial f}{\partial x_n}(x^\ast))
  \]
 \end{Def}
-Dans le cas où $ J $ est continûment différentiable et ses dérivées sont continues (ou de classe $ \mathcal{C}^1 $),
-une condition suffisante et nécessaire pour que $ x^\ast \in \mathbb{R}^n $ soit un de ses extremums local ou global est que $ \nabla f(x^\ast) = 0 $.
+\begin{Rmq}
+ $ \forall h \in \mathbb{R}^n \ d_{x^\ast}f(h) = \langle \nabla f(x^\ast),h \rangle $
+\end{Rmq}
+Dans le cas où $ J $ est continûment différentiable et ses dérivées sont continues (c'est à dire de classe $ \mathcal{C}^1 $), une condition suffisante et nécessaire pour que $ x^\ast \in \mathbb{R}^n $ soit un de ses extremums local ou global est que $ \nabla f(x^\ast) = 0 $.
 \newline
 Dans ce projet, nous nous proposons d'étudier une des méthodes d'optimisation non linéaire avec contraintes nommée programmation quadratique séquentielle.
 
 \newline
 Dans ce projet, nous nous proposons d'étudier une des méthodes d'optimisation non linéaire avec contraintes nommée programmation quadratique séquentielle.