Signed-off-by: Jérôme Benoit <jerome.benoit@piment-noir.org>
\section{Qu'est-ce que l'optimisation?}
\section{Qu'est-ce que l'optimisation?}
-La recherche d'un optimum au problème $ \mathcal{P} $ est l'activité principale de l'optimisation.
+La recherche d'une valeur optimum au problème $ \mathcal{P} $ est l'activité principale de l'optimisation.
+\begin{Def}
+ Soient $ k \in \{ 1,\ldots,n \} $ et une fonction $ f: \mathbb{R}^n \longrightarrow \mathbb{R} $.
+ \newline
+ On dit que la $ k^{ième} $ dérivée partielle de $ f $ existe au point $ x^\ast \in \mathbb{R}^n $ si l’application
+ $$ t \longmapsto f(x^\ast_1,\ldots,x^\ast_{k-1},x^\ast_k + t,x^\ast_{k+1},\ldots,x^\ast_n) $$
+ définie sur un voisinage de $ 0 $ dans $ \mathbb{R} $ et à valeurs dans $ \mathbb{R} $ est dérivable en $ 0 $.
+ \newline
+ Dans ce cas on note
+ $$ \frac{\partial f}{\partial x_k}(x^\ast) $$ ou $$ \partial_k f(x^\ast) $$
+ cette dérivée.
+\end{Def}
\begin{Def}
Soient une fonction $ f: \mathbb{R}^n \longrightarrow \mathbb{R} $
et $ x^\ast, h \in \mathbb{R}^n $.
\begin{Def}
Soient une fonction $ f: \mathbb{R}^n \longrightarrow \mathbb{R} $
et $ x^\ast, h \in \mathbb{R}^n $.
On dit que $ f $ est différentiable en $ x^\ast $ si il existe une application linéraire $ d_{x^\ast}f $ de $ \mathbb{R}^n $ dans $ \mathbb{R} $ telle que
\[
f(x^\ast + h) = f(x^\ast) + d_{x^\ast}f(h) + \underset{h \rightarrow 0}{\mathrm{o}}(\norme{h})
On dit que $ f $ est différentiable en $ x^\ast $ si il existe une application linéraire $ d_{x^\ast}f $ de $ \mathbb{R}^n $ dans $ \mathbb{R} $ telle que
\[
f(x^\ast + h) = f(x^\ast) + d_{x^\ast}f(h) + \underset{h \rightarrow 0}{\mathrm{o}}(\norme{h})
\[
f(x^\ast + h) = f(x^\ast) + d_{x^\ast}f(h) + \norme{h}\varepsilon_{x^\ast}(h)
\]
\[
f(x^\ast + h) = f(x^\ast) + d_{x^\ast}f(h) + \norme{h}\varepsilon_{x^\ast}(h)
\]
+ On appelle $ d_{x^\ast}f $ la différentielle de $ f $ en $ x^\ast $.
-On peut confondre la somme des dérivées partielles et la fonction linéaire $ d_{x^\ast}f $.
+\begin{Rmq}
+ On peut démontrer que : $$ d_{x^\ast}f = \sum_{i=1}^n\frac{\partial f}{\partial x_i}(x^\ast) $$.
+\end{Rmq}
\begin{Def}
Soit une fonction $ f: \mathbb{R}^n \longrightarrow \mathbb{R} $ différentiable.
\newline
\begin{Def}
Soit une fonction $ f: \mathbb{R}^n \longrightarrow \mathbb{R} $ différentiable.
\newline
\nabla f(x^\ast) = (\frac{\partial f}{\partial x_1}(x^\ast),\ldots,\frac{\partial f}{\partial x_n}(x^\ast))
\]
\end{Def}
\nabla f(x^\ast) = (\frac{\partial f}{\partial x_1}(x^\ast),\ldots,\frac{\partial f}{\partial x_n}(x^\ast))
\]
\end{Def}
-Dans le cas où $ J $ est continûment différentiable et ses dérivées sont continues (ou de classe $ \mathcal{C}^1 $),
-une condition suffisante et nécessaire pour que $ x^\ast \in \mathbb{R}^n $ soit un de ses extremums local ou global est que $ \nabla f(x^\ast) = 0 $.
+\begin{Rmq}
+ $ \forall h \in \mathbb{R}^n \ d_{x^\ast}f(h) = \langle \nabla f(x^\ast),h \rangle $
+\end{Rmq}
+Dans le cas où $ J $ est continûment différentiable et ses dérivées sont continues (c'est à dire de classe $ \mathcal{C}^1 $), une condition suffisante et nécessaire pour que $ x^\ast \in \mathbb{R}^n $ soit un de ses extremums local ou global est que $ \nabla f(x^\ast) = 0 $.
\newline
Dans ce projet, nous nous proposons d'étudier une des méthodes d'optimisation non linéaire avec contraintes nommée programmation quadratique séquentielle.
\newline
Dans ce projet, nous nous proposons d'étudier une des méthodes d'optimisation non linéaire avec contraintes nommée programmation quadratique séquentielle.