From: Jérôme Benoit Date: Fri, 19 Oct 2018 21:10:44 +0000 (+0200) Subject: Refine some more the preliminar definitions. X-Git-Url: https://git.piment-noir.org/?a=commitdiff_plain;h=d17ef079f644ba2ff3a64abaa6dc37fe4b634320;p=Projet_Recherche_Operationnelle.git Refine some more the preliminar definitions. Signed-off-by: Jérôme Benoit --- diff --git a/rapport/ProjetOptimRO.tex b/rapport/ProjetOptimRO.tex index 13426c0..8bbbec2 100644 --- a/rapport/ProjetOptimRO.tex +++ b/rapport/ProjetOptimRO.tex @@ -192,10 +192,22 @@ Elle se doit de résoudre les problèmes d'existence d'une solution ($ \mathcal{ \section{Qu'est-ce que l'optimisation?} -La recherche d'un optimum au problème $ \mathcal{P} $ est l'activité principale de l'optimisation. +La recherche d'une valeur optimum au problème $ \mathcal{P} $ est l'activité principale de l'optimisation. +\begin{Def} + Soient $ k \in \{ 1,\ldots,n \} $ et une fonction $ f: \mathbb{R}^n \longrightarrow \mathbb{R} $. + \newline + On dit que la $ k^{ième} $ dérivée partielle de $ f $ existe au point $ x^\ast \in \mathbb{R}^n $ si l’application + $$ t \longmapsto f(x^\ast_1,\ldots,x^\ast_{k-1},x^\ast_k + t,x^\ast_{k+1},\ldots,x^\ast_n) $$ + définie sur un voisinage de $ 0 $ dans $ \mathbb{R} $ et à valeurs dans $ \mathbb{R} $ est dérivable en $ 0 $. + \newline + Dans ce cas on note + $$ \frac{\partial f}{\partial x_k}(x^\ast) $$ ou $$ \partial_k f(x^\ast) $$ + cette dérivée. +\end{Def} \begin{Def} Soient une fonction $ f: \mathbb{R}^n \longrightarrow \mathbb{R} $ et $ x^\ast, h \in \mathbb{R}^n $. + \newline On dit que $ f $ est différentiable en $ x^\ast $ si il existe une application linéraire $ d_{x^\ast}f $ de $ \mathbb{R}^n $ dans $ \mathbb{R} $ telle que \[ f(x^\ast + h) = f(x^\ast) + d_{x^\ast}f(h) + \underset{h \rightarrow 0}{\mathrm{o}}(\norme{h}) @@ -205,8 +217,11 @@ La recherche d'un optimum au problème $ \mathcal{P} $ est l'activité principal \[ f(x^\ast + h) = f(x^\ast) + d_{x^\ast}f(h) + \norme{h}\varepsilon_{x^\ast}(h) \] + On appelle $ d_{x^\ast}f $ la différentielle de $ f $ en $ x^\ast $. \end{Def} -On peut confondre la somme des dérivées partielles et la fonction linéaire $ d_{x^\ast}f $. +\begin{Rmq} + On peut démontrer que : $$ d_{x^\ast}f = \sum_{i=1}^n\frac{\partial f}{\partial x_i}(x^\ast) $$. +\end{Rmq} \begin{Def} Soit une fonction $ f: \mathbb{R}^n \longrightarrow \mathbb{R} $ différentiable. \newline @@ -215,8 +230,10 @@ On peut confondre la somme des dérivées partielles et la fonction linéaire $ \nabla f(x^\ast) = (\frac{\partial f}{\partial x_1}(x^\ast),\ldots,\frac{\partial f}{\partial x_n}(x^\ast)) \] \end{Def} -Dans le cas où $ J $ est continûment différentiable et ses dérivées sont continues (ou de classe $ \mathcal{C}^1 $), -une condition suffisante et nécessaire pour que $ x^\ast \in \mathbb{R}^n $ soit un de ses extremums local ou global est que $ \nabla f(x^\ast) = 0 $. +\begin{Rmq} + $ \forall h \in \mathbb{R}^n \ d_{x^\ast}f(h) = \langle \nabla f(x^\ast),h \rangle $ +\end{Rmq} +Dans le cas où $ J $ est continûment différentiable et ses dérivées sont continues (c'est à dire de classe $ \mathcal{C}^1 $), une condition suffisante et nécessaire pour que $ x^\ast \in \mathbb{R}^n $ soit un de ses extremums local ou global est que $ \nabla f(x^\ast) = 0 $. \newline Dans ce projet, nous nous proposons d'étudier une des méthodes d'optimisation non linéaire avec contraintes nommée programmation quadratique séquentielle.