From: Jérôme Benoit Date: Fri, 19 Oct 2018 14:33:53 +0000 (+0200) Subject: Add differentiability definition. X-Git-Url: https://git.piment-noir.org/?a=commitdiff_plain;h=66a4e4adb898b5a1c2c53d6455808240cd56f0a1;p=Projet_Recherche_Operationnelle.git Add differentiability definition. Signed-off-by: Jérôme Benoit --- diff --git a/rapport/ProjetOptimRO.tex b/rapport/ProjetOptimRO.tex index 5242014..9157eb6 100644 --- a/rapport/ProjetOptimRO.tex +++ b/rapport/ProjetOptimRO.tex @@ -5,6 +5,8 @@ \usepackage{latexsym} +\usepackage{amsmath} +\usepackage{mathtools} \usepackage{amssymb} \usepackage[utf8]{inputenc} \usepackage[francais]{babel} @@ -27,7 +29,7 @@ \fancyhead[HC]{\footnotesize\leftmark} % chapitre centre haut \renewcommand{\headrulewidth}{0.2pt} % filet en haut \addtolength{\headheight}{0.5pt} % espace pour le filet -\renewcommand{\footrulewidth}{0.2pt} %filet en bas +\renewcommand{\footrulewidth}{0.2pt} % filet en bas %%%%%Th\'eor\`eme et d\'efinitions @@ -39,6 +41,7 @@ \newtheorem{Cor}[Th]{Corollaire} \newtheorem{Rmq}{Remarque} +\newcommand{\norme}[1]{\left\Vert #1\right\Vert} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% @@ -189,6 +192,20 @@ Elle se doit de résoudre les problèmes d'existence d'une solution ($ \mathcal{ \section{Qu'est-ce que l'optimisation?} +La recherche d'un optimum au problème $ \mathcal{P} $ est l'activité principale de l'optimisation. +\begin{Def} + Soient une fonction $ f: \mathbb{R}^n \longrightarrow \mathbb{R} $ + et $ x^\ast, h \in \mathbb{R}^n $. + On dit que $ f $ est différentiable en $ x^\ast $ si il existe une application linéraire $ d_{x^\ast}f $ de $ \mathbb{R}^n $ dans $ \mathbb{R} $ telle que + \[ + f(x^\ast + h) = f(x^\ast) + d_{x^\ast}f(h) + \underset{h \rightarrow 0}{\mathrm{o}}(\norme{h}) + \] + Autrement dit il existe une application $ \varepsilon_{x^\ast} $ définie sur le voisinage de $ 0 $ dans $ \mathbb{R}^n $ et à valeurs dans $ \mathbb{R} $ + telle que $ \lim\limits_{h \rightarrow 0} \varepsilon_{x^\ast}(h) = 0 $ et + \[ + f(x^\ast + h) = f(x^\ast) + d_{x^\ast}f(h) + \norme{h}\varepsilon_{x^\ast}(h) + \] +\end{Def} \begin{Def} Soit une fonction $ f: \mathbb{R}^n \longrightarrow \mathbb{R} $ différentiable. \newline @@ -197,13 +214,10 @@ Elle se doit de résoudre les problèmes d'existence d'une solution ($ \mathcal{ \nabla f(x^\ast) = (\frac{\partial f}{\partial x_1}(x^\ast),\ldots,\frac{\partial f}{\partial x_n}(x^\ast)) \] \end{Def} -La recherche d'un optimum au problème $ \mathcal{P} $ est l'activité principale de l'optimisation. -\newline -Dans le cas où $ J $ est continûment différentiable et ses dérivées sont continues, -une condition suffisante pour que $ x^\ast \in \mathbb{R}^n $ soit un de ses extremums -est que $ \nabla f(x^\ast) = 0 $. +Dans le cas où $ J $ est continûment différentiable et ses dérivées sont continues (ou de classe $ \mathcal{C}^1 $), +une condition suffisante et nécessaire pour que $ x^\ast \in \mathbb{R}^n $ soit un de ses extremums local ou global est que $ \nabla f(x^\ast) = 0 $. \newline -Dans ce projet nous nous proposons d'étudier une des méthodes d'optimisation non linéaire avec contraintes nommée programmation quadratique séquentielle. +Dans ce projet, nous nous proposons d'étudier une des méthodes d'optimisation non linéaire avec contraintes nommée programmation quadratique séquentielle. % Dans cette section nous prenons appui sur l'ouvrage {\it Optimisation et contrôle des systèmes linéaires} \cite{Berg} de Maïtine Bergounioux \footnote{Maïtine Bergounioux, {\it Optimisation et contrôle des systèmes linéaires}, Dunod, 2001.}. % Nous utiliserons aussi l'ouvrage de Francis Filbet\footnote{Francis Filbet, {\it Analyse numérique - Algorithme et étude mathématique}, Dunod, 2009.}, {\it Analyse numérique - Algorithme et étude mathématique} \cite{Filb}.