1 \documentclass[12pt,oneside,
a4paper]{book
}
11 \usepackage[utf8
]{inputenc}
12 \usepackage[francais
]{babel
}
17 \usepackage[T1]{fontenc}
20 \usepackage{tocbibind
}
24 %%%%%Marges & en-t\^etes
26 \geometry{hmargin=
2.3cm, vmargin=
3cm
}
27 \fancyhf{} % supprime les en-t\^etes et pieds pr\'ed\'efinis
28 \fancyhead[FC
]{\bfseries\thepage} % N∞page centre bas
29 \fancyhead[HC
]{\footnotesize\leftmark} % chapitre centre haut
30 \renewcommand{\headrulewidth}{0.2pt
} % filet en haut
31 \addtolength{\headheight}{0.5pt
} % espace pour le filet
32 \renewcommand{\footrulewidth}{0.2pt
} % filet en bas
35 %%%%%Th\'eor\`eme et d\'efinitions
37 \newtheorem{Def
}{D\'efinition
}
38 \newtheorem{Not
}[Def
]{Notation
}
39 \newtheorem{Th
}{Th\'eor\`eme
}
40 \newtheorem{Prop
}[Th
]{Proposition
}
41 \newtheorem{Cor
}[Th
]{Corollaire
}
42 \newtheorem{Rmq
}{Remarque
}
44 \newcommand{\norme}[1]{\left\Vert #1\right\Vert}
46 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
47 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
51 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
52 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
58 %\includegraphics[scale=0.5]{logo_sciences_rvb.png}\\
59 \includegraphics[scale=
0.5]{polytech.png
}\\
64 \large \bf D\'epartement d'Informatique, Réseaux et Multimédia\\
65 \large \bf 5ème année\\
70 %\large{Master 2 Professionnel\\
71 %Math\'ematiques et Informatique des Nouvelles Technologies\\}
73 \large{Projet \\ en \\ Optimisation et Recherche Opérationnelle \\
}
80 \LARGE\textbf {Programmation Séquentielle Quadratique
} \\
82 \LARGE\textbf {Optimisation non linéraire sous contraintes
} \\
89 \includegraphics[scale=
0.4]{CE.PNG
}\\
96 %\normalsize{M\'emoire encadr\'e par :} \large St\'ephane \bsc{Ballet}\\
99 \large {\bf Jérôme
\bsc{Benoit
} et Sylvain
\bsc{Papa
}}\\
103 % \large sous la direction de \\
107 %Eric Audureau et Thierry Masson
113 %\normalsize{Licence de Mathématiques 3ème année}
114 \normalsize{Année
2018-
2019}
118 \thispagestyle{empty
}
123 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
124 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
131 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
132 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
135 %%%%%Table des mati\`eres
141 %\includegraphics{logo_fac2}
142 \includegraphics[scale=
0.04]{amu
}
149 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
150 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
157 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
158 \chapter{Introduction générale
}
162 \section{Qu'est-ce que la recherche opérationnelle?
}
164 \subsection{Présentation rapide
}
166 La recherche opérationnelle est une discipline dite "hybride" au confluent de plusieurs disciplines dont principalement les mathématiques (l'analyse numérique, les probabilités, la statistique) et l'informatique (l'algorithmie).
168 On la considère usuellement comme une sous discipline des mathématiques de la décision. Elle a de nombreuses applications, particulièrement en intelligence artificielle.
170 \subsection{Définition de la problèmatique
}
172 Définissons le problème central $
\mathcal{P
} $ que se propose de résoudre la recherche opérationnelle :
174 Soient $(n, p, q)
\in \mathbb{N
}^
3$, $x
\in \mathbb{R
}^n$, une fonction $g:
\mathbb{R
}^n
\longrightarrow \mathbb{R
}^p$ représentant les contraintes d'inégalités, une fonction $h:
\mathbb{R
}^n
\longrightarrow \mathbb{R
}^q$ représentant les contraintes d'égalités et une fonction dite objectif $J:
\mathbb{R
}^n
\longrightarrow \mathbb{R
}$.
176 La problèmatique $
\mathcal{P
} $ se définit par :
180 \displaystyle\min_{x
\in \mathbb{R
}^n
} J(x) \\
188 On définit $
\mathcal{C
} $ l'ensemble des contraintes par :
189 $$
\mathcal{C
} =
\left \
{ x
\in \mathbb{R
}^n \ | \ g(x)
\leq 0 \land h(x) =
0 \right \
} $$
191 Elle se doit de résoudre les problèmes d'existence d'une solution ($
\mathcal{C
} \neq \emptyset $ et $
\displaystyle\min_{x
\in \mathbb{R
}^n
} J(x) $ défini dans $
\mathcal{C
} $) ainsi que de construction d'une solution dans $
\mathcal{C
} $.
193 \section{Qu'est-ce que l'optimisation?
}
195 \subsection{Définition
}
197 La recherche d'une méthode permettant de trouver la solution au problème $
\mathcal{P
} $ dans $
\mathcal{C
} $ est l'activité principale de l'optimisation.
199 Si la modélisation de la problèmatique $
\mathcal{P
} $ est considérée comme un art, la recherche d'une solution au problème $
\mathcal{P
} $ dans $
\mathcal{C
} $ est, elle, une science.
201 \subsection{Quelques définitions annexes
}
203 Définissons quelques notions supplémentaires de base nécessaires à la suite :
205 Soient $
\mathbb{R
}^n $ un espace topologique, $ A
\subset \mathbb{R
}^n $ et $ x^
\ast \in \mathbb{R
}^n $.
207 On dit que $ x^
\ast $ est
\textbf{intérieur
} à $ A $ si $ A $ est un voisinage de $ x^
\ast $. On appelle intérieur de $ A $ l'ensemble des points intérieurs à $ A $ et on le note $
\mathring{A
} $.
210 Soient $
\mathbb{R
}^n $ un espace topologique, $ A
\subset \mathbb{R
}^n $ et $ x^
\ast \in \mathbb{R
}^n $.
212 On dit que $ x^
\ast $ est
\textbf{adhérent
} à $ A $ si et seulement si $
\forall V
\in \mathcal{V
}(x^
\ast) \ A
\cap V
\neq \emptyset $. On appelle adhérence de $ A $ l'ensemble des points adhérents à $ A $ et on le note $
\overline{A
} $.
215 Soient une fonction $ f:
\mathbb{R
}^n
\longrightarrow \mathbb{R
} $ et $ x^
\ast \in \mathbb{R
}^n $.
217 On dit que $ f $ est continue en $ x^
\ast $ si
218 $$
\forall \varepsilon \in \mathbb{R
}_
{+
}^
{*
} \
\exists \alpha \in \mathbb{R
}_
{+
}^
{*
} \
\forall x
\in \mathbb{R
}^n \
\norme{x - x^
\ast} \leq \alpha \implies |f(x) - f(x^
\ast)|
\leq \varepsilon $$
221 Soient $ k
\in \
{ 1,
\ldots,n \
} $ et une fonction $ f:
\mathbb{R
}^n
\longrightarrow \mathbb{R
} $.
223 On dit que la $ k^
{ième
} $ dérivée partielle de $ f $ existe au point $ x^
\ast \in \mathbb{R
}^n $ si l’application
224 $$ t
\longmapsto f(x^
\ast_1,
\ldots,x^
\ast_{k-
1},x^
\ast_k + t,x^
\ast_{k+
1},
\ldots,x^
\ast_n) $$
225 définie sur un voisinage de $
0 $ dans $
\mathbb{R
} $ et à valeurs dans $
\mathbb{R
} $ est dérivable en $
0 $.
228 $$
\frac{\partial f
}{\partial x_k
}(x^
\ast) $$ ou $$
\partial_k f(x^
\ast) $$
232 Soient une fonction $ f:
\mathbb{R
}^n
\longrightarrow \mathbb{R
} $
233 et $ x^
\ast, h
\in \mathbb{R
}^n $.
235 On dit que $ f $ est différentiable en $ x^
\ast $ si il existe une application linéraire $ d_
{x^
\ast}f $ de $
\mathbb{R
}^n $ dans $
\mathbb{R
} $ telle que
237 f(x^
\ast + h) = f(x^
\ast) + d_
{x^
\ast}f(h) +
\underset{h
\rightarrow 0}{\mathrm{o
}}(
\norme{h
})
239 Autrement dit il existe une application $
\varepsilon_{x^
\ast} $ définie sur le voisinage de $
0 $ dans $
\mathbb{R
}^n $ et à valeurs dans $
\mathbb{R
} $
240 telle que $
\lim\limits_{h
\rightarrow 0} \varepsilon_{x^
\ast}(h) =
0 $ et
242 f(x^
\ast + h) = f(x^
\ast) + d_
{x^
\ast}f(h) +
\norme{h
}\varepsilon_{x^
\ast}(h)
244 On appelle $ d_
{x^
\ast}f $ la différentielle de $ f $ en $ x^
\ast $.
247 On peut démontrer que : $$ d_
{x^
\ast}f =
\sum_{i=
1}^n
\frac{\partial f
}{\partial x_i
}(x^
\ast) $$.
250 Soit une fonction $ f:
\mathbb{R
}^n
\longrightarrow \mathbb{R
} $ différentiable.
252 Le gradient de $ f $, noté $
\nabla f$, en $ x^
\ast \in \mathbb{R
}^n$ se définit par :
254 \nabla f(x^
\ast) = (
\frac{\partial f
}{\partial x_1
}(x^
\ast),
\ldots,
\frac{\partial f
}{\partial x_n
}(x^
\ast))
258 $
\forall h
\in \mathbb{R
}^n \ d_
{x^
\ast}f(h) =
\langle \nabla f(x^
\ast),h
\rangle $
261 \subsection{Conditions d'existence d'un extremum
}
263 On peut démontrer que $
\mathcal{C
}$ est un ensemble fermé de $
\mathbb{R
}^n $ si $ g $ et $ h $ sont continues.
264 On peut en déduire que si $ J $ est continue, $
\mathcal{C
}$ est un ensemble fermé et borné de $
\mathbb{R
}^n $.
265 \begin{Th
}[Théorème de Weierstrass
]
266 Soient $
\mathcal{C
} \neq \emptyset \subset \mathbb{R
}^n $ un fermé borné et $ f :
\mathcal{C
} \longrightarrow \mathbb{R
} $ une fonction continue.
268 Alors : $$
\exists x^
\ast \in \mathcal{C
} \
\forall x
\in \mathcal{C
} \ f(x)
\geq f(x^
\ast) $$
269 Autrement dit $ x^
\ast $ est un minimum global de $ J $ sur $
\mathcal{C
} $.
271 De la même façon, il existe un maximum global de $ J $ sur $
\mathcal{C
} $.
273 On en déduit que $
\mathcal{P
} $ admet au moins une solution dans le cas où $ J, g ,h $ sont continues. L'étude de la convexité de $ J $ permet d'explorer l'unicité de la solution
\cite{LJK
}.
275 \subsection{Conditions de caractérisation d'un extremum
}
277 Dans le cas où $ J, g, h $ sont continûment différentiable et ses dérivées sont continues (c'est à dire de classe $
\mathcal{C
}^
1 $), la recherche du mimimum consiste à faire une descente par gradient de $ J $ sur $
\mathcal{C
} $ avec comme critère d'arrêt : $ x_i =
\displaystyle\min_{x
\in \mathcal{C
}} J(x)
\iff \forall \varepsilon \in \mathbb{R
}_
{+
}^
{*
} \
\norme{\nabla J(x_i)
} <
\varepsilon $, $ i
\in \mathbb{N
} $
\cite{FEA
}.
279 On peut en déduire que une condition nécessaire et suffisante pour que $ x^
\ast \in \mathring{\mathcal{C
}} $ soit un des extremums locaux de $ J $ est que $
\nabla J(x^
\ast) =
0 $. Mais si $ x^
\ast \in \overline{\mathcal{C
}}\setminus\mathring{\mathcal{C
}} $ (la frontière de $
\mathcal{C
} $) alors $
\nabla J(x^
\ast) $ n'est pas nécessairement nul. Il sera par conséquent nécessaire de trouver d'autres caratérisations d'un extremum
\cite{FEA,WAL
}.
281 \subsubsection{Conditions de Kuhn-Tucker et Lagrange
}
284 Soient $ x^
\ast \in \mathbb{R
}^n $, $ I = \
{ 1,
\ldots,p \
} $ et $ J = \
{ 1,
\ldots,q \
} $.
286 Une condition nécessaire pour que $ x^
\ast \in \mathcal{C
}$ soit un minimum local est :
289 \centerline{$ \
{ \nabla g_1(x^
\ast),
\ldots,
\nabla g_p(x^
\ast),
\nabla h_1(x^
\ast),
\ldots,
\nabla h_q(x^
\ast) \
} $ sont linéairement indépendants.
}
293 $$
\forall i
\in I \
\exists \mu_i \in \mathbb{R
}_
{+
} \land \forall j
\in J \
\exists \lambda_j \in \mathbb{R
} \
\nabla J(x^
\ast) +
\sum_{i
\in I
}\mu_i{\nabla g_i(x^
\ast)
} +
\sum_{j
\in J
}\lambda_j{\nabla h_j(x^
\ast)
} =
0 \land \forall i
\in I \
\mu_i \nabla g_i(x^
\ast) =
0 $$
294 On appelle $ (
\mu_i)_
{i
\in I
}$ les multiplicateurs de Kuhn-Tucker et $ (
\lambda_j)_
{j
\in J
}$ les multiplicateurs de Lagrange.
296 Il est à noter que une condition d'égalité peut se répresenter par deux conditions d'inégalité : $
\forall x
\in \mathbb{R
}^n \
\forall i
\in \
{ 1,
\ldots,q \
} \ h_i(x) =
0 \iff h_i(x)
\leq 0 \land h_i(x)
\geq 0 $.
299 Dans ce projet, nous nous proposons d'étudier une des méthodes d'optimisation non linéaire avec contraintes nommée programmation quadratique séquentielle.
302 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
304 \chapter{Méthodes de programmation quadratique séquentielle
}
306 \section{Optimisation
}
308 \subsubsection{Optimisation ou minimisation avec contraintes
}
310 \bibliographystyle{plain
}
311 \bibliography{stdlib_sbphilo
}
313 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%