1 \documentclass[9pt,blackandwhite,roman,handout
]{beamer
}
4 \usefonttheme{professionalfonts
}
10 %\usecolortheme{seahorse}
12 \usecolortheme{seagull
}
13 %\usefonttheme[onlylarge]{structurebold}
14 %\setbeamerfont*{frametitle}{size=\normalsize,series=\bfseries}
15 %\setbeamertemplate{navigation symbols}{}
20 %\usepackage[frenchb]{babel}
21 %\usepackage[english]{babel}
22 \usepackage[utf8
]{inputenc}
23 %\usepackage[T1]{fontenc}
25 \usepackage[sans
]{dsfont
}
29 \usepackage[cal=euler,scr=rsfso
]{mathalfa
}%bb=cm,
32 \usepackage{mathrsfs
} % pour faire des majuscules calligraphiées \mathcal{blabla}
33 %\usepackage[french,lined]{algorithm2e} % rajouter linesnumbered dans les arguments pour numéroter les lignes des algos, boxed pour l'encadrement
34 %\usepackage{extsizes}
35 %\usepackage{MnSymbol}
42 %\usepackage[varg]{txfonts}
45 %\usepackage{MyMnSymbol}
48 %\usepackage{mathtools}
55 \usetikzlibrary{matrix,arrows
}
56 \tikzstyle{block
}=
[draw opacity=
0.7,line width=
1.4cm
]
58 \newcommand{\gk}{$g_k =
\left \
{ \begin{array
}{ll
}
59 q^k+q^
{k-
1}-q^
\frac{k+
1}{2} -
2q^
\frac{k-
1}{2}+
1 &
\mbox{si
} k
\equiv 1 \pmod 2,\\
60 q^k+q^
{k-
1}-
\frac{1}{2}q^
{\frac{k
}{2}+
1} -
\frac{3}{2}q^
{\frac{k
}{2}}-q^
{\frac{k
}{2}-
1} +
1&
\mbox{si
} k
\equiv 0 \pmod 2.
61 \end{array
} \right .$
}
63 \newcommand{\ext}{\xymatrix{
64 \FF=
\Fq(x)(y)
\ar@
{-
}[d
]^
{<
\infty} \\
\Fq(x)
\ar@
{-
}[d
] \\
\Fq} }
66 \newcommand{\twoheaddownarrow}{%
67 \mathrel{\reflectbox{\rotatebox[origin=c
]{-
90}{$
\xtwoheadrightarrow[ \;
]{ \reflectbox{\rotatebox[origin=c
]{-
90}{$
\pi_Q \ $
}} \ \
}$
}}}}
69 \newcommand{\longdownmapsto}{%
70 \mathrel{\reflectbox{\rotatebox[origin=c
]{-
90}{$
\xmapsto{ \ \ \
\reflectbox{\rotatebox[origin=c
]{-
90}{$
\pi_Q \ $
}} \ \ \
}$
}}}}
72 \newcommand{\bigubrace}[1]{\underbrace{\mbox{}f(P_i), f'(P_i),
\ldots, f^
{(
\ell_i-
1)
}(P_i)
\vphantom{\sum_0^
0}\hspace{#1}\mbox{}}_?
}
74 \newcommand{\myubrace}[2]{\rotatebox[origin=c
]{90}{$
75 \rotatebox[origin=c
]{-
90}{#1} \left \
{
79 \right .
\hspace{-
1em
}
82 \newcommand{\bluebrace}{{\color{blue
}\left\
{}}
84 \newcommand{\norme}[1]{\left\Vert #1 \right\Vert}
86 \definecolor{mycvblue
}{rgb
}{0.302,
0.537,
0.737}
88 \setbeamercolor{structure
}{fg=mycvblue
}
89 \setbeamercolor{palette primary
}{fg=mycvblue
}
90 \setbeamercolor{subsection in head/foot
}{parent=palette primary
}
92 \setbeamertemplate{navigation symbols
}{
93 % \insertslidenavigationsymbol
94 % \insertframenavigationsymbol
95 % \insertsubsectionnavigationsymbol
96 % \insertsectionnavigationsymbol
97 % \insertdocnavigationsymbol
98 % \insertbackfindforwardnavigationsymbol
101 %\renewcommand{\item}{\item[$\bullet$]}
103 \title[]{\LARGE{\textsc{Méthode de Programmation Quadratique Séquentielle ou PQS\\ en\\ Optimisation non linéraire sous contraintes
}}}
105 \author[Jérôme
{\textsc Benoit
} \& Sylvain
{\textsc Papa
}]{\textbf{Jérôme
{\textsc Benoit
}\\
\textbf{Sylvain
{\textsc Papa
}}}}
107 \date[]{{\bf HUGo
}\\
{\bf Polytech'Marseille
} \\
{\small Novembre
2018}}
109 \newtheorem{defin
}{Définition
}
110 \newtheorem{theoreme
}{Théorème
}
111 \newtheorem{lemme
}{Lemme
}
112 \newtheorem{corollaire
}{Corollaire
}
113 \newtheorem{proposition
}{Proposition
}
114 \newtheorem{propriete
}{Propriété
}
115 %\newtheorem{exemple}[definition]{Exemple}
117 \newcommand{\NN}{\ensuremath{\mathbb{N
}}}
118 \newcommand{\CC}{\ensuremath{\mathbb{C
}}}
119 \newcommand{\ZZ}{\ensuremath{\mathbb{Z
}}}
120 \newcommand{\PF}{\mathbf{P
}_F
}
121 \newcommand{\DF}{\mathsf{Div
}(F)
}
122 \newcommand{\Jac}{\ensuremath{\mathcal{J
}\mathsf{ac
}(F/
\Fq)
}}
123 \newcommand{\Fqr}[2][q
]{\mathds{F
}_
{\!
{#1}^
{#2}}}
124 \newcommand{\Fq}{\Fqr{}}
125 \newcommand{\F}{\mathds{F
}}
126 \newcommand{\FF}{\mathsf{F
}}
127 \newcommand{\Fqn}{\Fqr{n
}}
128 \newcommand{\D}[1][D
]{\ensuremath{\mathcal{#1}}}
129 \newcommand{\Ld}[1][\D]{\ensuremath{\mathscr{L
}\!\!
\left(
#1\right)
}} % utilisation : \Ld ou \Ld[A] pour un diviseur A au lieu de D
130 \newcommand{\Ak}[1][k
]{\ensuremath{\mathbb{A
}_
{#1}}}
131 \newcommand{\A}{\ensuremath{\mathsf{A
}}}
132 \newcommand{\Cl}{\ensuremath{\mathsf{Cl
}}}
133 \newcommand{\mus}{\ensuremath{\mu^
\mathsf{sym
}}}
134 \newcommand{\Ms}{\ensuremath{M^
\mathsf{sym
}}}
135 \newcommand{\ms}{\ensuremath{m^
\mathsf{sym
}}}
136 \newcommand{\chch}{{C
}hudnovsky-
{C
}hudnovsky
}
137 \newcommand{\ch}{{C
}hudnovsky
}
139 \addtobeamertemplate{footline
}{\texttt{\hfill\insertframenumber/
{\inserttotalframenumber}}}
141 % \AtBeginSubsection[] {
142 % \begin{frame}<beamer>
144 % \tableofcontents[currentsection,currentsubsection]
147 % \AtBeginSection[] {
148 % \begin{frame}<beamer>
150 % \tableofcontents[currentsection]%,currentsubsection]
154 \setbeamertemplate{sections/subsections in toc
}[sections numbered
]
155 %\setbeamertemplate{sections in toc}[sections numbered]
159 % \begin{frame}[plain]
163 % {\bf Institut de Mathématiques de Marseille}\\
165 % {\bf Equipe Analyse, Géométrie et Topologie (AGT) }\\
169 % {\bf Séminaire de Géométrie Complexe}\\
185 \begin{frame
}[plain
]{Plan
}
191 \section{Introduction
}
193 \subsection{Définition de la problèmatique
}
196 \begin{frame
}{Définition de la problèmatique
}
198 Résoudre le problème $
\mathcal{P
} $ :
202 \displaystyle\min_{x
\in \mathbb{R
}^n
} J(x) \\
208 où $$ g:
\mathbb{R
}^n
\longrightarrow \mathbb{R
}^p,\ h:
\mathbb{R
}^n
\longrightarrow \mathbb{R
}^q\ et\ J:
\mathbb{R
}^n
\longrightarrow \mathbb{R
} $$
210 \centerline{à l'aide de méthodes numériques itératives.
}
213 \section{Méthode de descente
}
215 \subsection{Définition
}
218 \begin{frame
}{Définition d'une méthode de descente
}
220 Générer une suite d’itérés $ (x_k)_
{k
\in \mathbb{N
}} $ de $
\mathbb{R
}^n $ avec :
221 \centerline{$ x_0
\in \mathbb{R
}^n $ arbitraire,
}
222 \centerline{$ x_
{k+
1} = x_k + s_kd_k $ où $ s_k
\in \mathbb{R
}_
{+
}^
{*
},d_k
\in \mathbb{R
}^n $
}
224 $$
\forall k
\in \mathbb{N
} \ J(x_
{k+
1})
\leq J(x_k) $$
228 \subsection{Algorithme
}
231 \begin{frame
}{Algorithme de descente modèle
}
232 \begin{block
}{ALGORITHME DE DESCENTE MODÈLE.
}
233 \textit{Entrées
}: $ J :
\mathbb{R
}^n
\longrightarrow \mathbb{R
} $ différentiable, $ x_0
\in \mathbb{R
}^n $ point initial arbitraire.
235 \textit{Sortie
}: une approximation $ x_k $ de la solution $ x^
\ast $ du problème : $
\displaystyle\min_{x
\in \mathbb{R
}^n
} J(x) $.
238 \item Tant que "test d’arrêt" non satisfait,
240 \item Trouver une direction de descente $ d_k $ telle que : $
\nabla J(x_k)^
\top d_k <
0 $.
241 \item \textit{Recherche linéaire
} : Choisir un pas $ s_k >
0 $ à faire dans cette direction et tel que : $$ J(x_k + s_kd_k) < J(x_k). $$
242 \item Mise à jour : $ x_
{k+
1} = x_k + s_kd_k; \ k := k +
1 $.
244 \item Retourner $ x_k $.
249 \subsubsection{Direction de descente
}
252 \begin{frame
}{Direction de descente
}
253 Deux grandes stratégies :
255 \item la stratégie de Cauchy : $ d_k = -
\nabla J(x_k) $, conduisant aux
\textit{algorithmes de gradient
}.
256 \item la stratégie de Newton : $ d_k = -H
[J
](x_k)^
{-
1} \nabla J(x_k) $, conduisant aux
\textit{algorithmes Newtoniens
}.
260 \subsubsection{Critère d'arrêt
}
263 \begin{frame
}{Critère d'arrêt
}
264 \centerline{Critère d’arrêt =
}
266 Test d’optimalité satisfait($
\norme{\nabla J(x_k)
} <
\varepsilon$) \\
267 OU (Stagnation de la valeur courante($
\norme{x_
{k+
1} - x_k
} <
\varepsilon(
1 +
\norme{x_k
}) $) \\
268 ET Stagnation de la solution($ |J(x_
{k+
1}) - J(x_k)| <
\varepsilon(
1 + |J (x_k)|) $)) \\
269 OU Nombre d’itérations maximum autorisé dépassé($ k < IterMax $)
273 \subsubsection{Recherche linéaire
}
276 \begin{frame
}{Recherche linéaire
}
277 \begin{block
}{RECHERCHE LINÉAIRE : PAS FIXE.
}
280 \begin{block
}{RECHERCHE LINÉAIRE : PAS OPTIMAL.
}
281 $ s_k $ solution du problème $
\displaystyle\min_{s
\in \mathbb{R
}_
{+
}^
{*
}} J(x_k + sd_k) $
285 \subsubsection{Méthode Newtonienne
}
288 \begin{frame
}{Méthode Newtonienne I
}
289 Choix de la direction de descente $ d_k = -H
[J
](x_k)^
{-
1} \nabla J(x_k) $ solution unique du problème :
291 $$
\underset{d
\in \mathbb{R
}^n
}{\mathrm{argmin
}} \ J(x_k) +
\langle \nabla J(x_k),d
\rangle +
\frac{1}{2}\langle H
[J
](x_k)d,d
\rangle $$
293 $
\iff d_k $ est le point de minimum global de l’approximation quadratique de $ J $ au voisinage du point courant $ x_k $.
297 \begin{frame
}{Méthode Newtonienne II
}
298 \begin{tabular
}{|p
{15em
}|p
{15em
}|
}
300 Avantages & Inconvénients \\
302 sa convergence quadratique (le nombre de décimales exactes est multiplié par
2 à chaque itération). & \\
304 & les difficultés et le coût de calcul de la hessienne $ H
[J
](x_k) $ : l’expression analytique des dérivées secondes est rarement disponible dans les applications. \\
306 & le coût de résolution du système linéaire $ H
[J
](x_k )(x_
{k+
1} - x_k) =
\nabla J(x_k) $. \\
308 & l’absence de convergence si le premier itéré est trop loin de la solution, ou si la hessienne est singulière. \\
310 & pas de distinction entre minima, maxima et points stationnaires. \\
315 \section{Méthode PQS
}
317 \subsection{Principe général
}
320 \begin{frame
}{Principe général I
}
322 Résoudre le problème $
\mathcal{P
} $ :
326 \displaystyle\min_{x
\in \mathbb{R
}^n
} J(x) \\
332 où $$ g:
\mathbb{R
}^n
\longrightarrow \mathbb{R
}^p,\ h:
\mathbb{R
}^n
\longrightarrow \mathbb{R
}^q\ et\ J:
\mathbb{R
}^n
\longrightarrow \mathbb{R
}\ de\ classe\
\mathcal{C
}^
2. $$
337 \begin{frame
}{Principe général II
}
339 \item Conditions nécessaires et suffisantes d'existence et d'unicité d'une solution (
\textit{KKT
}, $ H
[J
] $ définie positive et convexité de $
\mathcal{P
} $).
340 \item Approximation quadratique du Lagrangien $ L $ de $
\mathcal{P
} $ par Taylor-Young à l'ordre
2 en $ x_k $:
341 $$ L(x,
\lambda,
\mu)
\approx L(x_k,
\lambda_k,
\mu_k) +
\nabla L(x_k,
\lambda_k,
\mu_k)^
\top (x - x_k) $$
342 $$ +
\frac{1}{2} (x - x_k)^
\top H
[L
](x_k,
\lambda_k,
\mu_k) (x - x_k) $$
343 \item Approximation linéaire de $ g $ et $ h $ par Taylor-Young à l'ordre
1 en $ x_k $ :
344 $$ g(x)
\approx g(x_k) +
\nabla g(x_k)^
\top(x - x_k) $$
345 $$ h(x)
\approx h(x_k) +
\nabla h(x_k)^
\top(x - x_k) $$
346 \item Condition d'optimalité sur le Lagrangien $ L $ de $
\mathcal{P
} $ :
347 $$
\nabla L(x_k,
\lambda_k,
\mu_k)^
\top (x - x_k) +
\frac{1}{2} (x - x_k)^
\top H
[L
](x_k,
\lambda_k,
\mu_k) (x - x_k) $$
352 \begin{frame
}{Principe général III
}
354 Résoudre le sous-problème quadratique $
\mathcal{PQ
}_k $ avec contraintes linéaires :
356 \mathcal{PQ
}_k
\left \
{
358 \displaystyle\min_{d
\in \mathbb{R
}^n
} \nabla J(x_k)^
\top d +
\frac{1}{2}d^
\top H_k d \\
359 g_j(x_k) +
\nabla g_j(x_k)^
\top d
\leq 0, \
\forall j
\in \
{1,
\ldots,p\
} \\
360 h_i(x_k) +
\nabla h_i(x_k)^
\top d =
0, \
\forall i
\in \
{1,
\ldots,q\
}
364 où $ d = x - x_k $ et $ H_k = H
[L
](x_k,
\lambda_k,
\mu_k) $ symétrique (Schwarz).
366 \centerline{$
\implies $ La solution $ d_k $ est la valeur optimale de direction de descente.
}
369 \subsection{Algorithme PQS
}
372 \begin{frame
}{Algorithme PQS
}
373 \begin{block
}{ALGORITHME PQS AVEC CONSTRAINTES D'ÉGALITÉ ET D'INÉGALITÉ.
}
374 \textit{Entrées
}: $ J :
\mathbb{R
}^n
\longrightarrow \mathbb{R
} $, $g:
\mathbb{R
}^n
\longrightarrow \mathbb{R
}^p$, $ h :
\mathbb{R
}^n
\longrightarrow \mathbb{R
}^q $ différentiables, $ x_0
\in \mathbb{R
}^n $ point initial arbitraire, $
\lambda_0 \in \mathbb{R
}_+^p $ et $
\mu_0 \in \mathbb{R
}_+^q $ multiplicateurs initiaux, $
\varepsilon >
0 $ précision demandée.
376 \textit{Sortie
}: une approximation $ x_k $ de la solution $ x^
\ast $ du problème $
\mathcal{P
} $.
379 \item Tant que $
\norme{\nabla L(x_k,
\lambda_k,
\mu_k)
} >
\varepsilon $,
381 \item Résoudre le sous-problème quadratique :
383 \mathcal{PQ
}_k
\left \
{
385 \displaystyle\min_{d
\in \mathbb{R
}^n
} \nabla J(x_k)^
\top d +
\frac{1}{2}d^
\top H_k d \\
386 g_j(x_k) +
\nabla g_j(x_k)^
\top d
\leq 0, \
\forall j
\in \
{1,
\ldots,p\
} \\
387 h_i(x_k) +
\nabla h_i(x_k)^
\top d =
0, \
\forall i
\in \
{1,
\ldots,q\
}
391 et obtenir la solution primale $ d_k $ et les multiplicateurs $
\lambda^
{\prime} $ et $
\mu^
{\prime} $ associé aux contraintes d’inégalité et d’égalité respectivement.
392 \item $ x_
{k+
1} = x_k + d_k; \
\lambda_{k+
1} =
\lambda^
{\prime}; \
\mu_{k+
1} =
\mu^
{\prime}; \ k := k +
1 $.
394 \item Retourner $ x_k $.
402 \begin{beamerboxesrounded
}%
403 [lower=block title,
%
407 {\Large \textbf{{\color{mycvblue
}Merci pour votre attention.
}}}\\
409 {\Large \textbf{{\color{mycvblue
}Questions?
}}}\\
411 \end{beamerboxesrounded
}