1 \documentclass[9pt,blackandwhite,roman,handout
]{beamer
}
4 \usefonttheme{professionalfonts
}
10 %\usecolortheme{seahorse}
12 \usecolortheme{seagull
}
13 %\usefonttheme[onlylarge]{structurebold}
14 %\setbeamerfont*{frametitle}{size=\normalsize,series=\bfseries}
15 %\setbeamertemplate{navigation symbols}{}
20 %\usepackage[frenchb]{babel}
21 %\usepackage[english]{babel}
22 \usepackage[utf8
]{inputenc}
23 %\usepackage[T1]{fontenc}
25 \usepackage[sans
]{dsfont
}
29 \usepackage[cal=euler,scr=rsfso
]{mathalfa
}%bb=cm,
32 \usepackage{mathrsfs
} % pour faire des majuscules calligraphiées \mathcal{blabla}
33 %\usepackage[french,lined]{algorithm2e} % rajouter linesnumbered dans les arguments pour numéroter les lignes des algos, boxed pour l'encadrement
34 %\usepackage{extsizes}
35 %\usepackage{MnSymbol}
42 %\usepackage[varg]{txfonts}
45 %\usepackage{MyMnSymbol}
48 %\usepackage{mathtools}
55 \usetikzlibrary{matrix,arrows
}
56 \tikzstyle{block
}=
[draw opacity=
0.7,line width=
1.4cm
]
58 \newcommand{\gk}{$g_k =
\left \
{ \begin{array
}{ll
}
59 q^k+q^
{k-
1}-q^
\frac{k+
1}{2} -
2q^
\frac{k-
1}{2}+
1 &
\mbox{si
} k
\equiv 1 \pmod 2,\\
60 q^k+q^
{k-
1}-
\frac{1}{2}q^
{\frac{k
}{2}+
1} -
\frac{3}{2}q^
{\frac{k
}{2}}-q^
{\frac{k
}{2}-
1} +
1&
\mbox{si
} k
\equiv 0 \pmod 2.
61 \end{array
} \right .$
}
63 \newcommand{\ext}{\xymatrix{
64 \FF=
\Fq(x)(y)
\ar@
{-
}[d
]^
{<
\infty} \\
\Fq(x)
\ar@
{-
}[d
] \\
\Fq} }
66 \newcommand{\twoheaddownarrow}{%
67 \mathrel{\reflectbox{\rotatebox[origin=c
]{-
90}{$
\xtwoheadrightarrow[ \;
]{ \reflectbox{\rotatebox[origin=c
]{-
90}{$
\pi_Q \ $
}} \ \
}$
}}}}
69 \newcommand{\longdownmapsto}{%
70 \mathrel{\reflectbox{\rotatebox[origin=c
]{-
90}{$
\xmapsto{ \ \ \
\reflectbox{\rotatebox[origin=c
]{-
90}{$
\pi_Q \ $
}} \ \ \
}$
}}}}
72 \newcommand{\bigubrace}[1]{\underbrace{\mbox{}f(P_i), f'(P_i),
\ldots, f^
{(
\ell_i-
1)
}(P_i)
\vphantom{\sum_0^
0}\hspace{#1}\mbox{}}_?
}
74 \newcommand{\myubrace}[2]{\rotatebox[origin=c
]{90}{$
75 \rotatebox[origin=c
]{-
90}{#1} \left \
{
79 \right .
\hspace{-
1em
}
82 \newcommand{\bluebrace}{{\color{blue
}\left\
{}}
84 \newcommand{\norme}[1]{\left\Vert #1 \right\Vert}
86 \definecolor{mycvblue
}{rgb
}{0.302,
0.537,
0.737}
88 \setbeamercolor{structure
}{fg=mycvblue
}
89 \setbeamercolor{palette primary
}{fg=mycvblue
}
90 \setbeamercolor{subsection in head/foot
}{parent=palette primary
}
92 \setbeamertemplate{navigation symbols
}{
93 % \insertslidenavigationsymbol
94 % \insertframenavigationsymbol
95 % \insertsubsectionnavigationsymbol
96 % \insertsectionnavigationsymbol
97 % \insertdocnavigationsymbol
98 % \insertbackfindforwardnavigationsymbol
101 %\renewcommand{\item}{\item[$\bullet$]}
103 \title[]{\LARGE{\textsc{Méthode de Programmation Quadratique Séquentielle ou PQS\\ en\\ Optimisation non linéraire sous contraintes
}}}
105 \author[Jérôme
{\textsc Benoit
} \& Sylvain
{\textsc Papa
}]{\textbf{Jérôme
{\textsc Benoit
}\\
\textbf{Sylvain
{\textsc Papa
}}}}
107 \date[]{{\bf HUGo
}\\
{\bf Polytech'Marseille
} \\
{\small Novembre
2018}}
109 \newtheorem{defin
}{Définition
}
110 \newtheorem{theoreme
}{Théorème
}
111 \newtheorem{lemme
}{Lemme
}
112 \newtheorem{corollaire
}{Corollaire
}
113 \newtheorem{proposition
}{Proposition
}
114 \newtheorem{propriete
}{Propriété
}
115 %\newtheorem{exemple}[definition]{Exemple}
117 \newcommand{\NN}{\ensuremath{\mathbb{N
}}}
118 \newcommand{\CC}{\ensuremath{\mathbb{C
}}}
119 \newcommand{\ZZ}{\ensuremath{\mathbb{Z
}}}
120 \newcommand{\PF}{\mathbf{P
}_F
}
121 \newcommand{\DF}{\mathsf{Div
}(F)
}
122 \newcommand{\Jac}{\ensuremath{\mathcal{J
}\mathsf{ac
}(F/
\Fq)
}}
123 \newcommand{\Fqr}[2][q
]{\mathds{F
}_
{\!
{#1}^
{#2}}}
124 \newcommand{\Fq}{\Fqr{}}
125 \newcommand{\F}{\mathds{F
}}
126 \newcommand{\FF}{\mathsf{F
}}
127 \newcommand{\Fqn}{\Fqr{n
}}
128 \newcommand{\D}[1][D
]{\ensuremath{\mathcal{#1}}}
129 \newcommand{\Ld}[1][\D]{\ensuremath{\mathscr{L
}\!\!
\left(
#1\right)
}} % utilisation : \Ld ou \Ld[A] pour un diviseur A au lieu de D
130 \newcommand{\Ak}[1][k
]{\ensuremath{\mathbb{A
}_
{#1}}}
131 \newcommand{\A}{\ensuremath{\mathsf{A
}}}
132 \newcommand{\Cl}{\ensuremath{\mathsf{Cl
}}}
133 \newcommand{\mus}{\ensuremath{\mu^
\mathsf{sym
}}}
134 \newcommand{\Ms}{\ensuremath{M^
\mathsf{sym
}}}
135 \newcommand{\ms}{\ensuremath{m^
\mathsf{sym
}}}
136 \newcommand{\chch}{{C
}hudnovsky-
{C
}hudnovsky
}
137 \newcommand{\ch}{{C
}hudnovsky
}
139 \addtobeamertemplate{footline
}{\texttt{\hfill\insertframenumber/
{\inserttotalframenumber}}}
141 % \AtBeginSubsection[] {
142 % \begin{frame}<beamer>
144 % \tableofcontents[currentsection,currentsubsection]
147 % \AtBeginSection[] {
148 % \begin{frame}<beamer>
150 % \tableofcontents[currentsection]%,currentsubsection]
154 \setbeamertemplate{sections/subsections in toc
}[sections numbered
]
155 %\setbeamertemplate{sections in toc}[sections numbered]
159 % \begin{frame}[plain]
163 % {\bf Institut de Mathématiques de Marseille}\\
165 % {\bf Equipe Analyse, Géométrie et Topologie (AGT) }\\
169 % {\bf Séminaire de Géométrie Complexe}\\
185 \begin{frame
}[plain
]{Plan
}
191 \section{Introduction
}
193 \subsection{Définition de la problèmatique
}
196 \begin{frame
}{Définition de la problèmatique
}
198 Résoudre le problème $
\mathcal{P
} $ :
202 \displaystyle\min_{x
\in \mathbb{R
}^n
} J(x) \\
210 $ g:
\mathbb{R
}^n
\longrightarrow \mathbb{R
}^p $ représente les contraintes d'inégalité,
213 $ h:
\mathbb{R
}^n
\longrightarrow \mathbb{R
}^q $ représente les contraintes d'égalité,
217 $ J:
\mathbb{R
}^n
\longrightarrow \mathbb{R
} $ est la fonction objectif ou coût.
219 en utilisant des méthodes numériques itératives.
221 On définit $
\mathcal{C
} $ l'ensemble des contraintes par :
222 $$
\mathcal{C
} =
\left \
{ x
\in \mathbb{R
}^n \ | \ g(x)
\leq 0 \land h(x) =
0 \right \
} $$
226 \subsection{Prérequis mathématiques
}
229 \begin{frame
}{Prérequis mathématiques I
}
231 On définit le Lagrangien associé à $
\mathcal{P
} $ par :
232 $$
\begin{array
}{r c l
}
233 L :
\mathbb{R
}^n
\times \mathbb{R
}^q
\times \mathbb{R
}_+^p &
\longrightarrow &
\mathbb{R
} \\
234 (x,
\lambda,
\mu) &
\longmapsto & L(x,
\lambda,
\mu) = J(x) +
\sum\limits_{i=
1}^
{q
} \lambda_i h_i(x) +
\sum\limits_{j=
1}^
{p
} \mu_j g_j(x) \\
235 & & L(x,
\lambda,
\mu) = J(x) +
\langle \lambda,h(x)
\rangle_{\mathbb{R
}^q
} +
\langle \mu,g(x)
\rangle_{\mathbb{R
}^p
}
237 où l’on note $
\lambda $ et $
\mu $ les vecteurs de coordonnées respectives $ (
\lambda_1,
\ldots,
\lambda_q) $ et $ (
\mu_1,
\ldots,
\mu_p) $.
240 Soit une fonction $ f:
\mathbb{R
}^n
\longrightarrow \mathbb{R
} $ différentiable.
242 Le gradient de $ f $, noté $
\nabla f$, en $ x^
\ast \in \mathbb{R
}^n$ se définit par :
244 \nabla f(x^
\ast) = (
\frac{\partial f
}{\partial x_1
}(x^
\ast),
\ldots,
\frac{\partial f
}{\partial x_n
}(x^
\ast))
250 \begin{frame
}{Prérequis mathématiques II : Conditions nécessaires d'optimalité de Karuch-Kuhn-Tucker ou
\textit{KKT
}}
252 Soient $ J, g, h $ de classe $
\mathcal{C
}^
1 $, $ x^
\ast \in \mathbb{R
}^n $, $ I = \
{ 1,
\ldots,p \
} $ et $ J = \
{ 1,
\ldots,q \
} $.
254 Les conditions nécessaires pour que $ x^
\ast \in \mathcal{C
}$ soit un minimum local de $ J $ sont :
256 $ \
{ \nabla g_1(x^
\ast),
\ldots,
\nabla g_p(x^
\ast),
\nabla h_1(x^
\ast),
\ldots,
\nabla h_q(x^
\ast) \
} $ sont linéairement indépendants.
260 $
\forall i
\in I \
\exists \mu_i \in \mathbb{R
}_
{+
} \land \forall j
\in J \
\exists \lambda_j \in \mathbb{R
} $ tels que :
263 $
\nabla J(x^
\ast) +
\sum\limits_{i
\in I
}\mu_i{\nabla g_i(x^
\ast)
} +
\sum\limits_{j
\in J
}\lambda_j{\nabla h_j(x^
\ast)
} =
0 \land \forall i
\in I \
\mu_i \nabla g_i(x^
\ast) =
0 $
266 $
\iff \nabla L(x^
\ast,
\lambda,
\mu) =
0 \land \forall i
\in I \
\mu_i \nabla g_i(x^
\ast) =
0 $ où $
\lambda = (
\lambda_1,
\ldots,
\lambda_q) $ et $
\mu = (
\mu_1,
\ldots,
\mu_p) $.
268 % On appelle $ (\mu_i)_{i \in I}$ les multiplicateurs de Kuhn-Tucker et $ (\lambda_j)_{j \in J}$ les multiplicateurs de Lagrange.
270 On nomme également les conditions
\textit{KTT
} conditions nécessaires d'optimalité du premier ordre.
275 \begin{frame
}{Prérequis mathématiques II : Conditions suffisantes d'optimalité
}
278 \section{Méthode PQS
}
280 \subsection{Algorithme PQS
}
283 \begin{frame
}{Algorithme PQS
}
284 \begin{block
}{ALGORITHME PQS AVEC CONSTRAINTES D'ÉGALITÉ ET D'INÉGALITÉ.
}
285 \textit{Entrées
}: $ J :
\mathbb{R
}^n
\longrightarrow \mathbb{R
} $, $g:
\mathbb{R
}^n
\longrightarrow \mathbb{R
}^p$, $ h :
\mathbb{R
}^n
\longrightarrow \mathbb{R
}^q $ différentiables, $ x_0
\in \mathbb{R
}^n $ point initial arbitraire, $
\lambda_0 \in \mathbb{R
}_+^p $ et $
\mu_0 \in \mathbb{R
}_+^q $ multiplicateurs initiaux, $
\varepsilon >
0 $ précision demandée.
287 \textit{Sortie
}: une approximation $ x_k $ de la solution $ x^
\ast $ du problème $
\mathcal{P
} $.
290 \item Tant que $
\norme{\nabla L(x_k,
\lambda_k,
\mu_k)
} >
\varepsilon $,
292 \item Résoudre le sous-problème quadratique :
294 \mathcal{PQ
}_k
\left \
{
296 \displaystyle\min_{d
\in \mathbb{R
}^n
} \nabla J(x_k)^
\top d +
\frac{1}{2}d^
\top H_k d \\
297 g_j(x_k) +
\nabla g_j(x_k)^
\top d
\leq 0, \
\forall j
\in \
{1,
\ldots,p\
} \\
298 h_i(x_k) +
\nabla h_i(x_k)^
\top d =
0, \
\forall i
\in \
{1,
\ldots,q\
}
302 et obtenir la solution primale $ d_k $ et les multiplicateurs $
\lambda^
{\prime} $ et $
\mu^
{\prime} $ associé aux contraintes d’inégalité et d’égalité respectivement.
303 \item $ x_
{k+
1} = x_k + d_k; \
\lambda_{k+
1} =
\lambda^
{\prime}; \
\mu_{k+
1} =
\mu^
{\prime}; \ k := k +
1 $.
305 \item Retourner $ x_k $.
310 \subsection{La méthode PQS est une méthode de descente
}
313 \begin{frame
}{Définition d'une méthode de descente
}
315 Générer une suite d’itérés $ (x_k)_
{k
\in \mathbb{N
}} $ de $
\mathbb{R
}^n $ avec :
317 $ x_0
\in \mathbb{R
}^n $ arbitraire,
320 $ x_
{k+
1} = x_k + s_kd_k $,
323 $$
\forall k
\in \mathbb{N
} \ J(x_
{k+
1})
\leq J(x_k) $$
326 $ s_k
\in \mathbb{R
}_
{+
}^
{*
} $ est le pas de descente
330 $ d_k
\in \mathbb{R
}^n $ est la direction de descente.
336 \begin{frame
}{Caractérisation d'une direction de descente
}
338 Soient $ J :
\mathbb{R
}^n
\longrightarrow \mathbb{R
} $ différentiable et $ d
\in \mathbb{R
}^n $.
340 d est un vecteur de descente de $ J $ en $ x_0
\in \mathbb{R
}^n $ ssi :
341 $$
\nabla J(x_0)^
\top d <
0 $$
343 $$
\forall \beta <
1 \in \mathbb{R
}_
{+
} \
\exists \eta \in \mathbb{R
}_
{+
}^
{*
} \
\forall t
\in ]0,
\eta] \ J(x_0 + td) < J(x_0) + t
\beta \nabla J(x_0)^
\top d < J(x_0) $$
348 \begin{frame
}{Algorithme de descente générique
}
349 \begin{block
}{ALGORITHME DE DESCENTE GÉNÉRIQUE.
}
350 \textit{Entrées
}: $ J :
\mathbb{R
}^n
\longrightarrow \mathbb{R
} $ différentiable, $ x_0
\in \mathbb{R
}^n $ point initial arbitraire.
352 \textit{Sortie
}: une approximation $ x_k $ de la solution $ x^
\ast $ du problème : $
\displaystyle\min_{x
\in \mathbb{R
}^n
} J(x) $.
355 \item Tant que "test d’arrêt" non satisfait,
357 \item Trouver une direction de descente $ d_k $ telle que : $
\nabla J(x_k)^
\top d_k <
0 $.
358 \item \textit{Recherche linéaire
} : Choisir un pas $ s_k >
0 $ à faire dans cette direction et tel que : $$ J(x_k + s_kd_k) < J(x_k). $$
359 \item Mise à jour : $ x_
{k+
1} = x_k + s_kd_k; \ k := k +
1 $.
361 \item Retourner $ x_k $.
367 \begin{frame
}{Critère d'arrêt
}
370 Critère d’arrêt $$
\parallel $$
373 & Test d’optimalité satisfait ($
\norme{\nabla J(x_k)
} <
\varepsilon$) \\
374 OU & (Stagnation de la valeur courante ($
\norme{x_
{k+
1} - x_k
} <
\varepsilon(
1 +
\norme{x_k
}) $) \\
375 & ET Stagnation de la solution ($ |J(x_
{k+
1}) - J(x_k)| <
\varepsilon(
1 + |J (x_k)|) $)) \\
376 OU & Nombre d’itérations maximum autorisé dépassé ($ k < IterMax $)
382 \begin{frame
}{Recherche linéaire
}
383 \begin{block
}{RECHERCHE LINÉAIRE : PAS FIXE.
}
386 \begin{block
}{RECHERCHE LINÉAIRE : PAS OPTIMAL.
}
387 $ s_k $ solution du problème $
\displaystyle\min_{s
\in \mathbb{R
}_
{+
}^
{*
}} J(x_k + sd_k) $
392 \begin{frame
}{Application à l'algorithme PQS
}
393 \begin{block
}{Cas de l'algorithme PQS
}
395 \item le critère d'arrêt est $
\norme{\nabla L(x_k,
\lambda_k,
\mu_k)
} >
\varepsilon $;
396 \item le pas $ s_k $ est fixe tel que $
\forall k
\in \mathbb{N
} \ s_k =
1 $. Il est possible d'ajouter une étape de recherche linéaire d'un pas optimal;
397 \item la direction de descente $ d_k $ est une approximation de $ -H
[J
](x_k)^
{-
1} \nabla J(x_k) $.
402 \subsection{La méthode PQS est une méthode Newtonienne
}
405 \begin{frame
}{Méthode Newtonienne I
}
407 Une méthode de descente est dite Newtonienne si
408 $$ d_k = -H
[J
](x_k)^
{-
1} \nabla J(x_k). $$
409 Ce type de méthodes conduit aux
\textit{algorithmes Newtoniens
}.
411 La direction de descente $ d_k = -H
[J
](x_k)^
{-
1} \nabla J(x_k) $ est l'unique solution du problème :
413 $$
\underset{d
\in \mathbb{R
}^n
}{\mathrm{argmin
}} \ J(x_k) +
\langle \nabla J(x_k),d
\rangle +
\frac{1}{2}\langle H
[J
](x_k)d,d
\rangle $$
415 $
\iff d_k $ est le point de minimum global de l’approximation quadratique de $ J $ au voisinage du point courant $ x_k $.
419 \begin{frame
}{Méthode Newtonienne II
}
420 \begin{tabular
}{|p
{15em
}|p
{15em
}|
}
422 Avantages & Inconvénients \\
424 sa convergence quadratique (le nombre de décimales exactes est multiplié par
2 à chaque itération). & \\
426 & les difficultés et le coût de calcul de la hessienne $ H
[J
](x_k) $ : l’expression analytique des dérivées secondes est rarement disponible dans les applications. \\
428 & le coût de résolution du système linéaire $ H
[J
](x_k )(x_
{k+
1} - x_k) =
\nabla J(x_k) $. \\
430 & l’absence de convergence si le premier itéré est trop loin de la solution, ou si la hessienne est singulière. \\
432 & pas de distinction entre minima, maxima et points stationnaires. \\
437 \subsection{Principe général de la méthode PQS
}
440 \begin{frame
}{Principe général I
}
441 Principe de résolution du problème $
\mathcal{P
} $ en utilisant la méthode PQS :
443 \item Établir les conditions nécessaires et suffisantes d'existence et d'unicité d'une solution :
445 \item Conditions suffisantes
\textit{KKT
};
446 \item Conditions nécessaires $ H
[J
] $ définie positive;
447 \item Condition(s) de convexité de $
\mathcal{P
} $.
449 \item Approximation quadratique du Lagrangien $ L $ de $
\mathcal{P
} $ par Taylor-Young à l'ordre
2 en $ x_k $:
450 $$ L(x,
\lambda,
\mu)
\approx L(x_k,
\lambda_k,
\mu_k) +
\nabla L(x_k,
\lambda_k,
\mu_k)^
\top (x - x_k) $$
451 $$ +
\frac{1}{2} (x - x_k)^
\top H
[L
](x_k,
\lambda_k,
\mu_k) (x - x_k) $$
452 \item Approximation linéaire de $ g $ et $ h $ par Taylor-Young à l'ordre
1 en $ x_k $ :
453 $$ g(x)
\approx g(x_k) +
\nabla g(x_k)^
\top(x - x_k) $$
454 $$ h(x)
\approx h(x_k) +
\nabla h(x_k)^
\top(x - x_k) $$
455 \item Condition d'optimalité sur le Lagrangien $ L $ de $
\mathcal{P
} $ :
456 $$
\nabla L(x_k,
\lambda_k,
\mu_k)^
\top (x - x_k) +
\frac{1}{2} (x - x_k)^
\top H
[L
](x_k,
\lambda_k,
\mu_k) (x - x_k) $$
461 \begin{frame
}{Principe général II
}
463 Résoudre le sous-problème quadratique $
\mathcal{PQ
}_k $ avec contraintes linéaires :
465 \mathcal{PQ
}_k
\left \
{
467 \displaystyle\min_{d
\in \mathbb{R
}^n
} \nabla J(x_k)^
\top d +
\frac{1}{2}d^
\top H_k d \\
468 g_j(x_k) +
\nabla g_j(x_k)^
\top d
\leq 0, \
\forall j
\in \
{1,
\ldots,p\
} \\
469 h_i(x_k) +
\nabla h_i(x_k)^
\top d =
0, \
\forall i
\in \
{1,
\ldots,q\
}
473 où $ d = x - x_k $ et $ H_k = H
[L
](x_k,
\lambda_k,
\mu_k) $ symétrique (Schwarz).
476 $
\implies $ La solution $ d_k $ de $
\mathcal{PQ
}_k $ est la valeur optimale de direction de descente.
480 \subsection{Optimisation quadratique sous contraintes linéaires
}
483 \begin{frame
}{Problème quadratique avec contraintes linéaires
}
486 \mathcal{PQ
} \left \
{
488 \displaystyle\min_{x
\in \mathbb{R
}^n
} c^
\top x +
\frac{1}{2} x^
\top \mathcal{Q
} x \\
493 où $$
\mathcal{Q
} \in \mathcal{M
}_n(
\mathbb{R
}) \ sym
\acute{e
}trique, c
\in \mathbb{R
}^n, A
\in \mathcal{M
}_
{n,p
}(
\mathbb{R
}), b
\in \mathbb{R
}^p $$
496 Soit $ F_
\mu $ définit par :
497 $$ F_
\mu(x,
\lambda, s) =
499 \mathcal{Q
}x - A^
\top \lambda -s -c \\
505 $$ X = diag(x)
\in \mathcal{M
}_n(
\mathbb{R
}), S = diag(s)
\in \mathcal{M
}_n(
\mathbb{R
}), s >
0 \ et \
\mu \in \mathbb{R
}^n $$
509 \subsection{Algorithme des points intérieurs
}
512 \begin{frame
}{Algorithme des points intérieurs
}
513 \begin{block
}{ALGORITHME DES POINTS INTÉRIEURS.
}
514 \textit{Entrées
}: $ F_
\mu :
\mathbb{R
}^n
\times \mathbb{R
}^p
\times \mathbb{R
}^n
\longrightarrow \mathcal{M
}_
{n,
2n+p
}(
\mathbb{R
}) $, $ (x_0,
\lambda_0,s_0)
\in \mathbb{R
}^n
\times \mathbb{R
}^p
\times \mathbb{R
}^n $ où $ (x_0,s_0) >
0 $ point initial arbitraire, $
\varepsilon >
0 $ précision demandée.
516 \textit{Sortie
}: une approximation $ x_k $ de la solution $ x^
\ast $, avec son coefficient $
\lambda_k $, du problème $
\mathcal{PQ
} $.
519 \item Tant que $
\frac{x_k^
\top s_k
}{n
} >
\varepsilon $,
521 \item Choisir $
\sigma_k \in [\sigma_{min
},
\sigma_{max
}]$
522 \item Résoudre le sytème linéaire d'équations où $ J_
{F_
\mu}(x_k,
\lambda_k,s_k) $ désigne la matrice jacobienne de $ F_
\mu $:
523 $$ J_
{F_
\mu}(x_k,
\lambda_k,s_k) d = -
525 \mathcal{Q
}x - A^
\top \lambda -s -c \\
529 pour déterminer $ d_k = (d_
{x_k
},d_
{\lambda_k},d_
{s_k
}) $.
530 \item Choisir $
\alpha_{max
} $ la plus grande valeur $
\alpha $ tel que $ (x_k,s_k) +
\alpha(d_
{x_k
},d_
{s_k
}) >
0 $.
531 \item Choisir $
\alpha_k =
\min \
{1,
\eta_k \sigma_{max
} $ tel que $
\exists \eta_k \in [0,
1]\
} $.
532 \item $
\mu_k =
\frac{x_k^
\top s_k
}{n
} $; $ (x_
{k+
1},
\lambda_{k+
1},s_
{k+
1}) := (x_k,
\lambda_k,s_k) +
\alpha_k d_k $; $ k := k +
1 $.
534 \item Retourner $ (x_k,
\lambda_k,s_k) $.
542 \begin{beamerboxesrounded
}%
543 [lower=block title,
%
547 {\Large \textbf{{\color{mycvblue
}Merci pour votre attention.
}}}\\
549 {\Large \textbf{{\color{mycvblue
}Questions?
}}}\\
551 \end{beamerboxesrounded
}