Finish the slides.
[Projet_Recherche_Operationnelle.git] / présentation / Slides_ProjetOptimRO.tex
index a7880f241d78f32a012aefeb13a494bb05418391..eade499f142b328ca34df222514b268e7a9192d9 100644 (file)
@@ -3,7 +3,6 @@
 
 \usefonttheme{professionalfonts}
 
-
 % Setup appearance:
 %\usetheme{Warsaw}
 \usetheme{Darmstadt}
 %\usepackage{MyMnSymbol}
 \usepackage{comment}
 %\usepackage{etex}
-%usepackage{mathtools}
+%\usepackage{mathtools}
 %\usepackage{fourier}
 
 \usepackage{ragged2e}
-\justifying
 
 % Setup TikZ
 \usepackage{tikz}
@@ -83,10 +81,10 @@ $}}
 
 \newcommand{\bluebrace}{{\color{blue}\left\{}}
 
+\newcommand{\norme}[1]{\left\Vert #1 \right\Vert}
 
 \definecolor{mycvblue}{rgb}{0.302,0.537,0.737}
 
-
 \setbeamercolor{structure}{fg=mycvblue}
 \setbeamercolor{palette primary}{fg=mycvblue}
 \setbeamercolor{subsection in head/foot}{parent=palette primary}
@@ -102,15 +100,11 @@ $}}
 
 %\renewcommand{\item}{\item[$\bullet$]}
 
+\title[]{\LARGE{\textsc{Méthode de Programmation Quadratique Séquentielle ou PQS\\ en\\ Optimisation non linéraire sous contraintes}}}
 
+\author[Jérôme {\textsc Benoit} \& Sylvain {\textsc Papa}]{\textbf{Jérôme {\textsc Benoit}\\ \textbf{Sylvain {\textsc Papa}}}}
 
-\title[]{\LARGE{\textsc{Familles denses de courbes modulaires, nombres premiers\\ et \\rang de tenseur symétrique uniforme de la multiplication dans les corps finis}}}
-
-\author[Alexey {\textsc Zykin}]{\textbf{Alexey {\textsc Zykin}$^{\dag}$} \\ (\textbf{1984 - 2017}) \\Laboratoire GAATI \\Université de la Polynésie Française\\
-{\small National Research University Higher School of Economics} \\ Institute for Information Transmission Problems of the Russian Academy of Sciences\\\vspace{1em}\textbf{\textcolor{mycvblue}{en collaboration avec}}\\ \vspace{1em}  \textbf{Stéphane {\textsc Ballet}}\\ Equipe Arithmétique et Théorie de l'Information\\ Institut de Mathématiques de Marseille \\ Aix-Marseille Université}
-
-
-\date[]{\\ \vspace{2em} {\bf Séminaire GAATI}\\  {\bf UPF} \\{\small  Avril  2017}}
+\date[]{{\bf HUGo}\\ {\bf Polytech'Marseille} \\{\small Novembre 2018}}
 
 \newtheorem{defin}{Définition}
 \newtheorem{theoreme}{Théorème}
@@ -142,22 +136,20 @@ $}}
 \newcommand{\chch}{{C}hudnovsky-{C}hudnovsky}
 \newcommand{\ch}{{C}hudnovsky}
 
-
-
 \addtobeamertemplate{footline}{\texttt{\hfill\insertframenumber/{\inserttotalframenumber}}}
-%
-%\AtBeginSubsection[] {
-%\begin{frame}<beamer>
-%\frametitle{Plan}
-%\tableofcontents[currentsection,currentsubsection]
-%\end{frame}
-%}
-%\AtBeginSection[] {
-%\begin{frame}<beamer>
-%\frametitle{Plan}
-%\tableofcontents[currentsection]%,currentsubsection]
-%\end{frame}
-%}
+
+% \AtBeginSubsection[] {
+% \begin{frame}<beamer>
+% \frametitle{Plan}
+% \tableofcontents[currentsection,currentsubsection]
+% \end{frame}
+% }
+% \AtBeginSection[] {
+% \begin{frame}<beamer>
+% \frametitle{Plan}
+% \tableofcontents[currentsection]%,currentsubsection]
+% \end{frame}
+% }
 
 \setbeamertemplate{sections/subsections in toc}[sections numbered]
 %\setbeamertemplate{sections in toc}[sections numbered]
@@ -198,137 +190,210 @@ $}}
 
 \section{Introduction}
 
-\subsection{Définitions}
+\subsection{Définition de la problèmatique}
 
 %%%%% SLIDE 1
-\begin{frame}{Définition formelle I}
-
-\end{frame}
-
-%%%%% SLIDE 2
-\begin{frame}{Définition formelle II}
-
-\end{frame}
-
-%%%%% SLIDE 3
-\begin{frame}{Définition formelle III}
-
-\end{frame}
-
-\subsection{Quantités asymptotiques}
-
-%%%%% SLIDE 6
-\begin{frame}
-
+\begin{frame}{Définition de la problèmatique}
+ \begin{defin}
+  Résoudre le problème $ \mathcal{P} $ :
+  $$
+   \mathcal{P} \left \{
+   \begin{array}{l}
+    \displaystyle\min_{x \in \mathbb{R}^n} J(x) \\
+    g(x) \leq 0                                 \\
+    h(x) = 0
+   \end{array}
+   \right .
+  $$
+  où $$ g: \mathbb{R}^n \longrightarrow \mathbb{R}^p,\ h: \mathbb{R}^n \longrightarrow \mathbb{R}^q\ et\ J: \mathbb{R}^n \longrightarrow \mathbb{R} $$
+ \end{defin}
+ \centerline{à l'aide de méthodes numériques itératives.}
 \end{frame}
 
-\section{Algorithme de D.V. et G.V. Chudnovsky (1987)}
-
-\subsection{Avec des places rationnelles}
+\section{Méthode de descente}
 
-%%%%% SLIDE 9
-\begin{frame}{Algorithme original de Chudnovsky et Chudnovsky}
-
-\end{frame}
-
-\subsection{Principe}
-
-%%%%% SLIDE 8
-\begin{frame}{Principe pour multiplier avec l'algorithme de Chudnovsky}
-
-\end{frame}
-
-\subsection{Avec des places de degré un et deux}
-
-%%%%% SLIDE 10
-\begin{frame}{Evaluations sur des places de degré 1 et 2}
-
-\end{frame}
-
-\section{Conditions permettant l'utilisation de l'algorithme}
-
-\subsection{Conditions principales}
-
-%%%%% SLIDE 11
-\begin{frame}{Conditions suffisantes pour appliquer l'algorithme}
-
-\end{frame}
-
-\subsection{Applications}
-
-%%%%% SLIDE 11
-\begin{frame}{Le cas des extensions de petits degré}
+\subsection{Définition}
 
+%%%%% SLIDE 2
+\begin{frame}{Définition d'une méthode de descente}
+ \begin{defin}
+  Générer une suite d’itérés $ (x_k)_{k \in \mathbb{N}} $ de $ \mathbb{R}^n $ avec :
+  \centerline{$ x_0 \in \mathbb{R}^n $ arbitraire,}
+  \centerline{$ x_{k+1} = x_k + s_kd_k $ où $ s_k \in \mathbb{R}_{+}^{*},d_k \in \mathbb{R}^n $}
+  et
+  $$ \forall k \in \mathbb{N} \ J(x_{k+1}) \leq J(x_k) $$
+ \end{defin}
 \end{frame}
 
-\begin{frame}{Algorithme de Chudnovsky sur un corps de fonctions hyperelliptique de genre 2}
+\subsection{Algorithme}
 
+%%%%% SLIDE 3
+\begin{frame}{Algorithme de descente modèle}
+ \begin{block}{ALGORITHME DE DESCENTE MODÈLE.}
+  \textit{Entrées}: $ J : \mathbb{R}^n \longrightarrow \mathbb{R} $ différentiable, $ x_0 \in \mathbb{R}^n $ point initial arbitraire.
+  \newline
+  \textit{Sortie}: une approximation $ x_k $ de la solution $ x^\ast $ du problème : $ \displaystyle\min_{x \in \mathbb{R}^n} J(x) $.
+  \begin{enumerate}
+   \item $ k := 0 $.
+   \item Tant que "test d’arrêt" non satisfait,
+         \begin{enumerate}
+          \item Trouver une direction de descente $ d_k $ telle que : $ \nabla J(x_k)^\top d_k < 0 $.
+          \item \textit{Recherche linéaire} : Choisir un pas $ s_k > 0 $ à faire dans cette direction et tel que : $$ J(x_k + s_kd_k) < J(x_k). $$
+          \item Mise à jour : $ x_{k+1} = x_k + s_kd_k; \ k := k + 1 $.
+         \end{enumerate}
+   \item Retourner $ x_k $.
+  \end{enumerate}
+ \end{block}
 \end{frame}
 
+\subsubsection{Direction de descente}
 
-\begin{frame}{Exemple pour les \textit{petites} extensions $\F_{16^n}$ de $\F_{16}$}
-
+%%%%% SLIDE 4
+\begin{frame}{Direction de descente}
+ Deux grandes stratégies :
+ \begin{itemize}
+  \item la stratégie de Cauchy : $ d_k = -\nabla J(x_k) $, conduisant aux \textit{algorithmes de gradient}.
+  \item la stratégie de Newton : $ d_k = -H[J](x_k)^{-1} \nabla J(x_k) $, conduisant aux \textit{algorithmes Newtoniens}.
+ \end{itemize}
 \end{frame}
 
-\setbeamercovered{transparent}
-
-\begin{frame}
-
+\subsubsection{Critère d'arrêt}
+
+%%%%% SLIDE 5
+\begin{frame}{Critère d'arrêt}
+ \centerline{Critère d’arrêt =}
+ \begin{tabular}{c}
+  Test d’optimalité satisfait($\norme{\nabla J(x_k)} < \varepsilon$)                             \\
+  OU (Stagnation de la valeur courante($ \norme{x_{k+1} - x_k} < \varepsilon(1 + \norme{x_k}) $) \\
+  ET Stagnation de la solution($ |J(x_{k+1}) - J(x_k)| < \varepsilon(1 + |J (x_k)|) $))          \\
+  OU Nombre d’itérations maximum autorisé dépassé($ k < IterMax $)
+ \end{tabular}
 \end{frame}
 
-%%%%%%%%%%%%% T  %%%%%%%%%%%%%%%
-
-
-%%%%%%%%%%%%% T  %%%%%%%%%%%%%%%
-
-
-%%%%%%%%%%%%% T  %%%%%%%%%%%%%%%
-
-\section{Nouveau résultats}
-
-\subsection{Bornes uniformes connues}
-
-\begin{frame}
+\subsubsection{Recherche linéaire}
 
+%%%%% SLIDE 6
+\begin{frame}{Recherche linéaire}
+ \begin{block}{RECHERCHE LINÉAIRE : PAS FIXE.}
+  $ s_k = s_{k-1} $
+ \end{block}
+ \begin{block}{RECHERCHE LINÉAIRE : PAS OPTIMAL.}
+  $ s_k $ solution du problème $ \displaystyle\min_{s \in \mathbb{R}_{+}^{*}} J(x_k + sd_k) $
+ \end{block}
 \end{frame}
 
-\subsection{Nouvelles bornes uniformes}
+\subsubsection{Méthode Newtonienne}
 
-\begin{frame}
+%%%%% SLIDE 7
+\begin{frame}{Méthode Newtonienne I}
+ Choix de la direction de descente $ d_k = -H[J](x_k)^{-1} \nabla J(x_k) $ solution unique du problème :
 
-\end{frame}
-
-%%%%% SLIDE 14
-\begin{frame}{Corps de fonctions sur $\F_{p^2}$}
+ $$ \underset{d \in \mathbb{R}^n}{\mathrm{argmin}} \ J(x_k) + \langle \nabla J(x_k),d \rangle + \frac{1}{2}\langle H[J](x_k)d,d \rangle $$
 
+ $ \iff d_k $ est le point de minimum global de l’approximation quadratique de $ J $ au voisinage du point courant $ x_k $.
 \end{frame}
 
-\begin{frame}
-
+%%%%% SLIDE 8
+\begin{frame}{Méthode Newtonienne II}
+ \begin{tabular}{|p{15em}|p{15em}|}
+  \hline
+  Avantages                                                                                           & Inconvénients                                                                                                                                                     \\
+  \hline
+  sa convergence quadratique (le nombre de décimales exactes est multiplié par 2 à chaque itération). &                                                                                                                                                                   \\
+  \hline
+                                                                                                      & les difficultés et le coût de calcul de la hessienne $ H[J](x_k) $ : l’expression analytique des dérivées secondes est rarement disponible dans les applications. \\
+  \hline
+                                                                                                      & le coût de résolution du système linéaire $ H[J](x_k )(x_{k+1} - x_k) = \nabla J(x_k) $.                                                                          \\
+  \hline
+                                                                                                      & l’absence de convergence si le premier itéré est trop loin de la solution, ou si la    hessienne est singulière.                                                  \\
+  \hline
+                                                                                                      & pas de distinction entre minima, maxima et points stationnaires.                                                                                                  \\
+  \hline
+ \end{tabular}
 \end{frame}
 
-%%%%%%%%%%%%% T  %%%%%%%%%%%%%%%
+\section{Méthode PQS}
 
-\begin{frame}
+\subsection{Principe général}
 
+%%%%% SLIDE 9
+\begin{frame}{Principe général I}
+ \begin{defin}
+  Résoudre le problème $ \mathcal{P} $ :
+  $$
+   \mathcal{P} \left \{
+   \begin{array}{l}
+    \displaystyle\min_{x \in \mathbb{R}^n} J(x) \\
+    g(x) \leq 0                                 \\
+    h(x) = 0
+   \end{array}
+   \right .
+  $$
+  où $$ g: \mathbb{R}^n \longrightarrow \mathbb{R}^p,\ h: \mathbb{R}^n \longrightarrow \mathbb{R}^q\ et\ J: \mathbb{R}^n \longrightarrow \mathbb{R}\ de\ classe\ \mathcal{C}^2. $$
+ \end{defin}
 \end{frame}
 
-\begin{frame}
-
+%%%%% SLIDE 10
+\begin{frame}{Principe général II}
+ \begin{enumerate}
+  \item Conditions nécessaires et suffisantes d'existence et d'unicité d'une solution (\textit{KKT}, $ H[J] $ définie positive et convexité de $ \mathcal{P} $).
+  \item Approximation quadratique du Lagrangien $ L $ de $ \mathcal{P} $ par Taylor-Young à l'ordre 2 en $ x_k $:
+        $$ L(x,\lambda,\mu) \approx L(x_k,\lambda_k,\mu_k) + \nabla L(x_k,\lambda_k,\mu_k)^\top (x - x_k) $$
+        $$ + \frac{1}{2} (x - x_k)^\top H[L](x_k,\lambda_k,\mu_k) (x - x_k) $$
+  \item Approximation linéaire de $ g $ et $ h $ par Taylor-Young à l'ordre 1 en $ x_k $ :
+        $$ g(x) \approx g(x_k) + \nabla g(x_k)^\top(x - x_k) $$
+        $$ h(x) \approx h(x_k) + \nabla h(x_k)^\top(x - x_k) $$
+  \item Condition d'optimalité sur le Lagrangien $ L $ de $ \mathcal{P} $ :
+        $$ \nabla L(x_k,\lambda_k,\mu_k)^\top (x - x_k) + \frac{1}{2} (x - x_k)^\top H[L](x_k,\lambda_k,\mu_k) (x - x_k) $$
+ \end{enumerate}
 \end{frame}
 
-\section{Conclusions et perspectives}
-
-\subsection{Problèmes et/ou travail en cours}
-
-%%%%% SLIDE 15
-
-\begin{frame}{Conclusion}
-
+%%%%% SLIDE 11
+\begin{frame}{Principe général III}
+ \begin{block}{}
+  Résoudre le sous-problème quadratique $ \mathcal{PQ}_k $ avec contraintes linéaires :
+  $$
+   \mathcal{PQ}_k \left \{
+   \begin{array}{l}
+    \displaystyle\min_{d \in \mathbb{R}^n} \nabla J(x_k)^\top d + \frac{1}{2}d^\top H_k d \\
+    g_j(x_k) + \nabla g_j(x_k)^\top d \leq 0, \ \forall j \in \{1,\ldots,p\}              \\
+    h_i(x_k) + \nabla h_i(x_k)^\top d = 0, \ \forall i \in \{1,\ldots,q\}
+   \end{array}
+   \right .
+  $$
+  où $ d = x - x_k $ et $ H_k = H[L](x_k,\lambda_k,\mu_k) $ symétrique (Schwarz).
+ \end{block}
+ \centerline{$ \implies $ La solution $  d_k $ est la valeur optimale de direction de descente.}
 \end{frame}
 
-\begin{frame}
-
+\subsection{Algorithme PQS}
+
+%%%%% SLIDE 12
+\begin{frame}{Algorithme PQS}
+ \begin{block}{ALGORITHME PQS AVEC CONSTRAINTES D'ÉGALITÉ ET D'INÉGALITÉ.}
+  \textit{Entrées}: $ J : \mathbb{R}^n \longrightarrow \mathbb{R} $, $g: \mathbb{R}^n \longrightarrow \mathbb{R}^p$, $ h : \mathbb{R}^n \longrightarrow \mathbb{R}^q $ différentiables, $ x_0 \in \mathbb{R}^n $ point initial arbitraire, $ \lambda_0 \in \mathbb{R}_+^p $ et $ \mu_0 \in \mathbb{R}_+^q $ multiplicateurs initiaux, $ \varepsilon > 0 $ précision demandée.
+  \newline
+  \textit{Sortie}: une approximation $ x_k $ de la solution $ x^\ast $ du problème $ \mathcal{P} $.
+  \begin{enumerate}
+   \item $ k := 0 $.
+   \item Tant que $ \norme{\nabla L(x_k,\lambda_k,\mu_k)} > \varepsilon $,
+         \begin{enumerate}
+          \item Résoudre le sous-problème quadratique :
+                $$
+                 \mathcal{PQ}_k \left \{
+                 \begin{array}{l}
+                  \displaystyle\min_{d \in \mathbb{R}^n} \nabla J(x_k)^\top d + \frac{1}{2}d^\top H_k d \\
+                  g_j(x_k) + \nabla g_j(x_k)^\top d \leq 0, \ \forall j \in \{1,\ldots,p\}              \\
+                  h_i(x_k) + \nabla h_i(x_k)^\top d = 0, \ \forall i \in \{1,\ldots,q\}
+                 \end{array}
+                 \right .
+                $$
+                et obtenir la solution primale $ d_k $ et les multiplicateurs $ \lambda^{\prime} $ et $ \mu^{\prime} $ associé aux contraintes d’inégalité et d’égalité respectivement.
+          \item $ x_{k+1} = x_k + d_k; \ \lambda_{k+1} = \lambda^{\prime}; \ \mu_{k+1} = \mu^{\prime}; \ k := k + 1 $.
+         \end{enumerate}
+   \item Retourner $ x_k $.
+  \end{enumerate}
+ \end{block}
 \end{frame}
 
 %%%%% SLIDE DE FIN
@@ -339,12 +404,11 @@ $}}
    upper=block title,%
    shadow=true]{}
   \begin{center}
-   {\Large  \textbf{{\color{mycvblue}Thank you for your attention.}}}\\
+   {\Large  \textbf{{\color{mycvblue}Merci pour votre attention.}}}\\
    \vspace{3em}
    {\Large  \textbf{{\color{mycvblue}Questions?}}}\\
   \end{center}
  \end{beamerboxesrounded}
-
 \end{frame}
 
 \end{document}