From: Jérôme Benoit Date: Sat, 3 Nov 2018 22:31:50 +0000 (+0100) Subject: Add a section on descent methods. X-Git-Url: https://git.piment-noir.org/?a=commitdiff_plain;h=8000c0391c30285ee48cc3bd58504de6986c474a;p=Projet_Recherche_Operationnelle.git Add a section on descent methods. Signed-off-by: Jérôme Benoit --- diff --git a/rapport/ProjetOptimRO.tex b/rapport/ProjetOptimRO.tex index a0867ac..40b3e41 100644 --- a/rapport/ProjetOptimRO.tex +++ b/rapport/ProjetOptimRO.tex @@ -6,6 +6,7 @@ \usepackage{latexsym} \usepackage{amsmath} +\usepackage{amsthm} \usepackage{mathtools} \usepackage{amssymb} \usepackage[utf8]{inputenc} @@ -157,6 +158,10 @@ %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \chapter{Introduction générale} +L'objectif de ce chapitre est de faire un bref rappel des définitions, notions et résultats essentiels en recherche opérationnelle ainsi que en mathématiques nécessaires à l'étude de la méthode PQS. +\newline +Elle est loin d'être exhaustive mais devrait suffire dans le cadre de ce projet. + \vspace{.5em} \section{Qu'est-ce que la recherche opérationnelle?} @@ -176,7 +181,7 @@ Définissons le problème central $ \mathcal{P} $ que se propose de résoudre la La problèmatique $ \mathcal{P} $ se définit par : $$ \mathcal{P} \left \{ - \begin{array}{r c l} + \begin{array}{r} \displaystyle\min_{x \in \mathbb{R}^n} J(x) \\ g(x) \leq 0 \\ h(x) = 0 @@ -270,20 +275,20 @@ Autrement dit $ x^\ast $ est un minimum global de $ J $ sur $ \mathcal{C} $. \newline De la même façon, il existe un maximum global de $ J $ sur $ \mathcal{C} $. \end{Th} -On en déduit que $ \mathcal{P} $ admet au moins une solution dans le cas où $ J, g ,h $ sont continues. L'étude de la convexité de $ J $ permet d'explorer l'unicité de la solution \cite{LJK}. +On en déduit que $ \mathcal{P} $ admet au moins une solution dans le cas où $ J, g ,h $ sont continues \cite{LJK,RON}. L'étude de la convexité de $ J $ sur $ \mathcal{C} $ permet d'explorer l'unicité de la solution \cite{LJK,RON}. \subsection{Conditions de caractérisation d'un extremum} -Dans le cas où $ J, g, h $ sont continûment différentiable et ses dérivées sont continues (c'est à dire de classe $ \mathcal{C}^1 $), la recherche du mimimum consiste à faire une descente par gradient de $ J $ sur $ \mathcal{C} $ avec comme critère d'arrêt : $ x_i = \displaystyle\min_{x \in \mathcal{C}} J(x) \iff \forall \varepsilon \in \mathbb{R}_{+}^{*} \ \norme{\nabla J(x_i)} < \varepsilon $, $ i \in \mathbb{N} $ \cite{FEA}. +Dans le cas où $ J, g, h $ sont continûment différentiable et ses dérivées sont continues (c'est à dire de classe $ \mathcal{C}^1 $), la recherche du mimimum consiste à faire une descente par gradient [section \ref{descente}] de $ J $ sur $ \mathcal{C} $ avec comme critère d'arrêt : $ x_i = \displaystyle\min_{x \in \mathcal{C}} J(x) \iff \forall \varepsilon \in \mathbb{R}_{+}^{*} \ \norme{\nabla J(x_i)} < \varepsilon $, $ i \in \mathbb{N} $ \cite{FEA}. \newline On peut en déduire que une condition nécessaire et suffisante pour que $ x^\ast \in \mathring{\mathcal{C}} $ soit un des extremums locaux de $ J $ est que $ \nabla J(x^\ast) = 0 $. Mais si $ x^\ast \in \overline{\mathcal{C}}\setminus\mathring{\mathcal{C}} $ (la frontière de $ \mathcal{C} $) alors $ \nabla J(x^\ast) $ n'est pas nécessairement nul. Il sera par conséquent nécessaire de trouver d'autres caratérisations d'un extremum \cite{FEA,WAL}. -\subsubsection{Conditions de Kuhn-Tucker et Lagrange} +\subsubsection{Conditions de Karuch-Kuhn-Tucker}\label{KKT} \begin{Th} Soient $ x^\ast \in \mathbb{R}^n $, $ I = \{ 1,\ldots,p \} $ et $ J = \{ 1,\ldots,q \} $. \newline -Une condition nécessaire pour que $ x^\ast \in \mathcal{C}$ soit un minimum local est : +Les conditions nécessaires pour que $ x^\ast \in \mathcal{C}$ soit un minimum local de $ J $ sont : \newline \newline \centerline{$ \{ \nabla g_1(x^\ast),\ldots,\nabla g_p(x^\ast),\nabla h_1(x^\ast),\ldots,\nabla h_q(x^\ast) \} $ sont linéairement indépendants.} @@ -293,19 +298,176 @@ et $$ \forall i \in I \ \exists \mu_i \in \mathbb{R}_{+} \land \forall j \in J \ \exists \lambda_j \in \mathbb{R} \ \nabla J(x^\ast) + \sum_{i \in I}\mu_i{\nabla g_i(x^\ast)} + \sum_{j \in J}\lambda_j{\nabla h_j(x^\ast)} = 0 \land \forall i \in I \ \mu_i \nabla g_i(x^\ast) = 0 $$ On appelle $ (\mu_i)_{i \in I}$ les multiplicateurs de Kuhn-Tucker et $ (\lambda_j)_{j \in J}$ les multiplicateurs de Lagrange. \end{Th} -Il est à noter que une condition d'égalité peut se répresenter par deux conditions d'inégalité : $ \forall x \in \mathbb{R}^n \ \forall i \in \{ 1,\ldots,q \} \ h_i(x) = 0 \iff h_i(x) \leq 0 \land h_i(x) \geq 0 $. +\begin{proof} +Elle repose sur le lemme de Farkas. +\end{proof} +Il est à noter que une condition d'égalité peut se répresenter par deux conditions d'inégalité : $ \forall x \in \mathbb{R}^n \ \forall i \in \{ 1,\ldots,q \} \ h_i(x) = 0 \iff h_i(x) \leq 0 \land h_i(x) \geq 0 $ \cite{FEA}, ce qui peut permettre de réécrire le problème $ \mathcal{P} $ en éliminant les contraintes d'égalités et change la forme des conditions \textit{KKT} à vérifier mais rajoute $ 2q $ conditions d'inégalités et donc $ 2q $ multiplicateurs de Kuhn-Tucker. + + +%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% + +\chapter{Méthode de programmation quadratique séquentielle} + +Dans ce projet, nous nous proposons d'étudier une des méthodes d'optimisation non linéaire avec contraintes nommée programmation quadratique séquentielle ou PQS. + +\vspace{.5em} + +\section{Methode de descente}\label{descente} + +Partant d’un point $ x_0 \in \mathbb{R}^n $ arbitrairement choisi, un algorithme de descente va chercher à générer une suite d’itérés $ (x_k)_{k \in \mathbb{N}} $ de $ \mathbb{R}^n $ définie par : +$$ x_{k+1} = x_k + s_kd_k $$ où $ s_k,d_k \in \mathbb{R}^n $ et avec +$$ \forall k \in \mathbb{N} \ J(x_{k+1}) \leq J(x_k) $$ +Un tel algorithme est ainsi déterminé par deux éléments à chaque étape $ k $ : le choix de la direction $ d_k $ appelée direction de descente, et le choix de la taille du pas $ s_k $ à faire dans la direction $ d_k $. Cette étape est appelée \textit{recherche linéaire}. + +\subsection{Définition d'une direction de descente} + +Un vecteur $ d \in \mathbb{R}^n $ est une direction de descente pour $ J $ à partir d’un point $ x_0 \in \mathbb{R}^n $ si $ t \longmapsto f(x_0 + td) $ est décroissante en $ t = 0 $, c’est-à-dire : +$$ \exists \eta \in \mathbb{R}_{+}^{*} \ \forall t \in ]0,\eta] \ J(x_0 + td) < J(x_0) $$ +Il est donc important d’analyser le comportement de la fonction $ J $ dans certaines direc- +tions. +\begin{Prop} +Soient $ J : \mathbb{R}^n \longrightarrow \mathbb{R} $ différentiable et $ d \in \mathbb{R}^n $. +\newline +d est un vecteur de descente de $ J $ en $ x_0 \in \mathbb{R}^n $ ssi : +$$ \nabla J(x_0)^\top d < 0 $$ +De plus +$$ \forall \beta < 1 \in \mathbb{R}_{+} \ \exists \eta \in \mathbb{R}_{+}^{*} \ \forall t \in ]0,\eta] \ J(x_0 + td) < J(x_0) + t\beta \nabla J(x_0)^\top d < J(x_0) $$ +\end{Prop} +\begin{proof} +Elle s'effectue en utilisant le développement de Taylor-Young de l’application $ t \longmapsto f(x_0 + td) $ à l’ordre 1. +\end{proof} +Cette dernière inégalité garantit une décroissance minimum de la fonction $ J $ dans la +direction $ d $ et peut se traduire par : la décroissance de la fonction $ J $, en effectuant un pas de longueur $ t $ dans la direction $ d $ , est au moins égale à la longueur du pas multipliée par une fraction de la pente. Le schéma général d’un algorithme de descente est alors le suivant : + +\hrulefill +\newline +ALGORITHME DE DESCENTE MODÈLE. +\newline +\textit{Entrées}: $ J : \mathbb{R}^n \longrightarrow \mathbb{R} $ différentiable, $ x_0 \in \mathbb{R}^n $ point initial arbitraire. +\newline +\textit{Sortie}: une approximation de la solution du problème : $ \displaystyle\min_{x \in \mathbb{R}^n} J(x) $. +\begin{enumerate} + \item $ k := 0 $ + \item Tant que "test d’arrêt" non satisfait, + \begin{enumerate} + \item Trouver une direction de descente $ d_k $ telle que : $ \nabla J(x_k)^\top d_k < 0 $. + \item \textit{Recherche linéaire} : Choisir un pas $ s_k > 0 $ à faire dans cette direction et tel que : $$ J(x_k + s_kd_k) < J(x_k) $$. + \item Mise à jour : $ x_{k+1} = x_k + s_kd_k; \ k := k + 1 $. + \end{enumerate} + \item Retouner $ x_k $. +\end{enumerate} + +\hrulefill + +\subsection{Choix de la direction de descente} + +Une fois la théorie bien maîtrisée, calculer une direction de descente est relativement +simple. Dans le cas différentiable, il existe deux grandes stratégies de choix de direction de +descente : +\begin{itemize} + \item la stratégie de Cauchy : $ d_k = -\nabla J(x_k) $, conduisant aux \textit{algorithmes de gradient}. + \item la stratégie de Newton : $ d_k = -H[J](x_k)^{-1} \nabla J(x_k) $, conduisant aux \textit{algorithmes Newtoniens}. +\end{itemize} +Remarquons que si $ x_k $ est un point stationnaire ($ \nabla J(x_k) = 0 $) non optimal alors toutes ces directions sont nulles et aucun de ces algorithmes ne pourra progresser. Ce problème +peut être résolu en utilisant des approches de type région de confiance qui ne seront pas +étudiées dans le cadre de ce projet. + +\subsection{Critère d’arrêt} + +Soit $ x^\ast $ un minimum local du critère $ J $ à optimiser. Supposons que l’on choisisse comme test d’arrêt dans l’algorithme de descente modèle, le critère idéal : "$ x_k = x^\ast $". Dans un monde idéal (i.e. en supposant tous les calculs exacts et la capacité de calcul illimitée), soit l’algorithme s’arrête après un nombre fini d’itérations, soit il construit (théoriquement) une suite infinie $ x_0,x_1,\ldots,x_k,\ldots $ de points de $ \mathbb{R}^n $ qui converge vers $ x^\ast $. \newline +En pratique, un test d’arrêt devra être choisi pour garantir que l’algorithme s’arrête +toujours après un nombre fini d’itérations et que le dernier point calculé soit suffisamment +proche de $ x^\ast $. + +Soit $ \varepsilon \in \mathbb{R}_{+}^{*} $ la précision demandée. Plusieurs critères sont à notre disposition : tout d’abord (et c’est le plus naturel), un critère d’optimalité basé sur les conditions nécessaires d’optimalité du premier ordre : en optimisation différentiable +sans contrainte, on testera si +$$ \norme{\nabla J(x_k)} < \varepsilon, $$ +auquel cas l’algorithme s’arrête et fournit l’itéré courant $ x_k $ comme solution. + +En pratique, le test d’optimalité n’est pas toujours satisfait et on devra faire appel à +d’autres critères (fondés sur l’expérience du numérique) : +\begin{itemize} + \item Stagnation de la solution : $ \norme{x_{k+1} - x_k} < \varepsilon(1 + \norme{x_k}) $. + \item Stagnation de la valeur courante : $ |J(x_{k+1}) - J(x_k)| < \varepsilon(1 + |J (x_k)|) $. + \item Nombre d’itérations dépassant un seuil fixé à l’avance : $ k < IterMax $. +\end{itemize} +et généralement une combinaison de ces critères : \newline -Dans ce projet, nous nous proposons d'étudier une des méthodes d'optimisation non linéaire avec contraintes nommée programmation quadratique séquentielle. +\newline +Critère d’arrêt = +\begin{tabular}{l} + Test d’optimalité satisfait \\ + OU (Stagnation de la valeur courante ET Stagnation de la solution) \\ + OU Nombre d’itérations maximum autorisé dépassé +\end{tabular} +\subsection{La recherche linéaire} -%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% +Supposons pour l’instant résolu le problème du choix de la direction de descente et intéressons nous uniquement au calcul du pas : c’est la phase de recherche linéaire. +\newline +Soit $ x_0 \in \mathbb{R}^n $ un point non critique et $ d $ une direction de descente de $ J $ en $ x_0 $. Nous cherchons à calculer un pas $ s > 0 $ de sorte que : +$$ J(x_0 + sd) < J(x_0). $$ +Le choix de ce pas répond généralement à deux objectifs souvent contradictoires : trouver +le meilleur pas possible et effectuer le moins de calculs possibles. Ces deux objectifs ont +donné naissance à deux grandes familles : les algorithmes à pas fixe et ceux à pas optimal. + +\hrulefill +\newline +RECHERCHE LINÉAIRE : PAS FIXE. $ s_k = s_{k-1} $ + +\hrulefill + +\hrulefill +\newline +RECHERCHE LINÉAIRE : PAS OPTIMAL. $ s_k $ solution du problème $ \displaystyle\min_{s \in \mathbb{R}_{+}^{*}} J(x_k + sd_k) $ -\chapter{Méthodes de programmation quadratique séquentielle} +\hrulefill +\newline +Illustrées par les méthodes de descente de gradient, aucune de ces deux stratégies ne +s’est révélée réellement convaincante : si la première peut être “risquée” du point de vue de +la convergence, la seconde est souvent loin d’être triviale à mettre en oeuvre (sauf dans le +cas quadratique) et généralement inutilement coûteuse : en effet, à quoi bon calculer très +précisément un pas optimal dans une direction qui n’est peut-être pas la bonne ? (comme +c’est par exemple le cas pour la méthode de plus profonde descente). Les recherches +linéaires modernes reposent sur l’idée qu’un pas de descente acceptable est un pas qui fait +“suffisamment” décroître la fonction objectif. Reste alors à définir les pas qui sont +acceptables et ceux qui ne le sont pas. +\begin{Def} + On appelle $ \varphi : s \in \mathbb{R} \longmapsto J(x + sd)$ la fonction mérite associée à $ J $ en $ x $. +\end{Def} +\begin{Def} + Dans le cas où $ J, g, h $ sont de classe $ \mathcal{C}^1 $, on dit que un algoritme de descente converge ssi + $$ \lim\limits_{k \rightarrow +\infty} \norme{\nabla J(x_k)} = 0 $$ +\end{Def} + +\subsubsection{Principe de démonstration de convergence} -\section{Optimisation} +Une technique classique en optimisation pour obtenir des résultats de convergence glo- +bale consiste à montrer que l’algorithme de descente considéré vérifie une inégalité du +type : +$$ J(x_k) - J(x_{k+1}) \geq c\norme{\nabla J(x_k)}^2, $$ +où $ c $ est un constante réelle. +\newline +En sommant ces inégalités pour $ k $ variant de $ 0 $ à $ N - 1 $, on obtient : +$$ \forall N \in \mathbb{N} \ J(x_0) - J(x_N) \geq c \sum_{i=0}^{N-1}\norme{\nabla J(x_i)}^2 $$ +Si $ J $ est bornée inférieurement, alors nécessairement $ J(x_0 ) - J(x_N) $ est majorée et donc la somme partielle est majorée, et donc la série $ (\sum_{i=0}^{N-1}\norme{\nabla J(x_i)}^2)_{N \in \mathbb{N}} $ converge, ce qui implique : +$$ \lim\limits_{k \rightarrow +\infty} \norme{\nabla J(x_k)} = 0 $$ +L'étude plus détaillée de différents algorithmes de descente qui utilisent différentes méthodes de recherche linéaire pour optimiser $ \varphi $ et le choix d'une direction ainsi que leurs convergences sort du cadre de ce projet. + +\section{Méthode Newtonienne} + +L’algorithme de Newton en optimisation est une application directe de l’algorithme de +Newton pour la résolution d’équations du type : $ F(x) = 0 $. En optimisation sans contrainte, +l’algorithme de Newton cherche les solutions de l’équation : +$$ \nabla J(x) = 0, $$ +autrement dit, les points critiques de la fonction $ J $ à minimiser. +\newline +En supposant $ J $ de classe $ \mathcal{C}^2 $ et la matrice hessienne $ H[J](x_k) $ inversible, une itération de l’algorithme de Newton s’écrit : +$$ x_{k+1} = x_k - H[J](x_k)^{-1} \nabla J(x_k), $$ +où $ d_k = -H[J](x_k)^{-1} \nabla J(x_k) $ est appelée direction de Newton. -\subsubsection{Optimisation ou minimisation avec contraintes} +\section{Méthode PQS (ou SQP)} \bibliographystyle{plain} \bibliography{stdlib_sbphilo} diff --git a/rapport/stdlib_sbphilo.bib b/rapport/stdlib_sbphilo.bib index 549b8b4..6ffdc48 100644 --- a/rapport/stdlib_sbphilo.bib +++ b/rapport/stdlib_sbphilo.bib @@ -44,6 +44,13 @@ year="2015", key="" } +@MASTERSTHESIS{RON, +author="Aude Rondepierre", +title="Méthodes numériques pour l’optimisation non linéaire déterministe", +school="INSA Toulouse - Département Génie Mathématique et Modélisation", +year="2017", +} + @BOOK{Bach, author="Manuel Bächtold", title="L'interprétation de la mécanique quantique, une approche pragmatique",