+\begin{frame}{Définition de la problèmatique}
+ \begin{defin}
+ Résoudre le problème $ \mathcal{P} $ :
+ $$
+ \mathcal{P} \left \{
+ \begin{array}{l}
+ \displaystyle\min_{x \in \mathbb{R}^n} J(x) \\
+ g(x) \leq 0 \\
+ h(x) = 0
+ \end{array}
+ \right .
+ $$
+ où $$ g: \mathbb{R}^n \longrightarrow \mathbb{R}^p,\ h: \mathbb{R}^n \longrightarrow \mathbb{R}^q\ et\ J: \mathbb{R}^n \longrightarrow \mathbb{R} $$
+ \end{defin}
+ \centerline{à l'aide de méthodes numériques itératives.}
+\end{frame}
+
+\section{Méthode de descente}
+
+\subsection{Définition}
+
+%%%%% SLIDE 2
+\begin{frame}{Définition d'une méthode de descente}
+ \begin{defin}
+ Générer une suite d’itérés $ (x_k)_{k \in \mathbb{N}} $ de $ \mathbb{R}^n $ avec :
+ \centerline{$ x_0 \in \mathbb{R}^n $ arbitraire,}
+ \centerline{$ x_{k+1} = x_k + s_kd_k $ où $ s_k \in \mathbb{R}_{+}^{*},d_k \in \mathbb{R}^n $}
+ et
+ $$ \forall k \in \mathbb{N} \ J(x_{k+1}) \leq J(x_k) $$
+ \end{defin}
+\end{frame}
+
+\subsection{Algorithme}
+
+%%%%% SLIDE 3
+\begin{frame}{Algorithme de descente modèle}
+ \begin{block}{ALGORITHME DE DESCENTE MODÈLE.}
+ \textit{Entrées}: $ J : \mathbb{R}^n \longrightarrow \mathbb{R} $ différentiable, $ x_0 \in \mathbb{R}^n $ point initial arbitraire.
+ \newline
+ \textit{Sortie}: une approximation $ x_k $ de la solution $ x^\ast $ du problème : $ \displaystyle\min_{x \in \mathbb{R}^n} J(x) $.
+ \begin{enumerate}
+ \item $ k := 0 $.
+ \item Tant que "test d’arrêt" non satisfait,
+ \begin{enumerate}
+ \item Trouver une direction de descente $ d_k $ telle que : $ \nabla J(x_k)^\top d_k < 0 $.
+ \item \textit{Recherche linéaire} : Choisir un pas $ s_k > 0 $ à faire dans cette direction et tel que : $$ J(x_k + s_kd_k) < J(x_k). $$
+ \item Mise à jour : $ x_{k+1} = x_k + s_kd_k; \ k := k + 1 $.
+ \end{enumerate}
+ \item Retourner $ x_k $.
+ \end{enumerate}
+ \end{block}
+\end{frame}
+
+\subsubsection{Direction de descente}
+
+%%%%% SLIDE 4
+\begin{frame}{Direction de descente}
+ Deux grandes stratégies :
+ \begin{itemize}
+ \item la stratégie de Cauchy : $ d_k = -\nabla J(x_k) $, conduisant aux \textit{algorithmes de gradient}.
+ \item la stratégie de Newton : $ d_k = -H[J](x_k)^{-1} \nabla J(x_k) $, conduisant aux \textit{algorithmes Newtoniens}.
+ \end{itemize}
+\end{frame}
+
+\subsubsection{Critère d'arrêt}
+
+%%%%% SLIDE 5
+\begin{frame}{Critère d'arrêt}
+ \centerline{Critère d’arrêt =}
+ \begin{tabular}{c}
+ Test d’optimalité satisfait($\norme{\nabla J(x_k)} < \varepsilon$) \\
+ OU (Stagnation de la valeur courante($ \norme{x_{k+1} - x_k} < \varepsilon(1 + \norme{x_k}) $) \\
+ ET Stagnation de la solution($ |J(x_{k+1}) - J(x_k)| < \varepsilon(1 + |J (x_k)|) $)) \\
+ OU Nombre d’itérations maximum autorisé dépassé($ k < IterMax $)
+ \end{tabular}
+\end{frame}
+
+\subsubsection{Recherche linéaire}
+
+%%%%% SLIDE 6
+\begin{frame}{Recherche linéaire}
+ \begin{block}{RECHERCHE LINÉAIRE : PAS FIXE.}
+ $ s_k = s_{k-1} $
+ \end{block}
+ \begin{block}{RECHERCHE LINÉAIRE : PAS OPTIMAL.}
+ $ s_k $ solution du problème $ \displaystyle\min_{s \in \mathbb{R}_{+}^{*}} J(x_k + sd_k) $
+ \end{block}
+\end{frame}
+
+\subsubsection{Méthode Newtonienne}
+
+%%%%% SLIDE 7
+\begin{frame}{Méthode Newtonienne I}
+ Choix de la direction de descente $ d_k = -H[J](x_k)^{-1} \nabla J(x_k) $ solution unique du problème :
+
+ $$ \underset{d \in \mathbb{R}^n}{\mathrm{argmin}} \ J(x_k) + \langle \nabla J(x_k),d \rangle + \frac{1}{2}\langle H[J](x_k)d,d \rangle $$
+
+ $ \iff d_k $ est le point de minimum global de l’approximation quadratique de $ J $ au voisinage du point courant $ x_k $.
+\end{frame}
+
+%%%%% SLIDE 8
+\begin{frame}{Méthode Newtonienne II}
+ \begin{tabular}{|p{15em}|p{15em}|}
+ \hline
+ Avantages & Inconvénients \\
+ \hline
+ sa convergence quadratique (le nombre de décimales exactes est multiplié par 2 à chaque itération). & \\
+ \hline
+ & les difficultés et le coût de calcul de la hessienne $ H[J](x_k) $ : l’expression analytique des dérivées secondes est rarement disponible dans les applications. \\
+ \hline
+ & le coût de résolution du système linéaire $ H[J](x_k )(x_{k+1} - x_k) = \nabla J(x_k) $. \\
+ \hline
+ & l’absence de convergence si le premier itéré est trop loin de la solution, ou si la hessienne est singulière. \\
+ \hline
+ & pas de distinction entre minima, maxima et points stationnaires. \\
+ \hline
+ \end{tabular}
+\end{frame}
+
+\section{Méthode PQS}
+
+\subsection{Principe général}
+
+%%%%% SLIDE 9