\newline
Une stratégie commune est de calculer $ (x_{k+1},\lambda_{k+1},\mu_{k+1}) $ pour une matrice $ H_k $ donnée et faire une mise à jour de $ H_k $ de rang 1 ou 2 :
$$ H_{k+1} = H_k + U_k $$
-
-\subsubsection{Mises à jour DFP et BFGS}
+% \subsubsection{Mises à jour DFP et BFGS}
+Les méthodes de mise à jour DFP et BFGS suivent par exemple cette stratégie.
\subsection{Exemple d'utilisation de PQS}
\begin{algorithm}
\caption {Trace d'éxécution de l'algorithme PQS}
\begin{algorithmic}
- \REQUIRE $g(x_0,y_0,z_0)\leq 0$, $(x_0,y_0,z_0) = (10, 10 ,10)$
+ \REQUIRE $(x_0,y_0,z_0) = (100, 100 ,0), g(x_0,y_0,z_0) \leq 0$
\ENSURE $\displaystyle\min_{(x,y,z) \in \mathbb{R}^3} J(x,y,z) = x^2 + y^2 + z^2 -r^2$ and \newline $g(x,y,z) = (g_1(x,y,z), g_2(x,y,z)) = (x^2 + y^2 - r_1^2, x^2 + z^2 -r_2^2) \leq 0 $
\STATE \textbf{Data :}
\STATE $k \leftarrow 0, (x_k, y_k, z_k) \leftarrow (100, 100, 0), r \leftarrow 100$
\STATE $r_1 = r_2 \leftarrow 10, \varepsilon \leftarrow 0.01$
- \STATE $\lambda_1 = \lambda_2 = 1$
+ \STATE $\lambda_1 = \lambda_2 \leftarrow 1$
\STATE $ H[J](x,y,z)^{-1} \leftarrow
\begin{pmatrix}
0.5 & 0 & 0 \\
0 & 0 & 0.5 \\
\end{pmatrix} $
\newline
- \STATE {//Calcul des deux composantes du gradient de $ g $: }
+ \STATE {//Pré-calcul des deux composantes du gradient de $ g $:}
\STATE $ \nabla g_1(x_k,y_k,z_k) = ((2x_k,2y_k,0)$ \hfill $ //résultat : (20, 20, 0)$
\STATE $ \nabla g_2(x_k,y_k,z_k) = (2x_k,0,2z_k))$ \hfill $ //résultat : (20, 0, 20)$
\STATE $ \nabla g(x_k,y_k,z_k) = (\nabla g_1(x_k,y_k,z_k), \nabla g_2(x_k,y_k,z_k))$