\begin{tabular}{c}
\hline
~ \\
- \LARGE\textbf {Programmation Séquentielle Quadratique} \\
+ \LARGE\textbf {Programmation Séquentielle Quadratique ou PQS} \\
\LARGE\textbf {en} \\
\LARGE\textbf {Optimisation non linéraire sous contraintes} \\
~ \\
On appelle $ (\mu_i)_{i \in I}$ les multiplicateurs de Kuhn-Tucker et $ (\lambda_j)_{j \in J}$ les multiplicateurs de Lagrange.
\end{Th}
\begin{proof}
-Elle repose sur le lemme de Farkas.
+Elle repose sur le lemme de Farkas \cite{FEA,RON}.
\end{proof}
Il est à noter que une condition d'égalité peut se répresenter par deux conditions d'inégalité : $ \forall x \in \mathbb{R}^n \ \forall i \in \{ 1,\ldots,q \} \ h_i(x) = 0 \iff h_i(x) \leq 0 \land h_i(x) \geq 0 $ \cite{FEA}, ce qui peut permettre de réécrire le problème $ \mathcal{P} $ en éliminant les contraintes d'égalités et change la forme des conditions \textit{KKT} à vérifier mais rajoute $ 2q $ conditions d'inégalités et donc $ 2q $ multiplicateurs de Kuhn-Tucker.
On appelle $ \varphi : s \in \mathbb{R} \longmapsto J(x + sd)$ la fonction mérite associée à $ J $ en $ x $.
\end{Def}
\begin{Def}
- Dans le cas où $ J, g, h $ sont de classe $ \mathcal{C}^1 $, on dit que un algoritme de descente converge ssi
+ Dans le cas où $ J, g, h $ sont de classe $ \mathcal{C}^1 $, on dit que un algorithme de descente converge ssi
$$ \lim\limits_{k \rightarrow +\infty} \norme{\nabla J(x_k)} = 0 $$
\end{Def}