Spell fixes.
authorJérôme Benoit <jerome.benoit@piment-noir.org>
Sat, 3 Nov 2018 22:37:45 +0000 (23:37 +0100)
committerJérôme Benoit <jerome.benoit@piment-noir.org>
Sat, 3 Nov 2018 22:37:45 +0000 (23:37 +0100)
Signed-off-by: Jérôme Benoit <jerome.benoit@piment-noir.org>
rapport/ProjetOptimRO.tex

index 40b3e41e12b39e22d20b74107dc7a12734e26fa1..57ee8961074397441232db155e0284f24bb1c8fc 100644 (file)
@@ -78,7 +78,7 @@
  \begin{tabular}{c}
   \hline
   ~                                                           \\
-  \LARGE\textbf {Programmation Séquentielle Quadratique}      \\
+  \LARGE\textbf {Programmation Séquentielle Quadratique ou PQS}      \\
   \LARGE\textbf {en}                                          \\
   \LARGE\textbf {Optimisation non linéraire sous contraintes} \\
   ~                                                           \\
@@ -299,7 +299,7 @@ $$ \forall i \in I \ \exists \mu_i \in \mathbb{R}_{+} \land \forall j \in J \ \e
 On appelle $ (\mu_i)_{i \in I}$ les multiplicateurs de Kuhn-Tucker et $ (\lambda_j)_{j \in J}$ les multiplicateurs de Lagrange.
 \end{Th}
 \begin{proof}
-Elle repose sur le lemme de Farkas.
+Elle repose sur le lemme de Farkas \cite{FEA,RON}.
 \end{proof}
 Il est à noter que une condition d'égalité peut se répresenter par deux conditions d'inégalité : $ \forall x \in \mathbb{R}^n \ \forall i \in \{ 1,\ldots,q \} \ h_i(x) = 0 \iff h_i(x) \leq 0 \land h_i(x) \geq 0 $ \cite{FEA}, ce qui peut permettre de réécrire le problème $ \mathcal{P} $ en éliminant les contraintes d'égalités et change la forme des conditions \textit{KKT} à vérifier mais rajoute $ 2q $ conditions d'inégalités et donc $ 2q $  multiplicateurs de Kuhn-Tucker.
 
@@ -437,7 +437,7 @@ acceptables et ceux qui ne le sont pas.
  On appelle $ \varphi : s \in \mathbb{R} \longmapsto J(x + sd)$ la fonction mérite associée à $ J $ en $ x $.
 \end{Def}
 \begin{Def}
- Dans le cas où $ J, g, h $ sont de classe $ \mathcal{C}^1 $, on dit que un algoritme de descente converge ssi
+ Dans le cas où $ J, g, h $ sont de classe $ \mathcal{C}^1 $, on dit que un algorithme de descente converge ssi
  $$ \lim\limits_{k \rightarrow +\infty} \norme{\nabla J(x_k)} = 0 $$
 \end{Def}