Merge branch 'master' of git.piment-noir.org:Projet_Recherche_Operationnelle
[Projet_Recherche_Operationnelle.git] / rapport / ProjetOptimRO.tex
index b6fcdc75f32a59c368e32176a912388f454beb30..ed31ff249015f820453db2fdb3bbe16db3b1ba3a 100644 (file)
@@ -21,7 +21,7 @@
 \usepackage{tocbibind}
 \usepackage{lmodern}
 \usepackage{enumitem}
-\usepackage{algorithm}
+\usepackage{algorithm2e}
 \usepackage{algorithmic}
 
 
@@ -516,7 +516,7 @@ En supposant $ J $ de classe $ \mathcal{C}^2 $ et la matrice hessienne $ H[J](x_
 $$ x_{k+1} = x_k - H[J](x_k)^{-1} \nabla J(x_k), $$
 où $ d_k = -H[J](x_k)^{-1} \nabla J(x_k) $ est appelée direction de Newton. La direction $ d_k $ est également l’unique solution du problème :
 $$ \underset{d \in \mathbb{R}^n}{\mathrm{argmin}} \ J(x_k) + \langle \nabla J(x_k),d \rangle + \frac{1}{2}\langle H[J](x_k)d,d \rangle $$
-Autrement dit, $ d_k $ est le point de minimum global de l’approximation de second ordre de $ J $ au voisinage du point courant $ x_k $.
+Autrement dit, $ d_k $ est le point de minimum global de l’approximation quadratique de $ J $ au voisinage du point courant $ x_k $.
 À condition que la matrice $ H[J](x_k) $ soit définie positive à chaque itération, la méthode de Newton est bien une méthode de descente à pas fixe égal à $ 1 $.
 \newline
 Les propriétés remarquables de cet algorithme sont :
@@ -882,8 +882,8 @@ Le Lagrangien $ L $ de $ \mathcal{P} $ avec les valeurs :
  \newline
  \STATE {//Incrémentation de k}
  \STATE $ k \leftarrow k+1$
- \newline
-\newline
+
+
  \STATE {//Deuxième itération :}
  \STATE{//Calcule du gradient de $ J $ :}
  \STATE $ \nabla J(x,y,z) = (2x_k,2y_k,2z_k)$  \hfill $  // résultat : (0,0,0) $
@@ -900,7 +900,8 @@ Le Lagrangien $ L $ de $ \mathcal{P} $ avec les valeurs :
  \STATE $ k \leftarrow k+1$\hfill $ //k = 1$
 
  \ENDWHILE
- \end{algorithmic}
+
+\end{algorithmic}
 \end{algorithm}