\subsection{Définition de la problèmatique}
-Soient $(n, p, q) \in \mathbb{N}^3$, $x \in \mathbb{R}^n$, une fonction $g: \mathbb{R}^n \longrightarrow \mathbb{R}^p$ représentant les contraintes d'inégalités, une fonction $h: \mathbb{R}^n \longrightarrow \mathbb{R}^q$ représentant les contraintes d'égalités et une fonction dite {\it objectif} $J: \mathbb{R}^n \longrightarrow \mathbb{R}$.
-\newline
-Définissons le problème central $ \mathcal{P} $ que ce propose de résoudre la recherche opérationnelle :
+Définissons le problème central $ \mathcal{P} $ que ce propose de résoudre la recherche opérationnelle.
\begin{Def}
- $
+ Soient $(n, p, q) \in \mathbb{N}^3$, $x \in \mathbb{R}^n$, une fonction $g: \mathbb{R}^n \longrightarrow \mathbb{R}^p$ représentant les contraintes d'inégalités, une fonction $h: \mathbb{R}^n \longrightarrow \mathbb{R}^q$ représentant les contraintes d'égalités et une fonction dite objectif $J: \mathbb{R}^n \longrightarrow \mathbb{R}$.
+ \newline
+ La problèmatique $ \mathcal{P} $ se définit par :
+ $$
\mathcal{P} \left \{
\begin{array}{r c l}
\displaystyle\min_{x \in \mathbb{R}^n} J(x) \\
h(x) = 0
\end{array}
\right .
- $
+ $$
\end{Def}
-On définit $ \mathcal{C} $ l'ensemble des contraintes par :
\begin{Def}
- $ \mathcal{C} = \left \{ x \in \mathbb{R}^n | g(x) \leq 0, h(x) = 0 \right \} $
+ On définit $ \mathcal{C} $ l'ensemble des contraintes par :
+ $$ \mathcal{C} = \left \{ x \in \mathbb{R}^n \ | \ g(x) \leq 0 \land h(x) = 0 \right \} $$
\end{Def}
-Elle doit résoudre les problèmes d'existence d'une solution ($ \mathcal{C} \neq \emptyset $) ainsi que de construction d'une ou des solution(s).
+Elle doit résoudre les problèmes d'existence d'une solution ($ \mathcal{C} \neq \emptyset $) ainsi que de construction d'une solution.
\section{Qu'est-ce que l'optimisation?}
-La recherche d'une solution optimale au problème $ \mathcal{P} $ est l'activité principale de l'optimisation.
+\begin{Def}
+ Soit une fonction $ f: \mathbb{R}^n \longrightarrow \mathbb{R} $ différentiable.
+ \newline
+ Le gradient de $ f $, noté $\nabla f$, en $ x^\ast \in \mathbb{R}^n$ se définit par :
+ \[
+ \nabla f(x^\ast) = (\frac{\partial f}{\partial x_1}(x^\ast),\ldots,\frac{\partial f}{\partial x_n}(x^\ast))
+ \]
+\end{Def}
+
+La recherche d'un optimum au problème $ \mathcal{P} $ est l'activité principale de l'optimisation.
\newline
-Elle
+Dans le cas où $ J $ est continûment différentiable et ses dérivées sont continues,
+une condition suffisante pour que $ x^\ast \in \mathbb{R}^n $ soit un de ses extremums
+est que $ \nabla f(x^\ast) = 0 $
% Dans cette section nous prenons appui sur l'ouvrage {\it Optimisation et contrôle des systèmes linéaires} \cite{Berg} de Maïtine Bergounioux \footnote{Maïtine Bergounioux, {\it Optimisation et contrôle des systèmes linéaires}, Dunod, 2001.}.
% Nous utiliserons aussi l'ouvrage de Francis Filbet\footnote{Francis Filbet, {\it Analyse numérique - Algorithme et étude mathématique}, Dunod, 2009.}, {\it Analyse numérique - Algorithme et étude mathématique} \cite{Filb}.