Principe du minimum de Pontryagin

Un article de Wikipédia, l'encyclopédie libre.

Le principe du minimum de Pontryagin est utilisé dans la théorie du contrôle optimal pour trouver la commande optimale permettant d'amener un système dynamique d'un état à un autre, en présence de contraintes portant sur l'état ou les commandes d'entrée.

Il a été formulé par le mathématicien soviétique Lev Semenovich Pontryagin et ses étudiants. On peut le rattacher à la question plus générale du traitement des équations d'Euler-Lagrange dans le domaine du calcul des variations.

Le principe examine la minimisation d'un Hamiltonien sur \mathcal{U}, l'espace des commandes admissibles. Si u^*\in \mathcal{U} est la commande optimale pour le problème, alors le principe énonce que :

H(x^*(t),u^*(t),\lambda^*(t),t) \leq H(x^*(t),u(t),\lambda^*(t),t), \quad \forall u \in \mathcal{U}, \quad t \in [t_0, t_f]

x^*\in C^1[t_0,t_f] est la trajectoire d'état optimale et \lambda^* \in BV[t_0,t_f] la trajectoire de co-état optimale.

Ce résultat a été initialement appliqué pour la résolution de problèmes de minimisation de temps de transformation avec contraintes sur les commandes d'entrées, mais il peut également être utilisé pour résoudre des problèmes à contrainte d'état.

Il est également possible de dériver des conditions spécifiques sur l'Hamiltonien. Si l'instant final tf est fixé et que l'hamiltonien ne dépend pas explicitement du temps (\frac{\partial H}{\partial t} \equiv 0), alors :

H(x^*(t),u^*(t),\lambda^*(t)) \equiv \mathrm{constant}\,

si l'instant final n'est pas fixé, alors :

H(x^*(t),u^*(t),\lambda^*(t)) \equiv 0.\,

Des conditions plus générales sur la commande optimale sont données ci dessous.

Le principe du minimum de Pontryagin énonce des conditions nécessaires d'optimalité. Les équations de Hamilton-Jacobi-Bellman permettent d'énoncer des conditions suffisantes d'optimalité.

[modifier] Maximisation et Minimisation

Ces résultats sont parfois connus sous le nom de principe du maximum de pontryagin. Cela est du au fait que le travail initial de Pontryagin était centré sur la maximisation d'une fonctionnelle de bénéfice plutôt que la minimisation d'une fonctionnelle de coût.

La démonstration historique du principe du minimum est basée sur la maximisation de l'hamiltonien et non sur sa minimisation. Dans ce cadre minimiser une fonction de coût plutôt qu'un bénéfice revient à mutliplier la fonction par − 1. Les applications modernes du principe sont centrées sur la résolution de problèmes de minimisation.

[modifier] Enoncé complet des conditions nécessaires de résolution du problème de minimisation

Les conditions nécessaires pour la minimisation d'une fonctionnelle sont les suivantes. Soit x l'état du système dynamique et u la variable de commande, telle que :
\dot{x}=f(x, u), \quad x(0)=x_0, \quad u(t) \in \mathcal{U}, \quad t \in
[0,T]
\mathcal{U} est l'espace des commandes admissibles et T la date de l'état final su système. La commande u \in \mathcal{U} doit être déterminée pour tout t \in [0,T] afin de maximiser la fonctionnelle J, définie par :
J=\Psi(x(T))+\int^T_0 L(x(t), u(t)) dt

Les contraintes sur la dynamique du système peuvent être adjointes au Lagrangien L en introduisant le vecteur des multiplicateurs de Lagrange fonction du temps λ. Ces éléments sont appelés co-états du système.

Cela permet de construire l'Hamiltonien H défini pour tout t \in [0,T] par :


H(\lambda(t), x(t), u(t), t)=\lambda'(t)f(x(t), u(t))+L(x(t), u(t)) \,

λ' est le transposé de λ.

Le principe du minimum de Pontryagin énonce que la trajectoire d'état optimale x * , la commande optimale u * , et le vecteur des multiplicateurs de Lagrange correspondant λ * doivent minimiser l'hamiltonien H de façon à ce que


(1) \qquad H(x^*(t), u^*(t), \lambda^*(t), t)<H(x^*(t), u(t), \lambda^*(t), t) \,

pour tout temps t \in [0,T] et tout contrôme admissible u.

Il doit être également vérifié que


(2) \qquad \Psi_T(x(T))+H(T)=0 \,

Enfin l'équation de co-état


(3) \qquad -\dot{\lambda}'(t)=H_x(x^*(t), u^*(t), \lambda^*(t), t)=\lambda'(t)f_x(x^*(t), u^*(t))+L_x(x^*(t), u^*(t))

doit être satisfaite. Si l'état final x(T) n'est pas fixé (i.e., si sa variation différentielle n'est pas nulle), alors les co-états finaux doivent vérifier que


(4) \qquad \lambda'(T)=\Psi_x(x(T)) \,

Ces quatre conditions (1)-(4) constituent les conditions nécessaires d'optimalité de la commande. La condition (4) ne s'applique que lorsque x(T) n'est pas fixé, dans le cas contraire cette quatrième condition n'est pas nécessaire.

Les notations utilisées ci dessus s'explicitent ainsi .


\Psi_T(x(T))= \frac{\partial \Psi(x)}{\partial T}|_{x=x(T)} \,

\Psi_x(x(T))=\begin{bmatrix} \frac{\partial
\Psi(x)}{\partial x_1}|_{x=x(T)} & \cdots & \frac{\partial
\Psi(x)}{\partial x_n} |_{x=x(T)}
\end{bmatrix}

H_x(x^*, u^*, \lambda^*, t)=\begin{bmatrix} \frac{\partial H}{\partial x_1}|_{x=x^*, u=u^*, \lambda=\lambda^*}
& \cdots & \frac{\partial H}{\partial x_n}|_{x=x^*, u=u^*, \lambda=\lambda^*}
\end{bmatrix}

L_x(x^*, u^*)=\begin{bmatrix} \frac{\partial L}{\partial x_1}|_{x=x^*, u=u^*}
& \cdots & \frac{\partial L}{\partial x_n}|_{x=x^*, u=u^*}
\end{bmatrix}

f_x(x^*, u^*)=\begin{bmatrix} \frac{\partial f_1}{\partial x_1}|_{x=x^*, u=u^*} & \cdots & \frac{\partial f_1}{\partial x_n}|_{x=x^*, u=u^*} \\
\vdots & \ddots & \vdots \\ \frac{\partial f_n}{\partial x_1}|_{x=x^*, u=u^*} &
\ldots & \frac{\partial f_n}{\partial x_n}|_{x=x^*, u=u^*}
\end{bmatrix}

[modifier] References

  • Kirk, D.E. Optimal Control Theory, An Introduction, Prentice Hall, 1970. ISBN 0486434842
Autres langues