Entropie (mathématiques)

Un article de Wikipédia, l'encyclopédie libre.

Pour les articles homonymes, voir Entropie (homonymie).

En mathématiques, l'entropie est une quantité réelle mesurant en un certain sens la complexité d'un système dynamique.

[modifier] Entropie topologique

Icône de détail Article détaillé : entropie topologique.

[modifier] Entropie métrique

Icône de détail Article détaillé : entropie métrique.

[modifier] Théorème du principe variationnel

Icône de détail Article détaillé : Théorème du principe variationnel.

Le théorème du principe variationnel permet de faire le lien entre l'entropie topologique et l'entropie métrique. Pour tout homéomorphisme f d'un espace topologique séparé compact, il existe au moins une mesure borélienne invariante. Dans sa forme la plus simple, le théorème du principe variationnel affirme que l'entropie topologique de f est le supremum des entropies métriques de f associées aux différentes mesures boréliennes invariantes. Sous sa forme forte, le théorème affirme de plus que ce supremum est un maximum :

Théorème du principe variationnel

Forme faible : Pour tout système dynamique topologique compact (X,f), l'entropie topologique h(f) verifie :

 h(f)=\sup \{ h_{\mu}(f), \mu\in M(X,f)\}

ou hμ(f) est l'entropie métrique de f associée à la mesure μ et M(X,f) est l'ensemble des mesures boréliennes de X qui soient f-invariantes.

Forme forte : Pour tout système dynamique topologique compact (X,f), il existe une mesure borélienne μ qui soit f-invariante, telle que l'entropie métrique de f pour μ soit exactement l'entropie topologique de f :

h(f) = hμ(f)

La forme faible se déduit de la forme forte et d'inégalités entre entropie topologique et entropie métrique.

La forme forte se démontre en chossissant la mesure / mu comme une limite faiblement convergente d'une suite de mesures.