Entropie (mathématiques)
Un article de Wikipédia, l'encyclopédie libre.
Vous pouvez partager vos connaissances en l’améliorant. (Comment ?).
|
En mathématiques, l'entropie est une quantité réelle mesurant en un certain sens la complexité d'un système dynamique.
[modifier] Entropie topologique
[modifier] Entropie métrique
[modifier] Théorème du principe variationnel
Le théorème du principe variationnel permet de faire le lien entre l'entropie topologique et l'entropie métrique. Pour tout homéomorphisme f d'un espace topologique séparé compact, il existe au moins une mesure borélienne invariante. Dans sa forme la plus simple, le théorème du principe variationnel affirme que l'entropie topologique de f est le supremum des entropies métriques de f associées aux différentes mesures boréliennes invariantes. Sous sa forme forte, le théorème affirme de plus que ce supremum est un maximum :
Théorème du principe variationnel
Forme faible : Pour tout système dynamique topologique compact (X,f), l'entropie topologique h(f) verifie :
ou hμ(f) est l'entropie métrique de f associée à la mesure μ et M(X,f) est l'ensemble des mesures boréliennes de X qui soient f-invariantes.
Forme forte : Pour tout système dynamique topologique compact (X,f), il existe une mesure borélienne μ qui soit f-invariante, telle que l'entropie métrique de f pour μ soit exactement l'entropie topologique de f :
- h(f) = hμ(f)
La forme faible se déduit de la forme forte et d'inégalités entre entropie topologique et entropie métrique.
La forme forte se démontre en chossissant la mesure / mu comme une limite faiblement convergente d'une suite de mesures.