Entropie de Rényi
Un article de Wikipédia, l'encyclopédie libre.
Cet article est une ébauche concernant les mathématiques.
Vous pouvez partager vos connaissances en l’améliorant. (Comment ?).
|
L'entropie de Rényi, due à Alfréd Rényi, est une fonction mathématique qui correspond à la quantité d'information contenue dans la probabilité de collision d'une variable aléatoire.
[modifier] Définition formelle
L'entropie de Rényi d'une variable aléatoire discrète x, avec états possibles 1..n comme :
où dénote l'espérance mathématique, α > 0 et .
[modifier] Voir aussi
- (en) A. Rényi, On measures of entropy and information, in Proc. 4th Berkeley Symposium on Mathematical Statistics and Probability. vol. 1, 1961, p. 547-561.