Maximum de vraisemblance

Un article de Wikipédia, l'encyclopédie libre.

L'Estimation du maximum de vraisemblance est une méthode statistique courante utilisée pour inférer les paramètres de la distribution de probabilité d'un échantillon donné.

Cette méthode a été développée par le statisticien et généticien Ronald Fisher entre 1912 et 1922.

L'estimateur du maximum de vraisemblance peut exister et être unique, ne pas être unique, ou ne pas exister.

Sommaire

[modifier] Définitions

Soit X une variable aléatoire, de loi quelconque, dont on veut estimer un paramètre θ. Alors on définit une fonction f telle que: 
f(x;\theta) = \begin{cases} f_\theta(x) & \text{si X est une v.a. continue} \\ P_\theta(X=x) & \text{si X est une v.a. discrete} \end{cases}

fθ(x) représente la densité de X (où θ apparaît) et Pθ(X = x) représente une probabilité discrète (où θ apparaît).

On appelle vraisemblance de θ au vu des observations (x1,...,xi,...,xn) d'un n-échantillon, le nombre:

L(x_1,...,x_i,...,x_n;\theta) = f(x_1;\theta) \times f(x_2;\theta) \times ...\times f(x_n;\theta) = \prod_{i=1}^n f(x_i;\theta)

On cherche à trouver le maximum de cette vraisemblance pour que les probabilités des réalisations observées soient aussi maximum. Ceci est un problème d'optimisation. On en déduit alors que si L est dérivable (ce qui n'est pas toujours le cas), que la dérivée première s'annule en une valeur \theta = \hat \theta et que la dérivée seconde est négative, alors L(x_1,...,x_i,...,x_n;\theta) \le L(x_1,...,x_i,...,x_n;\hat \theta) et ce quel que soit θ. On peut facilement construire la statistique Yn = Θ qui est l'estimateur voulu. La vraisemblance étant positive, on peut réduire la recherche et se contenter de maximiser le logarithme népérien de cette fonction.

Ainsi en pratique:

La condition nécessaire

\frac{\partial L(x_1,...,x_i,...,x_n;\theta)}{\partial \theta} = 0

ou   \frac{\partial \ln L(x_1,...,x_i,...,x_n;\theta)}{\partial \theta} = 0

permet de trouver la valeur \theta = \hat \theta.

\theta = \hat \theta est un maximum si la condition suffisante est remplie au point critique \theta = \hat \theta :

\frac{\partial^2 L(x_1,...,x_i,...,x_n;\theta)}{\partial \theta^2} \le 0

ou   \frac{\partial^2 \ln L(x_1,...,x_i,...,x_n;\theta)}{\partial \theta^2} \le 0

Pour simplifier, dans les cas de lois continues, où parfois la densité de probabilité est nulle sur un certain intervalle, on peut omettre d'écrire la vraisemblance pour cet intervalle uniquement.

[modifier] Propriétés

L'estimateur obtenu par la méthode du maximum de vraisemblance est:

  • asymptotiquement sans biais, (ou convergent en probabilité). Mais il peut être biaisé en échantillon fini!
  • asymptotiquement efficient, il atteint la borne de Cramer Rao
  • asymptotiquement distribué selon une loi normale


[modifier] Exemples

[modifier] Avec une loi discrète

On souhaite estimer le paramètre λ d'une loi de Poisson à partir d'un n-échantillon.

f(x,\lambda) = P_\lambda(X=x) = e^{-\lambda} \frac{\lambda^x}{x!}

L'estimateur du maximum de vraisemblance est: \hat \lambda= \bar x

[modifier] Avec une loi continue

[modifier] Loi exponentielle

On souhaite estimer le paramètre α d'une loi exponentielle à partir d'un n-échantillon.

f(x,\alpha) = f_\alpha(x) = \begin{cases} \alpha e^{-\alpha x} & \text{si} \quad x \ge 0 \\ 0 & \text{sinon} \end{cases}

L'estimateur du maximum de vraisemblance est: \hat \alpha= \frac{1}{\bar x}

[modifier] Loi normale

L'estimateur du maximum de vraisemblance de l'espérance μ et la variance σ2 d'une loi normale est:

   \hat\mu = \bar{x} = \frac{1}{n}\sum^{n}_{i=1}x_i

   \widehat\sigma^2 = \frac{1}{n}\sum_{i=1}^n(x_i-\widehat{x})^2


L'estimateur de la variance est un bon exemple pour montrer que le maximum de vraisemblance peut fournir des estimateurs biaisés: un estimateur sans biais est donné en effet par:    \widehat\sigma^2 = \frac{1}{n-1}\sum_{i=1}^n(x_i-\widehat{x})^2. Néanmoins, asymptotiquement, quand n tend vers l'infini, ce biais, qui est de  \frac{n}{n-1}, tend vers zéro et l'estimateur est alors asymptotiquement sans biais.

[modifier] Si la dérivée ne s'annule jamais

On souhaite estimer le paramètre a d'une loi uniforme à partir d'un n-échantillon.

f(x,a) = f_a(x) = \begin{cases} \frac {1}{a} & \text{si} \quad x \in [0;a] \\ 0 & \text{sinon} \end{cases}

La vraisemblance s'écrit:

L(x_1,...,x_i,...,x_n;a) = \prod_{i=1}^n \frac {1}{a} =  \frac {1}{a^n}

Intuitivement, il est clair que cette expression de la vraisemblance ne s'annule jamais (on peut la dériver pour s'en convaincre). Graphiquement dans le repère (a,L) , sa représentation est une courbe décroissante de type "inverse" (convexe tournée vers l'origine).

La valeur de L sera maximum quand a sera très près de 0, donc quand a sera le plus petit possible (l'intervalle de la densité est alors réduit). Mais, pour que la densité soit vrai, le paramètre a doit être nécessairement plus grand que tous les xi de l'échantillon.

On prend donc comme valeur qui maximise L, tout en vérifiant la définition de la loi de probabilité:

\hat a = max(x_1,...,x_n)

Wn = A = max(X1,...,Xn)

Cet exemple permet de montrer, qu'un estimateur n'est pas toujours défini par une expression numérique explicite. Ainsi on sera amené parfois à considérer le maximum ou le minimum des échantillons.

[modifier] Voir aussi

  • Le maximum a posteriori est une généralisation quand la distribution a priori n'est pas uniforme.