Loi de Student

Un article de Wikipédia, l'encyclopédie libre.

La Wikiversité possède des cours sur « Loi de Student ».
Loi de Student
Densité de probabilité / Fonction de masse
Fonction de répartition
Paramètres k ≥ 1 degrés de liberté,
Support x \in ]-\infty; +\infty[\,
Densité de probabilité (fonction de masse) f_T(t)= \frac{1}{\sqrt{k\pi}}\frac{\Gamma(\frac{k+1}{2})}{\Gamma(\frac{k}{2})}\frac{1}{(1+\frac{t^2}{k})^{\frac{k+1}{2}}}
Fonction de répartition 1-γ = ƒ(tγk ), voir tableau en fin d'article
Espérance si k = 1 : non définie

si k > 1 : 0

Médiane (centre) 0
Mode 0
Variance si k ≤ 2 : +\infty

si k > 2 : \frac{k}{k-2}

Asymétrie (skewness) 0 pour ν > 3
Kurtosis (non-normalisé)
Entropie
Fonction génératrice des moments
Fonction caractéristique

La loi de Student est une loi de probabilité, faisant intervenir le quotient entre une variable suivant une loi normale centrée réduite et la racine carrée d'une variable distribuée suivant la loi du χ².

Soient Z une variable aléatoire de loi normale centrée et réduite et U une variable indépendante de Z et distribuée suivant la loi la loi du χ² à k degrés de liberté. Par définition la variable

T = \frac{Z}{\sqrt{U/k}}

suit une loi de Student à k degrés de liberté.

La densité de T notée ƒT est :

f_T(t)=\frac{1}{\sqrt{k\pi}}\frac{\Gamma(\frac{k+1}{2})}{\Gamma(\frac{k}{2})}\frac{1}{(1+\frac{t^2}{k})^{\frac{k+1}{2}}}, pour k ≥ 1.

où Γ est la fonction Gamma d'Euler.

La densité ƒT associée à la variable T est symétrique, centrée sur 0, en forme de cloche.

Son espérance ne peut pas être définie pour k = 1, et est nulle pour k > 1.

Sa variance est infinie pour k ≤ 2 et vaut \frac{k}{k-2} pour k > 2.

Sommaire

[modifier] Histoire

Le calcul de la distribution de Student a été publié en 1908 par William Gosset pendant qu'il travaillait à la brasserie Guinness à Dublin. Il lui était interdit de publier sous son propre nom, c'est pour cette raison qu'il publia sous le pseudonyme de Student. Le test-t et de la théorie est devenue célèbre grâce aux travaux de Ronald Fisher, qui a qualifié cette distribution de « distribution de Student ».

[modifier] Comportement limite

Lorsque k est grand, la loi de Student peut être approchée par la loi normale centrée réduite.

[modifier] Application : détermination rigoureuse de l’intervalle de confiance associé à l’espérance d’une variable de loi normale de variance inconnue

Ce chapitre présente une méthode faisant appel à la loi de Student afin d’estimer l’espérance μ d’une loi normale dont la variance σ² est supposée inconnue.

Soient x1, …, x n n variables indépendantes distribuées suivant une même loi normale d’espérance μ (à déterminer) et de variance σ² (inconnue).

Afin de parvenir au résultat, il est nécessaire d’introduire les variables \overline{x} et s.

Soit

\overline{x} = \frac{1}{n} \Sigma_{i=1}^n x_i

La variable \overline{x} suit la loi normale d’espérance μ et de variance \frac{\sigma^2}{n}.

Soit

s = \Sigma_{i=1}^n \frac{(x_i - \overline{x}) ^2}{\sigma^2}

La variable aléatoire s suit la loi du χ² à n - 1 degrés de liberté.

Remarque : ce résultat utile se démontre à partir de la propriété définissant la loi du χ² en tant que somme des carrés de variables normales centrées et réduites indépendantes 2 à 2, mais il n’en est pas pour autant la conséquence directe : en particulier les variables x_1-\overline{x}, \ldots , x_n-\overline{x} ne sont pas indépendantes entre elles.

Pour n grand, la variance \frac{\sigma^2}{n} de \overline{x} tend vers 0, et la valeur d’une réalisation de \overline{x} constitue ainsi une estimation de l’espérance μ, qui est également l’espérance de la loi normale suivie par les variables x1, …, x n. Néanmoins, seule la connaissance préalable de la variance σ² de cette loi permet de caractériser un intervalle de confiance pour la variable \overline{x}-\mu.

Par contre, il est possible de caractériser un intervalle de confiance rigoureux pour la variable suivante :

T_0=\frac{\overline{X}_n-\mu}{S_n / \sqrt{n}},

avec

S = \frac{s\sigma^2}{n-1} = \frac{1}{n-1}\Sigma_{i=1}^n (x_i - \overline{x}) ^2

En effet, moyennant quelques simplifications, la variable T0 peut se réécrire comme

T_0 = \frac{Z}{\sqrt{s/(n-1)}}

avec

 Z = \frac{\overline{x}-\mu}{\sigma/\sqrt{n}}.

la variable Z suit la loi normale centrée et réduite, et nous avons vu ci-dessus que la variable s suit la loi du χ² à n - 1 degrés de liberté. De plus, il est possible de démontrer que Z et s sont indépendantes. Par définition, T0 suit donc la loi de Student à k = n - 1 degrés de liberté.

La distribution de la variable T0 est donc connue indépendamment de σ², et par conséquent les intervalles de confiance qui lui sont associés sont également connus. Ainsi, il est possible d’obtenir un intervalle de confiance pour μ à partir d’une réalisation des variables x1, …, xn, de laquelle on déduit des valeurs de \overline{x} et S. La suite de ce chapitre détaille la procédure permettant la détermination de cet intervalle de confiance.

Pour une variable T suivant la loi de Student à k degrés de liberté, on définit tγk comme

la quantité telle que la probabilité d’obtenir T > tγk soit égale à γ.

Ceci revient à imposer que 1-γ soit l'image de tγk par la fonction de répartition de la loi de Student. La quantité tγk est également appelé le quantile d’ordre 1-γ de la loi de Student à k degrés de liberté (voir tableau des valeurs de tγk ci-dessous).

Dans ce cadre, si tγk > 0, alors la probabilité d’obtenir -tγk < T0 < tγk est égale à 1-2γ.

Or on a

\mu = \overline{x} - T_0 \sqrt{\frac{S}{n}}.

La probabilité d’obtenir  \overline{x} - t_\gamma^{n-1}\sqrt{\frac{S}{n}} < \mu < \overline{x} + t_\gamma^{n-1}\sqrt{\frac{S}{n}} est elle aussi égale à 1-2γ. Le niveau de confiance α associé à cet intervalle est donc α = 1-2γ.

Le niveau de confiance α correspond à la probabilité que l’espérance μ de la loi normale se trouve à l’intérieur de l’intervalle de confiance. Par exemple pour α = 0,95, on a un niveau de confiance de 95 %, correspondant à γ = (1-α)/2 = 0,025.

La courbe ci-dessous illustre la notion de niveau de confiance en représentant celui-ci comme une intégrale (aire de la zone en bleu).

Dans la courbe ci-dessus, les frontières entre la zone centrale et les deux zone latérales identiques correspondent à t = tγk et t = -tγk .

En résumé, l’intervalle de confiance de l’espérance μ d’une loi normale de variance quelconque inconnue peut être déterminé à partir des valeurs de n variables indépendantes x1, …, xn suivant toutes cette même loi. Pour un niveau de confiance donné α, cet intervalle est le suivant :

 \left[\,\overline{x} - t_{(1 - \alpha)/2}^{n-1}\sqrt{\frac{S}{n}}, \overline{x} + t_{(1 - \alpha)/2}^{n-1}\sqrt{\frac{S}{n}}\,\right] ,

avec

\overline{x} = \frac{1}{n} \Sigma_{i=1}^n x_i,
S =  \frac{1}{n-1}\Sigma_{i=1}^n (x_i - \overline{x}) ^2,

et

tγk le quantile d’ordre 1-γ de la loi de Student à k degrés de liberté (dont la définition exacte est donnée ci-dessus).

[modifier] Tableau des valeurs du quantile

Un tableau des valeurs du quantile en fonction de γ et k est fourni ci-dessous.

γ
k 0,10 0,05 0,025 0,010 0,005 0,002 5 0,001 0 0,000 5
1 3,078 6,314 12,71 31,82 63,66 127,3 318,3 636,6
2 1,886 2,920 4,303 6,965 9,925 14,09 22,33 31,60
3 1,638 2,353 3,182 4,541 5,841 7,453 10,21 12,92
4 1,533 2,132 2,776 3,747 4,604 5,598 7,173 8,610
5 1,476 2,015 2,571 3,365 4,032 4,773 5,893 6,869
10 1,372 1,812 2,228 2,764 3,169 3,581 4,144 4,587
25 1,316 1,708 2,060 2,485 2,787 3,078 3,450 3,725
50 1,299 1,676 2,009 2,403 2,678 2,937 3,261 3,496
100 1,290 1,660 1,984 2,364 2,626 2,871 3,174 3,390
1,282 1,645 1,960 2,326 2,576 2,807 3,090 3,291

Remarque : la dernière ligne du tableau ci-dessus correspond aux grandes valeurs de k. Il s’agit d’un cas limite pour lequel la loi de Student est équivalente à la loi normale centrée et réduite.

[modifier] Notes


[modifier] Voir aussi

[modifier] Articles connexes

[modifier] Liens externes

Ce document en français contient en particulier la dérivation de l'expression de la densité de probabilité ƒT, la démonstration de la distribution de la variable s suivant la loi de Student à n-1 degrés de liberté, ainsi que la démonstration de l'indépendance de s et Z.