Test (statistique)

Un article de Wikipédia, l'encyclopédie libre.

Pour les articles homonymes, voir Test.

Sommaire

[modifier] Principe d'un test statistique

Le but d'un test statistique est de tester une hypothèse concernant un ensemble de données.

[modifier] Exemple

On dispose de N réalisations d'une loi que l'on sait normale (espérance μ et variance 1), on désire tester l'hypothèse :

  • H0 : μ = 0

contre :

  • H1 : \mu \ne 0

Calculons T_{emp} = \frac{\sum_{i=1}^{N+1} x_i}{\sum(x_i-\frac{1}{N}\sum_{i=1}^N x_i)^2}.

Sous l'hypothèse H0, nous connaissons la distribution de cette statistique. Nous pouvons alors évaluer sa vraissemblance en calculant une p-value : p_{value} = P^{H_0}[T \ge T_{emp}]

[modifier] Différents types d'erreurs

Dans la pratique, les tests statistiques conduisent à deux types d'erreurs :

  • Rejet à tort de l'hypothèse H0 : erreur de première espèce, ou faux positif.
  • Acceptation à tort de l'hypothèse H0 : erreur de seconde espèce, ou faux-négatif.

Il est alors possible de contrôler α, le taux d'erreur de première espèce :

  • Si pvalue < α : On rejette H0
  • Si pvalue > α : On accepte H0

Remarque : Dans les livres Statistiques il est marque que Rejet de Ho ssi pvalue < α [1]

D'après Gujarati [2] la pvalue est le niveau significatif le plus bas où l'hypothèse nulle peut-être rejetée (traduction faite par mes soins, il se peut qu'elle ne soit pas exacte à 100 %) ainsi donc si pvalue > α alors on ne rejette pas

Schématiquement : Soit α = 5%

Si P-Value = 0,03 :
0%---1%---2%---3%---4%---5%---6%---7%---8%---9%---10%
]...Non Rejet..[...............Rejet...............[
Or à 5%, on rejette --> RHo

Si P-Value = 0,05 :
0%---1%---2%---3%---4%---5%---6%---7%---8%---9%---10%
].......Non Rejet........[..........Rejet..........[
Or à 5%, on a le niveau le plus bas qu'on rejette, ce niveau est compris dans le test --> RHO

Si P-Value = 0,07 :
0%---1%---2%---3%---4%---5%---6%---7%---8%---9%---10%
]............Non Rejet.............[.....Rejet.....[
Or à 5%, on ne rejette pas --> Non rejet de Ho (ce qui est différent d'acceptation de Ho qui dépendra du test de seconde espèce)

[modifier] Liste des tests statistiques

[modifier] Test du T

  • H0 : μ = μ0
  • H1 : μ > μ0

[modifier] Test du U

  • H0 : μ = μ0
  • H1 : μ > μ0

[modifier] Test du U

  • H0 : π = p0
  • H1 : π > p0

[modifier] Test du χ2

  • H0 : σ2 > = σ02
  • H1 : σ2 > σ02

[modifier] Test du U

[modifier] Test du U

[modifier] Test du F

[modifier] Test du χ2

[modifier] Test du T

[modifier] Test de Fisher-Student

[modifier] Test de Spearman

[modifier] Tests non paramétriques

[modifier] Test de Mann-Whitney

Le test de (Wilcoxon-) Mann-Whitney est un test non paramétrique d'identité portant sur deux échantillons indépendants issus de variables numériques ou ordinales.

Ces deux jeux peuvent contenir des nombres différents d'observations, ou même faire référence à deux variables différentes.



1) C'est un test d'identité : il porte sur le fait que deux séries de valeurs numériques (ou ordinales) sont issues d'une même distribution.

2) Il est non paramétrique, c'est à dire qu'il ne fait aucune hypothèse sur les formes analytiques des distributions F1(x) et F2(x) des populations 1 et 2. Il teste donc l'hypothèse :

H0 : "F1 = F2"

3) Il utilise non pas les valeurs prises par les observations, mais leur rangs une fois ces observations réunies dans un même ensemble.

 de tester une hypothèse concernant un ensemble de données.

[modifier] Exemple

On dispose de N réalisations d'une loi que l'on sait normale (espérance μ et variance 1), on désire tester l'hypothèse :

Le test de Mann-Whitney a donc le même objectif qu'un autre test d'identité important, le "Test du Chi-2 d'identité", dans sa version pour variable numérique. Si les populations sont supposées normales et de même variance, le test t aura la préférence.


Le test de Kruskal-Wallis peut être perçu comme une extension du test de Mann-Whitney à plus de deux échantillons (de même que ANOVA univariée est une extension du test t à plus de deux échantillons).

[modifier] Test du signe

[modifier] Test de Wilcoxon

 R_\alpha(n) = \frac{n(n+1)}{4}- u_{1-\alpha/2}\sqrt{\frac{1}{24}n(n+1)(2n+1)}


 R_\alpha(n) = \frac{n(n+1)}{4}- u_{1-\alpha}\sqrt{\frac{1}{24}n(n+1)(2n+1)}

[modifier] Notes et références

  1. Wonnacott & Wonnacott, Statistique (4e ed.), Editions Economica p.343
    Jean-Jacques Droesbeke, Eléments de Statistique (3 ed.), Editions Ellipses p.335
    Damodar Gujarati, Basic Econometrics, 4th Edition, McGraw-Hill Companies, pp 137-138
  2. Damodar Gujarati, Basic Econometrics, 4th Edition, McGraw-Hill Companies, pp 137

[modifier] Voir aussi

[modifier] Liens internes

[modifier] Bibliographie

  • (fr)DAGNELIE P. (1998) Statistique théorique et appliquée. Tome 1 : Statistique descriptive et base de l'inférence statistique. Paris et Bruxelles, De Boeck et Larcier.
  • (fr)DAGNELIE P. (1998) Statistique théorique et appliquée. Tome 2 : Inférence statistique à une et à deux dimensions. Paris et Bruxelles, De Boeck et Larcier.
  • (fr)DROESBECKE J.-J. (2001) Éléments de statistique. Paris, Ellipses.
  • (fr)ESCOFIER B., PAGES J. (1997) Initiation aux traitements statistiques : Méthodes, méthodologie. PUR, Rennes.
  • (fr)FALISSARD B., MONGA (1993) Statistique : concepts et méthodes. Paris, Masson.
  • (fr)ROUANET H., BERNARD J.-M., LE ROUX B. (1990) : Statistique en sciences humaines : analyse inductive des données. Paris, Dunod.
  • (fr)SAPORTA G. (1990) Probabilité, Analyse des données et Statistique. Paris, Technip.
  • (fr)VEYSSEYRE R. (2002) Statistique et probabilité pour l'ingénieur. Paris, Dunod.