Variance (statistiques et probabilités)

Un article de Wikipédia, l'encyclopédie libre.

Pour les articles homonymes, voir Variance.

En statistique et probabilité, la variance est une mesure arbitraire servant à caractériser la dispersion d'un échantillon ou d'une population. La variance est toujours positive ou nulle (Si nulle, cela signifie alors que les données sont toutes identiques). L'écart type est sa racine carrée :

\sigma_x = \sqrt{V(X)}

En probabilité, dans le cas général, si X est une variable aléatoire :

V(X)=\mathbb{E}((X-\mathbb{E}(X))^2)=\mathbb{E}(X^2)-\mathbb{E}(X)^2

\mathbb{E} étant l'espérance mathématique

[modifier] Cas discret

La variance V(X) représente la moyenne des carrés des écarts à la moyenne : elle permet de caractériser, tout comme l'écart type, la dispersion des valeurs xi par rapport à la moyenne, notée \overline {x}, ou encore E(X).

Soit une série statistique (x_i, n_i)_{i = 1 \cdots k} de moyenne \overline{x} et d'effectif total n (c’est-à-dire n=\sum_{i=1}^k n_i et p_i=\frac{n_i}{n}).

La variance de cette série est alors :

V(X)=\sum_{i=1}^k p_i(x_i-\overline{x})^2

[modifier] Simplification

La moyenne peut être considérée comme le barycentre de la série.

D'après le théorème de König , on a : V(X)=\sum_{i=1}^kp_i(x_i^2)-\overline{x}^2


[modifier] Équiprobabilité

Dans le cas d'équiprobabilité,

V(X)=\frac{1}{n}\sum_{i=1}^n(x_i-\overline{x})^2=(\frac{1}{n}\sum_{i=1}^n(x_i)^2)-\overline{x}^2

Remarque: égalité toujours vraie, même s'il n'y a pas équiprobabilité! (cf développer le calcul et sortir la moyenne de la somme dans le terme croisé)

[modifier] Cas continu

Dans le cas continu, la variance se calcule de la façon suivante :

V(X)= \int_{\mathbb{R}} x^2\, f(x)\, dx - \left[ \int_{\mathbb{R}} x\, f(x)\, dx \right]^2

(voir écart type pour l'ensemble des formules disponibles)

Le calcul de chaque élément participant à la variance suppose à première vue celui de la moyenne, ce qui devrait poser des difficultés pour la calculer en temps réel. Heureusement, ce calcul reste possible en cumulant au cours des observations :

  • Le nombre des observations : n
  • La somme des valeurs observées : S_1=\sum_{i=1}^nx_i
  • La somme des carrés des valeurs observées : S_2=\sum_{i=1}^nx_i^2

La variance est alors disponible à tout moment, au fur et à mesure des observations en calculant :

\frac{S_2}{n}-\frac{S_1^2}{n^2}

Il importe de distinguer la variance réelle d'un échantillon et la variance estimée de la population dont celui-ci est tiré.

On peut faciliter la compréhension de cette formule par les néophytes en disant que la variance équivaut à: la moyenne des carrés moins le carré de la moyenne.

[modifier] Voir aussi

modifier Articles de mathématiques en rapport avec les probabilités ou les statistiques
Statistiques descriptivesAnalyse des donnéesVisualisation des donnéesEstimateursTests statistiquesSéries temporelles et économétrieStatistique MathématiqueThéorie des probabilitésVariables aléatoiresInégalitésThéorèmes limitesProcessus stochastiquesLa mécanique statistiqueLes statistiques et l'économieLes statistiques et la sociologieLes statistiques et les sciencesLes probabilités et les jeux • Les équations aux dérivées partielles et les probabilités