Discuter:Loi de probabilité

Un article de Wikipédia, l'encyclopédie libre.

a noter que pour les lois de probabilités discrètes, il manque la loi de Bernoulli, qui est sûrement l'exemple le plus simple: http://fr.wikipedia.org/wiki/Distribution_de_Bernoulli



"une loi de probabilité est une mesure positive sur un espace mesuré de masse finie égale à 1" Je me demande si le lecteur non spécialiste (c'est l'audience d'une encyclopédie) trouvera quelque éclaircissement que ce soit dans une telle formulation ! Ne cherchons-nous donc pas à favoriser l' intelligibilité sur la précision ? Bertrand Russell a rappelé que les deux étaient le plus souvent antinomiques.

Le refuge derrière un langage obscur est un héritage de la philosophie médiévale, et le fléau qui handicape l'université française (relativement par exemple aux écoles d'ingénieurs ou aux universités anglosaxonnes). La wikipedia pourrait constituer à mon humble avis un moyen d'en sortir.

Très juste. C'est déplacé dans une section. Exol

[modifier]  ???

Je ne comprends pas pourquoi on est revenu en arrière en supprimant mes ajouts sur le caractère d'entropie maximale des lois de probabilité sans la moindre explication ! Cette caractéristique est extrêmement importante, et je ne vois pas ce que la Wikipedia à a gagner en supprimant des informations exactes relatives à un sujet.

J'approuve Exol quand il dit que c'est hors sujet. Ici l'article traite des lois de probabilité en toute généralité, vous parlez apparemment de lois de probabilités particulières (par exemple: Gaussienne / Poisson / etc ?). Si c'est effectivement vrai et important, ça mérite une place, mais ailleurs (ou plus loin dans l'article, où on parle de ces lois particulières-là.) FvdP (d) 14 jul 2004 à 23:43 (CEST) (P.S. j'ai écrit ça avant qu'Exol ne transforme l'article en un article sur les lois de probabilités usuelles, ce qui détruit mon argument. Soit...) FvdP (d)
Bon, ok, je reprends la copie :-) J'ai tenté de faire un compromis en créant des sections supplémentaires, qui, je l'espère, vont mettre tout le monde d'accord. A vous de jouer à présent ! Exol

La modification actuelle me convient. Ce qui est important, c'est le fait que le caractère d'entropie maximale est loin de ne concerner que la distribution exponentielle (contrainte unique : valeur de la moyenne) et la distribution gaussienne (contraintes : valeur de la moyenne et de l'écart-type), mais s'applique également à bien d'autres. C'est le cas entre autres de la Loi de Zipf (contrainte : logarithme de la valeur moyenne, c'est à dire l'ordre de grandeur), et de celle de Mandelbrot (qui est en fait la même dans laquelle on introduit deux facteurs correcteurs).

Cela dit, je suis d'accord pour en faire éventuellement un article à part si besoin, par exemple reprenant le sujet dans "méthodes bayésiennes" (à écrire). François-Dominique 15 jul 2004 à 00:00 (CEST)

Je sais bien... Je pense qu'un article sur le maximum d'entropie se justifie. Cela dit, je pense qu'il est plus important d'étoffer celui sur les lois de probas, notamment en donnant plus d'exemples... Exol
Je pense qu'il faudrait fusionner la page avec celle de variable aléatoire. De plus, il faudrait faire une redirection à partir de loi de probabilités avec un s finial (c'est plus correct). Exol 15 jul 2004 à 02:24 (CEST)

Personnellement, je n'ai pas d'avis autorisé sur "une loi de probabilité [...] mesure positive sur un espace mesuré de masse finie égale à 1" et encore moins sur l'entropie maximale. C'est certainement la raison pour laquelle je comprends mal le rapport avec la description élémentaire de quelques lois de probabilité. Il me semble que la définition de la loi de probabilité, quelle qu'elle soit, serait plus à sa place au début de l'article que comme conclusion. Quant à l'entropie maximale, je la verrais plutôt dans l'article plus fondamental Probabilité. Sinon, il faudrait prévoir un nouvel article pour héberger les lois brièvement décrites. Jct 3 mai 2005 à 16:33 (CEST)

[modifier] Fusion avec Distribution (statistique)

Il y a t il une bonne raison que cet article soit distinct de Distribution (statistique) ? le contenu est quasi identique ! Si personne ne s'y oppose, je lancerais une fusion de ces deux articles. Sylenius 9 décembre 2006 à 19:02 (CET)

L'article distribution (statistique) a été créé en avril 2006. Le 20 avril 2006Eric Kvaalen (d · c · b) y recopie le contenu de cet article. Je serais d'avis que rien ne soit touché sur cet article (loi de probabilité) qui a l'antériorité (en particulier son titre). Je ne vois pas ce qu'a de spécifique la notion de distribution en statistique. En attendant que quelqu'un créé un article spécifique stat sur les distributions, il suffit de créer un redirect de distribution (statistique) vers Loi de probabilité. HB 9 décembre 2006 à 20:40 (CET)
Je suis assez d'accord. Créer un redirect effacerait cependant le contenu de l'article distribution. Est-ce faisable ? sachant que d'autres utilisateurs y ont contribués après la copie par Eric Kvaalen (d · c · b), est ce que l'on peut supprimer leurs contributions comme ça ? Il me semblait que la fusion était la solution la plus simple (?), mais tu es admin, tu dois savoir ça mieux que moi, et du coup, je te laisse te débrouiller avec ces histoires Clin d'œil Sylenius 9 décembre 2006 à 20:56 (CET)
Stop ! Le titre d'admin ne me donne que la possession d'un balai, pas celui de la sagesse ! J'ai donné mon avis, attendons ceux de l'autre article (les modification ont été très minimes) personne ne devrait se sentir lésé. Le problème est de savoir s'il faut créer un redirect ou différentier les deux articles. HB 9 décembre 2006 à 21:09 (CET)
Ah, mais je ne parlais que d'un point de vue d'une meilleure connaissance wikipédienne Clin d'œil. Pour en revenir au sujet, pour moi, les deux articles recouvrent exactement la même notion. Sylenius 9 décembre 2006 à 21:17 (CET)
Bon j'ai étalé cela sur la place publique . on verra bien les réactions. HB 9 décembre 2006 à 21:23 (CET)
J'ai fusionné les deux articles et les historiques afin de crédités les auteurs des quelques modifications apportées à la copie originale de Loi de probabilité. Jerome66 | causer 18 décembre 2006 à 09:44 (CET)

[modifier] une petite question sur la loi de laplace

bonjour! je suis un étudiant de la faculté des sciences juridiques et economiques (bac +2)( universités de NOUAKCHOTT, MAURITANIE) j'ai vus dans un livre que lorsque une varianble X suit une loi normale de paramétres N{m;v} (v:l'ecart type) et qu' il ya une autre variable V=aX + b on peut dire que V aussi suit une loi normale de paramétres N{(a.m) + b;|a|v} et dans le cours qui est representer par WIKIPEDIA il est marqué N{(a.m) + b;a2v2} (a2: a au carree, v2: v au carree)je vous pris de me présenter une solution. merci d'avoir m'aider, je crois que j'ai ete claire merci une autre fois

cela dépend si les paramètres choisis sont la moyenne et l'écart-type (comme dans votre cours) ou la moyenne et la variance (comme dans l'article). Comme la variance est le carré de l'écart type, cela explique cette différence de présentation. HB 17 mai 2007 à 16:21 (CEST)