Discuter:Entropie

Un article de Wikipédia, l'encyclopédie libre.

Aucun onglet n'existant actuellement pour les sources, la première section de la page de discussion leur est ici consacrée.

Sommaire

[modifier] Sources

[modifier] Zeilinger

Ouvrage "Information : the new language of science" de Hans Christian von Baeyer, phoeniw/orionboobs, 2003, 2004 195.132.57.12 12 déc 2004 à 00:49 (CET)


Au fait, est-ce que les remarques de cet Anton Zeilinger font aujourd'hui autorité parmi les scientifiques de son domaine ? Je dis ça, parce que des découvertes si récentes (2001 !), dans des domaines si pointus trouvent en général difficlement leur place dans une encyclopédie (qui n'est pas là pour suivre l'actualité de la recherche scientifique). Qu'est-ce qui nous assure que d'ici ne serait-ce qu'un mois un autre chercheur se rende compte que les travaux de Zeilinger ne sont après tout pas si pertinents que ça ? Il serait mieux de se contenter d'exposer ici du savoir déjà bien éprouvé et qui a résisté aux attaques pendant un peu plus que seulement trois ans. Je ne crois pas que ce Zeilinger ait déjà sa place aux côtés de Shannon (du moins pas pour ses travaux les plus récents). Mais peut-être que je me trompe. Des avis ?
--[[Utilisateur:Aldoo|Aldoo]] 12 déc 2004 à 01:43 (CET)
Nous sommes assez loin des trois ans, me semble-t-il (cela dit, en effet, il manque sans doute à la Wikipédia : l'équivalent de l'organum (ou du symposium, je ne sais plus) de l'Universalis). Toutefois, comme ses travaux sont cités au conditionnel, il est clair qu'ils sont cités pour complétude de l'article, afin que personne ne parte sur une idée incomplète de la façon dont est vue l'entropie par les physiciens. Une encyclopédie de l'électricité datée de 1895 que j'ai ici parle de la "théorie de l'électron". 195.132.57.12 12 déc 2004 à 02:11 (CET)
1975    Prize of the City of Vienna for the Encouragement of Young Scientists
1979    Prize for Junior Scientists, Kardinal Innitzer Foundation, Vienna
1980    Prize of the Theodor Körner Foundation, Vienna
1984    Sir Thomas Lyle Fellow, University of Melbourne
1994    Corresponding Member, Austrian Academy of Sciences
1995    Prix "Vinci d' Excellence", Fondation LVHM, Paris
1996    Kardinal Innitzer Würdigungspreis, Vienna
1996    Austrian Scientist of the Year
1996    European Lecturer, European Physical Society
1997    Welsh Lecturer, University of Toronto
1997    European Optics Prize, European Optical Society
1998    Honorary Professor, University of Science and Technology of China
1998    Full Member, Austrian Academy of Sciences
1999    Fellow, American Physical Society
2000    Member, Academia Scientiarum et Artium Europaea
2000    Senior Humboldt Fellow Prize, Alexander von Humboldt-Stiftung
2000    Science Prize of the City of Vienna
2001    Ehrenzeichen for the Sciences and Arts of the Republic of Austria
2001    Member, Order "Orden pour le mérite für Wissenschaften und Künste"
2001    Prize "Visionär 2001", ORF and "Der Standard" Austria
2001    "World Future Award 2001", Men´s World Day
2001    "Erwin Wenzl Preis 2001", Upper Austria
2002    Chemerda Lecturer, Pennsylvania State University
2002    Member, Berlin-Brandenburgische Akademie der Wissenschaften
2002    Johannes Kepler-Prize, Upper Austria


L'article qui est cité ici est celui de 2001 qui aurait donné naissance au principe de Zeilinger (et c'était bien il y a trois ans, j'insiste !). Un principe vieux de trois ans, me semble un peu jeune pour être un principe éprouvé. Mais je ne dis pas que c'est le cas de toute l'œuvre de Zeilinger (je suppose que ses publications des années 70 ont déjà été largement débattues, par exemple). Néanmoins, si le principe de Zeilinger est représentatif des questions que la communauté se pose aujourd'hui, il est à ce moment justifié de le citer en exemple (mais il faut clarifier le passage concerné dans l'article). Je ne suis pas théoricien de l'information, et encore moins physicien, et je ne me permets pas juger Zeilinger. En revanche, je voulais juste m'assurer que vous compreniez bien ce que l'on souhaite faire figurer dans cette encyclopédie. Cordialement, --[[Utilisateur:Aldoo|Aldoo]] 12 déc 2004 à 02:22 (CET)
OK, je vais rechercher la date de premier énoncé de ce principe et remanier le passage de l'article en conséquence ;-) 195.132.57.12 12 déc 2004 à 02:34 (CET)
Merci :-), les choses sont mieux posées ainsi. Maintenant, si le paragraphe n'est pas pertinent, il ne manquera pas de choquer assez vite un spécialiste du domaine, qui le corrigera assez tôt. Donc je considère avoir joué mon rôle ;-). Bonne continuation ! --[[Utilisateur:Aldoo|Aldoo]] 12 déc 2004 à 14:20 (CET)

[modifier] Critiques

  • Le "degré de désordre" n'est pas une définition de l'entropie, seulement une aide pour l'intuition. L'entropie est une grandeur thermodynamique, pas une vague idée sur le désordre.
  • Il y a beaucoup de choses justes dans cet article mais elles sont toutes dans le désordre.
  • L'ensemble est assez confus. Les auteurs connaissent mal l'histoire et les raisons des concepts qu'ils présentent. Ni Rudolf Clausius, ni Ludwig Boltzmann (sauf par sa constante) ne sont cités.
  • La façon classique de définir l'entropie comme une fonction d'état n'est pas présentée, alors qu'avec la définition de Boltzmann, elles devraient être les points essentiels de cet exposé.
  • L'argument final me semble faux. Pourquoi des concentrations de matière ne pouraient-elles pas se disperser ?

--TD 17 mar 2005 à 10:53 (CET)

[modifier] suppressions ?

J'ai supprimé les passages suivants parce que selon moi, il n' ont pas leur place ici (mais je sais que Zeilinger est un très grand physicien).--TD 17 mar 2005 à 13:30 (CET)

La « flèche du temps », posée pour rendre compte de faits d'expériences, s'articule difficilement avec des équations physiques macroscopiques, qui pour leur part sont réversibles. Encore aujourd'hui, cette question est l'objet d'intenses recherches, de par son lien avec la nature profonde de l'univers (relativité, mécanique quantique). Il est à noter qu'en mécanique quantique, des expériences comme celles dérivées des fentes d'Young ou l'expérience de Marlan Scully ne font plus apparaître de véritable notion de « temps ». Le sujet de savoir si l'on peut considérer le temps comme une propriété émergente fait l'objet de discussions actuellement (2004).

  • Enfin, la notion d'entropie de Shannon est actuellement examinée de plus près à la suite de critiques de Tim Palmer sur la notion d'information émises en 1995 et concernant deux implicites de la théorie que l'on ne peut considérer comme allant de soi en mécanique quantique :
    • Le fait qu'un état à observer (par exemple la face d'un dé) existe préalablement à la démarche d'observation
    • La considération que les événements qu'on observera ne dépendent pas de l'ordre dans lequel ils seront examinés
L'article Conceptual inadequacy of the Shannon information in quantum measurement, publié en 2001 par Anton Zeilinger et Caslav Brukner, a synthétisé et développé ces remarques. On nomme pour cette raison principe de Zeilinger l'idée que la quantification observée en mécanique quantique serait liée à des questions de quantification de l'information (on ne peut obtenir moins d'information qu'un bit, et ce qui n'est pas observé est par définition aléatoire) qu'à la nature du monde physique. En 2004 on n'a toujours pas trouvé de contre-exemple à ce principe. Ce dernier, comme tous les autres principes en physique, devra être abandonné dès lors que l'on en constaterait un seul.
  • Ce passage me semble incorrect :--TD 17 mar 2005 à 13:30 (CET)

L'organisation d'un chaos apparent de corps interstellaire en disques d'accrétion donne l'impression d'un contre-exemple, mais la notion d'irréversibilité du temps lève celle-ci : on peut en effet imaginer un tel chaos se transformer au cours du temps en disque d'accrétion, mais non l'inverse. C'est donc bien l'état de disque (anneaux planétaires, plan de l'écliptique, forme des galaxies) qui doit être considéré comme « dégradé ».

[modifier] Réponse à Lucronde

Je suis sûr que le texte que j'ai proposé est à revoir mais les modifications apportées par Lucronde aussi.

  • Y a-t-il des phénomènes qui ne subissent pas l'influence du temps ? Tous les phénomènes se produisent dans le temps et ils ne sont pas toujours irréversibles.
  • Un article sur l'entropie doit commencer par donner une définition, même incomplète,* de l'entropie et non par énoncer le principe de la conservation de l'énergie, qui est déjà exposé ailleurs.
  • La chaleur ne se dégrade pas en travail, c'est le contraire.
  • Que veut- dire conjuguer des définitions ?
  • Avant de parler des philosophes sur un ton dédaigneux ("soi-disant ordre naturel"), il faudrait se donner la peine de les connaître et de dire précisément ce qu'ils disent.
  • Il est peu judicieux d'illustrer le second principe avec un exemple emprunté à la matière granulaire, alors que l'application de la thermodynamique à ces questions pose beaucoup de difficultés de principe.

--TD 17 mar 2005 à 15:31 (CET)

J'ai répondu à ces réponses :

  • 1/ Je suis surement moins qualifié que les contributeurs actuels
  • 2/par contre je trouve que l'article dans sa forme actuelle ne délivre pas de définition claire, alors que certaines lectures m'avaient laissé penser que j'avais compris certaines choses et que j'ai voulu les faire partager (ce qui après tout est le but de wikipedia)
  • 3/ Je ne suis pas dédaigneux quand je dis que les philosophes du XVIII° siècles ce sont appuyés à tort sur un "soit-disant ordre naturel". Je constate que l'évolution des idées en physique nous fait plutôt penser que l'ordre naturel n'existe pas. Maintenant il est inutile de citer Voltaire ou Rousseau pour comprendre de quoi il en retourne, même si ces deux grands philosophes ont fait beaucoup pour la philosophie, ils n'ont utilisés que des concepts de leur époque. Ce qui me semble intéressant c'est de constater qu'il y a une évolution des idées en physique ( cf à ce sujet un très intéressant ouvrage de Einstein paru chez Payot), et une création de concepts : mon domaine de prédilection, la musique, s'appuie souvent sur des nouveaux concepts de la physique pour certaines créations de matériau compositionnels. Il me semble que Le son devrait être soumis aux lois de la conservation de l’énergie et de l'équilibre thermodynamique et qu'il y a une auto-organisation qui exige l’incorporation à une structure, corps ou instrument pour permettre la transformation de l’énergie en information. Me trompe-je ?
  • 4/ Quant à l'illustration de l'ordre et du désordre, je laisse les spécialistes à leurs problématiques ; mais je suis fasciné par cette (comment dites vous ? "équivalence d'échelle" ?) transposition possible du microscopique au macroscopique. En gros, la musique contemporaine essaie souvent, elle aussi de reproduire au niveau de la forme musicale, c'est-à-dire de la macroforme, ce qu'elle à pu découvrir au niveau de la décomposition du son, c'est-à-dire de la microforme. Et je pense que cette vision de la physique entre le microscopique et le macroscopique entre la dimension de l'atome et celle de l'univers a quelquechose de fascinant. Vision d'artiste ?

Cordialement --LR 21 mar 2005 à 17:49 (CET)

Oui, l'article tel qu'il est n'est pas satisfaisant. Il doit être complété et toutes les bonnes volontés y sont conviées, et toi aussi bien sûr - je devrais m'en rappeler plus souvent - pourvu que tu fasses un peu attention - souvent il suffit d'ajouter un peut-être pour transformer une erreur en une vérité.
L'article dit ce qu'est l'entropie parce qu'il donne deux de ses définitions (une quantité conservée lors des transformations réversibles que l'on mesure avec la formule dS = dQ / T , cette équation est vraie par définition, ou bien S = k ln oméga , ...) mais cela ne suffit pas pour comprendre ce qu'est l'entropie.
Est-ce qu'une définition simple, du genre "l'entropie est la mesure du désordre", pourrait commencer l'article, avant de manipuler des concepts où "il faut étudier davantage de physique.
Ex. le dégré d'entropie de mon tiroir dépend du nombre de paires de chaussettes, et de la distribution des "unités" chaussette par rapport à la "paire de chaussette". C'est-y-complètement idiot ? --LR 23 mar 2005 à 08:14 (CET)
Ce n'est pas complètement idiot. Mais quand même y a un problème. L'entropie n'est pas la mesure du désordre. Elle est une façon de mesurer un certain type de désordre, difficile à définir.
Oui il faut commencer par les idées les plus accessibles. La partie "vulgarisation" (qui est aussi en un sens la partie la plus noble de la science) devrait se trouver au début. Ce n'est pas le cas parce que je la trouve peu satisfaisante (voir la fin de l'article) et qu'elle nuit à mes yeux à l'image de l'encyclopédie. J'ai préféré provisoirement des définitions précises, (pour m'imposer comme scientifique), mais pour le lecteur ce n'est peut-être pas mieux.
On pourrait prendre l'exemple du tiroir et des chaussettes. Il suffirait de préciser le caractère pédagogique d'une telle approche. Le concept d'entropie est avant tout destiné à l'étude des équilibres thermodynamiques (mais aussi il est vrai dans la théorie de l'information).
A suivre. Merci de tes réponses.--TD 23 mar 2005 à 11:48 (CET)

Pour cela il faut étudier davantage de physique et voir sur des exemples le sens des concepts mis en oeuvre. C'est une théorie difficile, et pour ma part, j'ai commencé à la comprendre plusieurs années après avoir passé des examens sur ce sujet (et avoir lu quelques milliers de pages là-dessus).

Ce que tu dis sur le son est tout à fait juste (sauf sur l'auto-organisation, je ne vois pas bien ce que tu veux dire). La dynamique des fluides donne une des bases de la physique du son et on peut la voir comme une extension de la thermodynamique (une partie de la physique des flux proches de l'équilibre).
Je suis d'accord avec toi sur le caractère fascinant de cette question. De façon générale de nombreuses questions de physique sont fascinantes, il est heureux qu'elles intéressent des personnes de tous horizons. Cordialement. --TD 21 mar 2005 à 19:49 (CET)

Àṭ


Pour ma part, je ne comprends l'entropie après avoir lu cet article. Pour moi une mesure doit avoir des unités, est-ce le cas pour l'entropie ? Ce n'est pas inscrit dans l'article. Je croyais que l'entropie est une mesure de l'énergie dispersée qu'on ne peut pas récupérer pour faire un travail. A la lecture de l'article dans sa forme actuelle, je n'en suis plus si sur. Laurent


Be simple, not too simple. 20 novembre 2005 à 19:34 (CET) Dans la partie physique stat, c'est bien vu de parlait de l'audace de Boltzmann, mais cependant historiquement les propriétés quantiques sont à des années lumieres de la thermodynamique. Il faudrait plutot mettre l'accent sur le fait qu'a l'époque la théorie atomique n'était pas trés bien considéré par la communauté des physiciens (alors que les chimistes l'avait déja adopté depuis bien longtemps). C'est d'ailleurs une des causes du suicide du pauvre Ludwig!!



[modifier] Ma propre contribution :

Cet article, c'est un vrai BORDEL. Comme illustrer la notion de désordre... dans l'article entropie, ça fait pas sérieux. Alors fixons quelques trucs, hein.

-L'entropie est une grandeur ad hoc que l'on définit en réalité comme une sorte de super potentiel : en gros, c'est le truc qui augmente quand le temps passe, puisqu'on a constaté que l'évolution macroscopique était irréversible.

-Le désordre dont on parle est essentiellement un désordre ENERGETIQUE : l'équipartition de l'énergie, sous forme de chaleur, donc d'énergie cinétique macroscopique. Quand un système s'effondre sur lui-même sous l'effet de la gravité, son énergie potentielle se transforme en chaleur, il y a augmentation du désordre énergétique. Et comme c'est une évolution irréversible, il y a bien augmentation de l'entropie, par définition de l'entropie en fait.

-Il y a l'entropie statistique, celle de la théorie de l'information, ou plutôt celle des probabilités. Cette entropie donne une mesure de notre ignorance. Quand on aborde un système, et qu'on doit supposer des probabilités a priori, il faut choisir les probabilités pour qu'elles maximisent cette entropie la. Par exemple, si on prend des particules dans une boite, on a une chance sur deux pour chaque particule pour qu'elle se trouve dans une moitié donnée de la boite. Si on ne fait pas ça, on doit avoir une raison. Il doit y avoir quelque chose que l'on sait pour dire ça. Donc l'entropie statistique n'est pas maximale.

-Quand on maximise pour un système donné cette entropie, c'est à dire qu'on suppose que les probabilités de chacun de ses états possibles est choisie de manière à maximiser l'entropie statistique, on obtient l'entropie de Boltzman. Et cette quantité peut être reliée à l'entropie classique. On peut identifier les deux. L'idée c'est que l'évolution irréversible macroscopique est en fait dûe au fait qu'avec un grand nombre de particules, les évènements les plus probables ont en général lieu. En gros, si vous avez une assemblée de particules groupées dans une moitié de boite, c'est sur qu'elles vont se répartir. Disons que c'est infiniment plus probable. Voilà pour l'origine statistique de l'entropie et la raison pour laquelle on peut identifier l'entropie maximisée et l'entropie classique.

Voilà. Il faudrait vraiment tout refaire.

Renard 8 décembre 2005 à 10:51 (CET)

Tout à fait d'accord. Tu pourrais peut-être faire des suggestions en créant un article Wikipédia:Projet/Physique/entropie qui reprenne certains des éléments actuels mais en les intégrant dans un plan plus rigoureux. Qu'en penses-tu ? Si d'autres contributeurs pouvaient aussi s'exprimer ? --Lucronde 9 décembre 2005 à 14:10 (CET)

[modifier] Entropie de Shannon

Bonjour,

Je trouve bizarre de ne pas retrouver de lien vers cet article (http://fr.wikipedia.org/wiki/Entropie_de_Shannon) dans celui parlant d'entopie.

Je ne sais pas comment en ajouter un donc j'en reste à une "suggestion"...

    • Et bien voilà qui est fait. Pour rajouter un lien tu sélectionnes le mot et tu cliques sur le troisième bouton Ab, ce qui te le met entre crochet [[ ]] --Lucronde 12 janvier 2006 à 16:41 (CET)


Au diable l'entropie !

Le second principe est violé dans la plupart des réactions chimiques qui dégagent de la chaleur, loin de l'équilibre il est vrai, mais les réactfs tendent vers un état d'équilibre. Quand les réactifs sont parvenus infiniment près de cet état, le second pricipe devrait être valable puisue dQ est positive: les réactifs devraient absorber de la chaleur. Comment, au cours d'un processus continu, le sens de la transmission d'énergie peut-il s'inverser? L'entropie est une notion mal définie. Le raisonnement de Clausius est incorrect: Il ne pet exister de chemin réversible pour une réaction spontanée puisque l'état initiale est hors équilibre. Les raisonnement de Boltzmann et de Gibbs ne sont valable que pour les gaz parfaits et seulement pour une détente isotherme infinitésimale au voisinage de l'équilibre. Voir le site <<j.tonnelat.free.fr>>.

[modifier] L'entropie est une fonction d'état ...

Ok, mais alors le titre de l'article devrais être entropie (thermodynamique), ce qui semble mieux convenir à l'ensemble de l'article.

Je pense que celui qui viens pour comprendre ce terme, utilisé dans un langage courant (souvent abusif), risque fort de partir bredouille. A vot' bon coeur m'sieurs dames. ;-) 18 septembre 2006 à 16:13 (CEST)

[modifier] Nouvelle version entropie

Bonjour G.Gonczi

J’ai lu avec intérêt ta contribution sur l’entropie. Je suis plus ou moins d’accord avec la façon dont tu présentes l’entropie et je pense que certaines explications au niveau microscopique sont très intéressantes . Néanmoins il n’est pas dans la déontologie de wikipédia de rayer d’un trait, une réflexion qui dure depuis plusieurs mois voire plusieurs années et qui concerne des dizaines d’intervenants. Il existait un article que tu aurais pu améliorer sans pour autant tomber dans le travers d’un cours magistral destiné à des étudiants physiciens. Il y a aussi la possibilité de laisser des messages, des propositions dans la rubrique « discussion ». Pour ma part je regrette surtout que soit disparu le cas des systèmes fermés pour lesquels la création d’entropie correspond à la somme des variations d’entropie du système et du milieu extérieur. L’exemple de la solidification de l’eau est pédagogique pour comprendre à la fois que l’entropie d’un système peut diminuer et toucher du doigt que la création d’entropie est quasi-nulle si on se rapproche de la réversibilité. Ton exposé est essentiellement basé sur les systèmes isolés. De plus, tu alourdis le thème en ne renvoyant pas nombre de définitions par des liens internes, à ce qui existe déjà : il y a déjà beaucoup de choses d’écrites sur la thermo.

Je ne suis pas persuadé que ton article soit globalement plus clair et plus accessible à des internautes ayant certes des connaissances scientifiques mais n’étant pas physiciens. Je propose de revenir à la version antérieure en essayant d’intégrer les descriptions à l’échelle microscopiques.

Maghémite 7 février 2007 à 16:51 (CET)


Réponse de G.Gonczi:

Bon d'accord, je reconnais que j'y suis allé un peu fort en remplaçant le texte entier par un autre. Mais il faut dire que la présentation que l'on peut appeler "historique" (d'abord macroscopique puis microscopique) contribue à rendre la thermo (qui n'est déjà pas très simple) particulièrement obscure. En effet elle ne répond pas aux questions simples comme:

  • qu'est-ce que c'est concrètement que l'entropie ?
  • pourquoi est-ce une fonction d'état ?
  • pourquoi ΔS = Q / T seulement pour une transformation réversible ?
  • etc ...

Il faut rappeler ici que dans le programme officiel des classes prépa il est dit l'interprétation statistique de l'entropie est hors programme. Il s'en suit que le microscopique est généralement présenté presque comme une curiosité de laboratoire et que le lien avec le macro est rarement établi. De plus l'entropie est souvent définie de la façon suivante: tout système est caractérisé par une fonction d'état S ayant les propriétés suivantes etc... Mais ce n'est pas concret ça, ce n'est pas de la Physique! Quoi de plus concret que de rappeler que la matière est formée de particules en mouvement aléatoire ?

Certes mon texte nécessite un peu plus de math que l'exposé classique (je ne sais pas le présenter autrement) et est peut-être plus utile au lecteur ayant une formation suffisante. Je propose donc de faire un texte en deux parties. La première, avec la version précédente, pourrait s'appeler (par exemple) présentation courante de l'entropie et la seconde définition et propriétés de l'entropie déduites de la structure de la matière en particules (c'est peut être un peu long). Qu'en penses-tu ? Je pourrais m'en occuper mais il faudrait me laisser quelques jours ....

Très cordialement --G.Gonczi 9 février 2007 à 17:26 (CET)


Bonjour

J'ai intégré la partie développée par G.Gonczi sur le niveau microscopique dans l'ancienne version ce qui permet à mon sens de l'améliorer. Je pense malgré tout que l'entropie définie à l'échelle macroscopique est plus fructueuse pour l'étude des machines thermiques et des équilibres chimiques. Ses variations sont plus aisément calculables que dans le cas de la définition statistique dont le calcul se limite, à ma connaissance, pratiquement au gaz parfait. De plus l'ordre de la définition de l'entropie à l'échelle microscopique ou macroscopique n'apporte à mon sens aucune facilité pour la compréhension de l'entropie.

Il resterait à exposer le calcul différentiel et le calcul des variations d'entropie d'un corps pur mais je pense qu'il ne faudrait pas alourdir l'exposé de l'entropie et qu'il faudrait créer un nouvel article.

Maghémite 10 février 2007 à 18:28 (CET)

[modifier] Conflit d'intéret

Rappel : pour des raisons de déontologie évidente, toute forme d'auto-promotion est interdite dans les articles de la Wikipedia, notamment la publicité pour ses publications.


Bonjour, je ne suis pas physicien et je ne comprends décidément pas l'intérêt de wikipédia vu la confusion une fois de plus de cet article. Une simple remarque de bon sens : "Il est courant de dire que l'entropie est une mesure du désordre. En effet, considérons par exemple un jeu de 52 cartes et posons-les toutes du même côté (ordre parfait); cet état macroscopique ne peut être réalisé que d'une seule façon: Ω = 1." À mon avis, dèjà là il y a erreur, car il y 2 possibilités pour réaliser cet état, face et dos. Alors j'ai un peu de mal à donner un quelconque crédit aux autres calculs savants. encore un effort…

Mmm.. Je ne pense pas qu'il y aie erreur. Les 52 cartes côté face et côté dos sont un seul et même état qui est l'état "les 52 cartes montrent le même côté". D'ailleurs, il suffit de renverser la tête pour transformer les "52 cartes côté dos" en "52 cartes côté face". Il est clair que renverser la tête ne change rien à l'état des cartes. --Jean-Christophe BENOIST 5 avril 2007 à 13:07 (CEST)
Je suis d'accord, il n'y a pas d'erreur car ici la définition de l'ordre est choisie par le rédacteur. D'ailleurs ensuite dans l'exemple suivant, l'ordre est défini autrement en rangeant les cartes par couleur et par valeur croissante. Il ne faut pas oublier que ce sont des exemples simples pour la compréhension de phénomènes complexes ! Maghémite 26 avril 2007 à 15:57 (CEST)

[modifier] Contibution à la définiton

La lecture de l'article et celle de la discussion ne fait pas améliorer la caractérisation de la 'chose' nommée ENTROPIE.

Premier problème: tout ce qui est dit est physico-mathématique du niveau 3 ième cycle.
Sans intérêt pour une définition générale, et pour beaucoup de lecteurs.
Deuxième problème: des interprétations incorrectes et/ou ambigües, ainsi que des affirmations
que je qualifie de déplacées.
Exemple: l'intuition commune comprend déjà difficilement le concept d'énergie, cette grandeur
qui, pour un système isolé, a la propriété de se conserver jusqu'à la nuit des temps. ???
Autrement surprenant est le concept d'entropie. ???

Le lecteur d'un bon niveau reste perplexe.

1- l'énergie est un "hyperconcept". Le mot 'énergie' désigne une notion du plus haut niveau
d'abstraction dont est capable notre conscience humaine, sans pouvoir en fabriquer une
représentation.
Le concept fait correspondre le concret à l'abstrait. Le mots 'arbre', 'chaise',... désignent
des objets qui ont une représentation dans notre conscience. Dans une autre langue d'autres
mots désignant les mêmes objets produident les mêmes représentations dans notre conscience.
L'action à faire est d'auto-apprendre la correspondance entre les deux 'choses', et de 
s'auto-conditionner pour mémoriser.
2- Le mot 'entropie' est un hyperconcept pour désigner les constatations que l'on voit dans
la réalité, que nous percevons par nos sens.
Aucun humain ne 'verra', ne percevra l'entropie. La conscience humaine perçoit, par ses sens,
que des phénomènes, qui sont des flux d'énergie. Le mot entropie est un indicateur du flux
observé. (comme la température) Lorsque l'on quantifie l'entropie d'un flux (G/T), cela
désigne un gradient.

Après de nombreuses observations, on constate qu'un tas de sable s'applatit, qu'une pomme tombe de l'arbre, qu'en tombant elle s'abîme, provoquant son pourrissement. Conséquence sa durée de vie est plus courte.

On peut remarquer que la Terre possède une durée de vie longue (relativement à la nôtre), malgré les milliards de calories par seconde qui sont éjectées dans le cosmos, avec la reception d'autres milliards/s envoyées par le Soleil. Les spécialistes disent qu'il y a une usine nucléaire au centre de la Terre. C'est faux car une usine nucléaire a une durée de vie courte, du fait de la pollution de l'endroit de fission, produite par les déchets résultants. Dans le centre de la Terre, compte tenu de sa durée de vie, le taux de pollution doit être très petit, ce qui veut dire très petite entropie. C'est la preuve que le processus interne de la Terre, qui produit beaucoup de chaleur, doit être complexe. Il est intéressant de le connaître.

On peut constater que le système solaire, qui existe localement depuis longtemps, est un ensemble d'énergies de différentes natures, qui se transforment les unes dans les autres. La preuve: la Vie des êtres mamifères ont un rendement plus grand que celui de la photosynthèse, dont ils dépendent. Ces énergies constituent un système 'isolé' dans le cosmos, avec une durée de vie très longue.

Concrètement on perçoit la notion d'entropie lorsque l'on regarde une bille qui descend et remonte sur une paroi parabolique. Elle ne remonte jamais à la hauteur de laquelle elle est partie sur la même paroi. Après n oscillations elle s'arrête. L'entropie du système produit son arrêt. Sa durée de vie est limitée. Notre conscience perçoit une cause à l'arrêt du système. La différence entre l'énergie initiale et l'énergie finale s'est transformée en une énergie de nature différente. Pour notre conscience c'est l'entropie.

PROPOSITION de définition:

L'entropie est le fait que dans un espace, il existe un endroit de grande densité d'énergie,
de natures d'énergie différentes compatibles, telle que cette densité dépassant le seuil de
cohésion de ces énergies, celles-ci vont se déconstruire pour que la densité d'énergie
diminue.
Ce phénomène produit un flux d'énergie VERS son environnement proche. Ce phénomène est
irréversible car la nature des énergies libérées sont d'une densité plus petite et/ou plus
grande. 212.194.216.78 19 novembre 2007 à 22:27 (CET)

[modifier] Indice d'entropie

Bonjour, je crois que l'entropie ne se résume pas aux sciences exactes, mais il existe aussi l'indice d'entropie au niveau des sciences sociales. Il faudrait ajouter une définition. Malheureusement, je ne connais que des définitions provenant de pages web, donc je ne peux pas les ajouter.

[modifier] "en communications"

est un terme vague, y rattacher la théorie de l'information n'éclaire pas le lecteur. Rigolithe 13 février 2008 à 18:52 (CET)


Je trouve que l'article ne parle pas assez du temps, c'est-à-dire des tentatives pour penser le temps à partir de l'entropie, à partir par conséquent du "contenu" physique du temps. (Je n'ai pas les connaissances scientifiques pour compléter l'article, je trouve simplement "bizarre" l'idée d'un temps réversible quand l'entropie est maximale. Le concept "ordinaire" du temps ne se réduit pas à l'irréversibilité, il enveloppe encore l'idée que le passé n'est plus, et pas seulement qu'on ne revient pas à un état physique (un contenu) passé.) Merci à qui saura m'éclairer! Slonimsky (d) 21 mars 2008 à 19:49 (CET)

[modifier] Introduction

L'introduction énumère les différents type d'entropie, c'est bien. Cependant avant cela je pense qu'il faudrait débuter l'article pas une, deux ou trois phrase explicant le concept de manière générale et compréhensible pour tous... ce qui ne semble pas vraiment le cas ici. Kelson (d) 7 mai 2008 à 11:59 (CEST)

[modifier] Bataille de l'entropie

Bataille de l'entropie: la nomenklatura veille au grain


Les non-physiciens qui abordent cet article ne doivent avoir aucun complexe en dépit de la mystérieuse grandeur dont il est question.

Si ceux qui parlent de la grandeur "entropie" avaient compris de quoi il s'agit, ils seraient catastrophés par le gaspillage de ressources que constituent les productions d'entropie dans tous nos chauffages traditionnels.

On se réfère ici à l'article actuel de Wikipédia sur l'entropie et aux discussions qui lui font suite. L'ensemble montre à la fois un débat honnête et une perplexité des intervenants autour de cette grandeur qui est fumeuse tout autant que fameuse.


Quelques petits à-côtés sont un peu gênants sur le plan sociologique.


A - Remarque préliminaire pour démystifier l'entropie

Un chauffage sans production d'entropie serait fourni par la meilleure pompe à chaleur imaginable. Plaçons-nous par exemple dans le cas d'un chauffage servant à maintenir un immeuble à la température de 20°C alors que la température extérieure est de 15°C. - Dans le cas présent, en contrepartie d'un seul joule d'énergie électrique consommée, celle-ci fournirait 60 joules de chaleur. On dit que son COP, "coefficient de performance", serait de 60. Autrement dit, son rendement serait de 60 pour un, ou 6000%.

Pour une même quantité de chaleur fournie, un radiateur ou une chaudière électrique consommeront donc 60 fois plus d'énergie électrique que la référence idéale indiquée ci-dessus. Sur 60 joules fournis, les 59 joules supplémentaires consommés par le radiateur électrique par rapport à la pompe à chaleur idéale sont liés à la dégradation que l'énergie subit entre le moment où elle perd sa forme d'énergie électrique et celui où elle est sous forme de chaleur dans les locaux maintenus à 20°C.

Pour le bilan global, tout se passe comme si on utilisait 59 joules pour chauffer directement l'air du temps, pendant qu'un seul joule servirait à faire marcher la pompe à chaleur idéale.

"Dégrader l'énergie" - comme on le fait dans une chaudière électrique et plus généralement dans tous les chauffages traditionnels - a donc un premier synonyme: "produire de l'entropie", et cette expression est elle-même synonyme de "chauffer l'air du temps".

En conclusion on peut dire: "Dis-moi quelle entropie tu produis et je te dirai combien de ressources énergétiques tu consommes pour chauffer l'air du temps".


B - L'enseignement de l'entropie, c'est la négation de la pédagogie

Des commentaires qui se passent de commentaire:

L'article de Wikipédia sur l'entropie n'est ni pire, ni meilleur que ce qu'on peut trouver par ailleurs. mais internet apporte l'avantage considérable d'avoir accès aux cuisines, d'en savoir un peu plus sur la manière dont sont concoctées nos nourritures intellectuelles, alors que les livres achetés en librairie ne vous donnent que du prêt à consommer.

Quelques phrases relevées dans les discussions de l'article "Entropie", à la date du 07-05-2008:

"Il y a beaucoup de choses justes dans cet article mais elles sont toutes dans le désordre". On a ici une allusion à l'idée fumeuse: "Entropie = désordre".

"Cet article, c'est un vrai BORDEL. Comme illustrer la notion de désordre... dans l'article entropie, ça fait pas sérieux"

"Je suis sûr que le texte que j'ai proposé est à revoir mais les modifications apportées par Lucronde aussi."

"Le "degré de désordre" n'est pas une définition de l'entropie, seulement une aide pour l'intuition. L'entropie est une grandeur thermodynamique, pas une vague idée sur le désordre"

Pourtant, l'article a été entièrement refondu:

"Je ne suis pas persuadé que ton article soit globalement plus clair et plus accessible à des internautes ayant certes des connaissances scientifiques mais n’étant pas physiciens. Je propose de revenir à la version antérieure en essayant d’intégrer les descriptions à l’échelle microscopiques"

"Bon d'accord, je reconnais que j'y suis allé un peu fort en remplaçant le texte entier par un autre. Mais il faut dire que la présentation que l'on peut appeler "historique" (d'abord macroscopique puis microscopique) contribue à rendre la thermo (qui n'est déjà pas très simple) particulièrement obscure. En effet elle ne répond pas aux questions simples comme: - qu'est-ce que c'est concrètement que l'entropie ? - pourquoi est-ce une fonction d'état ?"

Au point de vue pédagogique, la présentation des notions tournant autour de cette grandeur, et que l'on appelle "Second principe de la thermodynamique", a régressé depuis une trentaine d'années. Il ne semble pas qu'on ait pu faire mieux que le Bruhat. Son livre intitulé: " Thermodynamique" développe tous les points de départ d'une construction dont il manque juste une vision élémentaire claire.

Dans les notes prises à la hâte dans un cahier de taupin, en guise de raisonnement, on a pu trouver: S = Q / T pour raisons historiques (sic)... et la suite est aussi fumeuse.

A cause du caractère fumeux et incompréhensible de cette grandeur, le mot possède une valeur incantatoire qui l'a fait utiliser pour d'autres domaines également fumeux et incompréhensibles et aussi - pourquoi pas - en poésie.

N'ayant pas compris la signification concrête de l'entropie, on a trouvé moyen de broder tout autour en faisant de la thermodynamique statistique. Là aussi, il est souvent difficile de faire le lien entre les mots et les formules que l'on brasse, et leur signification concrête.


C - Censure dans les milieux scientifiques


Encore sur Wikipédia, deux commentaires particulièrement significatifs:

a) "Oui, l'article tel qu'il est n'est pas satisfaisant. Il doit être complété et toutes les bonnes volontés y sont conviées" (invitation par l'auteur)

b) sous le titre "conflit d'intérêt", le point de vue presque radicalement opposé:

"Rappel : pour des raisons de déontologie évidente, toute forme d'auto-promotion est interdite dans les articles de la Wikipedia, notamment la publicité pour ses publications." Après le rappel des directives, viennent les présentations d'usage: "Bonjour, je ne suis pas physicien et je ne comprends décidément pas l'intérêt de wikipédia vu la confusion une fois de plus de cet article." Faut-il ajouter que cet intervenant-ci ne nous laisse même pas un pseudo pour toute identité?

On a donc ici, d'une part, un cafouillage honnêtement reconnu par les scientifiques concernés, d'autre part, une espèce de fantôme que l'on pourrait appeler "l'oeil de Moscou", qui reconnaît n'avoir aucune compétence sur le sujet traité, mais qui n'a aucun complexe pour venir faire la police.


D - Des airs de déjà vu

Le cafouillage des collègues physiciens au sujet de l'entropie, il se trouve qu'il m'avait déjà passablement turlupiné à l'occasion de la préparation à l'agregation, il y a trente cinq ans, et j'avais eu beaucoup de plaisir après avoir trouvé l'astuce toute bête qui lui apportait une réponse claire.

Il s'est trouvé alors qu'une représentation claire de ce que représente concrètement l'entropie donne un éclairage nouveau pour ce que doivent être les économies d'énergie, et la préservation de l'environnement.

Depuis une trentaine d'années, j'ai fait diverses tentatives pour faire passer des articles dans des bulletins ou revues scientifiques et aussi dans la presse.

La règle générale a été la censure, avec tout de même des exceptions intéressantes.

Le dernier article censuré était justement placé sur Wikipédia dans "entropie", à la fin de la rubrique "discussions". Il avait pour titre: "l'entropie en bref". Il est resté en place plusieurs mois, mais on a découvert qu'il était indésirable après que j'aie mis dans d'autres rubriques des articles à tonalité plus percutante.

Le censeur avait sans doute découvert tout à coup que c'était un "article à caractère promotionnel"

Que notre petit censeur voyou se rassure. Le présent article, je ne le placerai qu'une fois sur Wikipédia. Le forum Education de France2 est concerné également, parce qu'il y est question de pédagogie, et je rassure de la même façon ses petits censeurs voyous, auxquels j'ai déjà donné beaucoup de travail. Ce qui est censuré sur un forum ne l'est pas forcément sur un autre. Le copier-coller peut se faire tant que la censure n'a pas encore frappé...



Pour plus de détails sur cette question, voir par exemple:


a) Documents pour tout public intéressé:


- Comment une chaudière électrique réchauffe l'air du temps [1]


- Pourquoi la cogénération est sous-développée en France

[2]


- Les chiens de garde de la pensé unique

[3]


- Censure, obstruction: chez les scientifiques également [4]


- Chauffages traditionnels: un gaspillage qui s'ignore [5]


- La cogénération oubliée au Grenelle de l'environnement [6]


- Pédagogies alternatives pour publics non mobilisés [7]



b) Pour les physiciens:

- L'entropie en bref [8]


- Deux grandeurs auxiliaires pour présenter l'entropie: Energie Mécanique Potentiellement Récupérable (EMPR) et Energie Définitivement Dégradée (EDD). [9]


- Cogénération et pompe à chaleur: deux chauffages à faible production d'entropie [10]


Ortograf-fr doc 428 - 2008 - 05

[modifier] L'entropie, fonction d'état

.

A - L'entropie, fonction d'état

Les variations d'entropie d'un système sont de signe contraire et proportionnelles à celles de son "énergie potentiellement récupérable" (Empr).

Le facteur de proportionnalité, c'est la température supposée uniforme et constante, Tambiant, du milieu ambiant, grâce à laquelle on peut définir "l'énergie définitivement dégradée" Edd.

Si un système passe d'un état A à un état B, les variations de son énergie mécanique potentiellement récupérable ne dépendent que des états A et B, et non du chemin suivi. Autrement dit, à une constante additive près, L'Empr est déterminée par l'état du système. C'est une fonction d'état. Il en est de même pour l'Edd et pour l'entropie: l'entropie est une fonction d'état.


B - Un exemple qui ne sera pas de trop pour enfoncer le clou

Soit un système composé, dans son état initial A, de deux kilogrammes d'eau liquide, l'un à 100°C, l'autre à 0°C. La chaleur massique est supposée indépendante de la température. Ce système passe dans un état B où toute l'eau est à 50°C.

On considère deux manières possibles pour passer de l'état A à l'état B:

- Première manière: échange direct de chaleur entre les deux corps, donc avec production d'entropie, de valeur DeltaS

- Deuxième manière: première étape: on fait d'abord marcher un moteur idéal entre l'eau chaude et l'eau froide, de manière à récupérer le maximum d'énergie mécanique, soit W, jusqu'à ce que les deux kilogrammes d'eau soient à la même température.

Au début de cette étape, le moteur fonctionne avec une source chaude à 100°C et une source froide à 0°C. A la fin de cette première étape, les deux températures finissent par s'égaliser et leur valeur commune est inférieure à 50°C, compte tenu de l'énergie mécanique qui a été prélevée. (Elle doit être située aux alentours de 43°C, environ 15% de l'énergie cédée par la source chaude ayant été transformée en énergie mécanique)

Cette première étape ne produit pas d'entropie.

Deuxième étape: on utilise l'énergie mécanique qui a été récupérée grâce au moteur idéal, pour amener les deux kilogrammes d'eau à la température de 50°C.

L'entropie produite dans cette deuxième étape, étape qui nous mène également à l'état B, est égale à celle que l'on produit par un échange direct de chaleur entre les deux kilogrammes d'eau.


C - Diminution de l'Empr

Comment calculer alors la perte d'énergie mécanique potentiellement récupérable lors de l'échange direct de chaleur entre les deux kilogrammes d'eau?

L'entropie d'un système ne dépend que de ce système, et elle est définie à une constante additive près parce que seules ses variations apparaissent dans une transformation. Au contraire, les deux grandeurs qui lui sont liées et qui lui donnent un sens concret, autrement dit l'énergie définitivement dégradée Edd et l'énergie mécanique potentiellement récupérable Empr, supposent l'existence d'un milieu extérieur à la température constante Tambiant (en kelvins).

L'énergie mécanique que le moteur idéal fournit dans la deuxième manière de faire nous donne la perte d'Empr entre l'état A ( 1kg d'eau à 100°C et 1kg d'eau à 100°C ) et l'état B où toute l'eau est à 50°C. Elle est indépendante de la température extérieure.

En faisant par exemple l'hypothèse d'un milieu ambiant à 20°C, on peut calculer l'Empr initiale: un terme positif pour l'eau à 100°C, plus un terme négatif pour l'eau à 0°C. Ici, la somme est positive.

On peut calculer également l'Empr lorsque toute l'eau est à 50°C.

La différence entre ces deux Empr correspond à l'énergie récupérée par le moteur idéal utilisé dans la deuxième manière de faire, première étape, elle correspond donc à l'énergie consommée pour amener l'eau à 50°C au terme de la deuxième étape.

Pour charger le présent document au format pdf sur une page A4, cliquer ici:

[11]

Ortograf-fr

doc 451 - 2008 - 05