Discuter:Deuxième principe de la thermodynamique

Un article de Wikipédia, l'encyclopédie libre.

Pour la page entropie :

  • négentropie, Shannon et information
  • désordre moléculaire
  • vie, cellules de Bénard, ordre loin de l'équilibre
  • mouvement perpétuel

Sommaire

[modifier] Bibliographie

Pour un énoncé pédagogique des lois de la thermodynamique, je vous conseille "Les atomes existent-ils vraiment", de Bernard Diu.


--lagaffe 29 janvier 2006 à 20:19 (CET)


[modifier] Révision partielle

J'ai entrepris la révision du projet jusqu'au paragraphe Formulations du second principe inclus.

La suite demanderait à être améliorée car elle manque de cohésion, de clarté ( souvent incompréhensible) et je pense que des paragraphes entiers ne se justifient pas dans l'exposé général du second principe qui devrait se limiter à l'exposé de sa philosophie. Rien n'empêche de créer de nouveaux textes séparés traitant de ces paragraphes.

Maghémite 9 octobre 2006 à 12:13 (CEST)

[modifier] énergie

J'ai lu sur la page de voyage dans le temps que la récupération de l'énergie d'eau tiède était interdit par le second principe de thermodynamique, pourtant il me semble que de l'eau liquide sera toujours à température plus élevée que le zéro absolu, donc par principe de carnot, il devient possible d'en extraire de l'énergie, de plus même sans gradient aujourd'hui on utilise bien des caméras infrarouges récupérant les rayonnements pour fabriquer un courant, or un corps soumis à l'agitation thermique rayonne nécessairement, c'est donc possible non?Klinfran 2 novembre 2006 à 14:51 (CET)

bonjour, je me pose une question générale : pourquoi la version française de cet article est elle si obscure et si peu abordable ? je reconnais que cela correspond exactement à la façon dont la discipline est enseignée dans le supérieur! la version anglaise a l'air plus pragmatique et apporte une meilleure compréhension ! ce que je trouve bizarre dans cet article : - soit on adopte un point de vue pragmatique, cf l'article en anglais - soit un adopte un point de vue formel, mathématisé, et dans ce cas il faut le faire completement ! le second principe n'énonce t il pas : "Il existe une fonction S, telle que..." ? parce que là je me perd un peu dans ce mélange de point de vue... ce n'est nullement une critique aux auteurs que je félicite d'ailleurs - car je serais de faire aussi bien - mais plutot une réflexion générale sur la thermo enseignée en france.

Bonjour

J'ai entrepris la révision des articles définissant les concepts et les fonctions thermodynamiques en essayant d'apporter une cohérence, en évitant de mathématiser à outrance, ce qui cache l'aspect physique et surtout d'aller dans des détails inutiles qui obscurcissent les exposés ( il faut se limiter à l'exposé de la philosophie du concept). La thermodynamique est une discipline difficile car elle suppose que chaque définition soit bien comprise. J'ai établi de nombreux liens basculant sur les définitions. Pour ce qui concerne le second principe je pense qu'il y aurait des suppressions à effectuer après l'historique. Je conseille de lire l'entropie qui me semble nécessaire pour la compréhension de ce principe.

J'ai lu la version anglaise et il y a aussi des choses à dire...

Maghémite 27 novembre 2006 à 19:00 (CET)

[modifier] certains problèmes!! problèmes certains

Remarques

  • L'entropie d'un système isolé ne peut qu'augmenter ou rester constante puisqu'il n'y a pas d'échange avec le milieu extérieur.

il conviendrait plutot de dire que

  • L'entropie d'un système fermé adiabatique [[système thermodynamiquethermiq] ne peut qu'augmenter ou rester constante puisqu'il n'y a pas d'échange avec le milieu extérieur.

On peut citer comme exemple

La compression d'un gaz dans un cyclidre fermé par un piston le tout adiabatique.

L'état d'équilibre correspond a l'état ou l'entropie du gaz atteint le maximum possible données les contraintes.

Il n'est pas non plus clair que l'environnement peut tres bien recevoir du travail. C'est lorsque l'environnement reçoit de la chaleur qu'il faut tenir compte de la variation d'entropie globale. 18 décembre 2006 à 15:46 (CET)Ppithermo 18 décembre 2006 à 15:46 (CET)

C'est bien d'un système isolé (qui n'échange rien avec l'extérieur, c'est-à-dire aucune énergie au sens large (masse, chaleur et travail) qu'il s'agit et non d'un système fermé (qui n'échange pas de matière avec l'extérieur) adiabatique (qui n'échange pas de chaleur avec l'extérieur). Chaleur et travail sont en effet deux données physiquement identiques, l'une correspondant à des transferts d'énergie microscopique et l'autre correspondant à des transferts d'énergie microscopiques.
Lorsque vous frottez vos mains l'une contre l'autre pour les réchauffer, vous faites augmenter la température de vos mains grâce à un travail (frottement). Il y a donc une légère augmentation d'entropie dans vos mains. Pourtant vous n'avez à aucun moment transféré de la chaleur à vos mains. Si on prend vos mains comme système, on remarque qu'elles n'ont pas échangé de chaleur avec l'extérieur (adiabaticité). Je pense que la masse de vos mains n'a pas changé non plus (système fermé).
Le système isolé ajoute donc qu'on ne reçoit pas de travail de l'extérieur. En fait le point important est que le système soit isolé, c'est-à-dire qu'il ne reçoive pas d'énergie (travail, chaleur ou masse) de la part de l'extérieur. Alors le système suit le deuxième principe de la thermodynamique.
L'exemple du piston est à ce titre mauvais puisqu'il reçoit du travail de la part de l'extérieur. Si on s'amuse à détendre le gaz qu'il y a dans le piston, et si l'on suppose que c'est un gaz parfait, son entropie devrait même baisser.Swannp 21 janvier 2007 à 16:34 (CET)


ceci est à reformuler "Une transformation réversible est une transformation quasistatique susceptible d'être inversée à la suite d'une modification progressive des contraintes extérieures, en permettant au système de retrouver les états antérieurs successifs."

On ne définit pas une transformation réversible en disant qu 'elle est quasi-statique!!il n ya pas équivalence entre les deux notions. Une transformation quasi-statique est un cas particulier de transformation reversible ou on effectue la transformation en passant par une infinité d'états d'equilibre infiniments voisins . Ainsi on peut rendre une transformation réversibles grâce à ce procédé.

[modifier] Réversibilité

J'ai souvent remarqué que certaines personnes font la distinction entre une transformation quasi-statique et une transformation réversible, alors que d'autres non. Pourquoi ne pas adopter deux définition distinctes, du type :

"Une transformation réversible est telle que si l'on renverse la flèche du temps et les contraintes le système évolue jusqu'à retrouver son état initial" et "Une transformation quasi-statique est une transformation thermodynamique qui passe par une infinité d'états d'équilibre", en précisant ensuite que pour certaines personnes ces deux définitions sont identiques et pour d'autres non ?Swannp 3 février 2007 à 16:18 (CET)


Réponse par Ortograf-fr, 24 mai 2008:

La pédagogie du second principe de la thermodynamique a régressé depuis une trentaine d'années, alors que les choses n'étaient déjà pas claires à cette époque.

Au départ, par rapport au problème de la dégradation d'énergie, les chercheurs ont dû chercher à définir les conditions à réaliser pour qu'une transformation se fasse sans dégradation d'énergie

Dans le cas d'un système isolé, ces conditions seront remplies si, au terme d'une telle transformation, on peut revenir à l'état initial sans échange d'énergie avec l'extérieure. La transformation sera alors naturellement qualifiée de réversible.

Pour qu'une transformation soit réversible, une variation infinitésimale des causes qui la produit doit pouvoir provoquer la réaction inverse. La transformation réversible est donc un cas limite, où les causes agissantes sont infiniment faibles.

Ces causes étant très faibles, la réaction sera infiniment lente: on va la qualifier de quasi-statique.

Dans la pratique, "réversible" est donc synonyme de "quasi-statique". Ces transformations sont une vue théorique, mais elles donnent une référence de comparaison très utile pour les transformations réelles, parce qu'on est sûr qu'elles se font sans dégradation d'énergie.

Pour prendre l'exemple le plus significatif, imaginez que vous puissiez chauffer un immeuble avec un dispositif utilisant uniquement des transformations réversibles. Vous auriez alors un chauffage sans production d'entropie. Le dispositif correspondant serait une "pompe à chaleur idéale". Son COP serait couramment de 50, autrement dit son rendement serait couramment de 50 pour un ou 5000%. Ceci montre que la meilleure référence possible pour un appareil de chauffage correspond à un rendement énergétique très supérieur à 100%.

Une transformation "réversible" ou "quasi-statique" est donc à coup sûr une transformation "sans dégradation d'énergie", autrement dit "sans production d'entropie", autrement dit "isentropique". Mais la réciproque n'est pas vraie, et certaines transformations peuvent être isentropiques bien qu'elles ne satisfassent pas à la condition draconienne de la réversibilité.

Supposons par exemple que vous attachiez une masse à un ressort vertical non tendu. La force qui va tendre le ressort au cours de la première demi-oscillation n'est pas du tout infinitésimale, donc la transformation correspondante n'est pas réversible. Elle se fait rapidement, preuve qu'elle n'est pas quasi-statique. Mais, dans la mesure où le ressort est parfaitement élastique, la transformation se fait sans dégradation d'énergie, c'est à dire sans production d'entropie. On est alors dans le cas limite idéal des oscillations non amorties.

[modifier] Extensivité

je fais remarquer que l'énergie, mécanique ou potentielle ou thermque (la chaleur), est une grandeur extensive, contrairement à ce qui est dit dans le texte. Que dW=pdV signifie seulement qu'il s'agit d'énergie mécanique, i.e. dans le hamiltonien le produit des grandeurs conjuguées : -PV ou de même -QU D'autre part la forme généralisée dE=-TdS est la définition même de l'entropie, à partir de la mécanique ; avec laquelle on peut définir des forces généralisées : relation de Gibbs Duhem dS=-1/TdE-mu/TdN -M/TdB -m/TdOmega ... où mu est le potentiel chimique, M la magnétisation B le champ magnétique, m le moment cinétique Omega la vitesse angulaire. Or Omega n'est pas extensif !

Le second principe c'est seulement dS supérieure ou égale à zéro pour un système fermé. J'invite les auteurs à revoir le texte sérieusement.

C'est le principe de Wikipédia: si vous constatez une erreur, vous êtes invité à la corriger. Bonne lecture Sourire. Cordialement, Maloq causer 2 mai 2007 à 16:40 (CEST)

[modifier] Ordre / Désordre

J'ose mettre une bannière d'avertissement pour que les lecteurs de l'article (qui viennent peu souvent dans les discussions) sachent que l'article est sûrement à revoir dés sa définition. En effet, une simple comparaison avec les révisions dans les articles de langue anglaise (a priori de plus grande référence par simple effet statistique) démontre que les explications en termes d' "ordre" et de "désordre" sont de trop grandes sources de confusion pour les lecteurs et ce depuis longtemps. Cela a fait l'objet de nombreux débats dans les archives (voir "Entropy" dans Wikipédia). La notion d'ordre et de désordre n'est plus qu'à peine mentionnée dans l'article sur l'entropie et dans l'article sur le deuxième principe de la thermodynamique, on peut lire.

Furthermore, the concept of entropy in thermodynamics is not identical to the common notion of "disorder". For example, a thermodynamically closed system of certain solutions will eventually transform from a cloudy liquid to a clear solution containing large "orderly" crystals. Most people would characterize the former state as having "more disorder" than the latter state. However, in a purely thermodynamic sense, the entropy has increased in this system, not decreased. The units of measure of entropy in thermodynamics are "units of energy per unit of temperature". Whether a human perceives one state of a system as "more orderly" than another has no bearing on the calculation of this quantity. The common notion that entropy in thermodynamics is equivalent to a popular conception of "disorder" has caused many non-physicists to completely misinterpret what the second law of thermodynamics is really about.

L' "ordre" et le "désordre" sont des notions qui s'appliquent pour décrire l'état de ma chambre mais il n'y aucune définition préalable en thermodynamique macroscopique et la majorité des lecteurs vont alors se réfèrer à des notions complètement subjectives et donc absolument pas scientifiques.

Il est donc important de mettre en garde les lecteurs que le second principe ne peut pas se résumer à un accroissement de désordre. C'est pour cela qu'il me semble qu'une bannière d'avertissement s'impose tandis qu'un débat et une refonte ait lieu.— Le message qui précède, non signé?, a été déposé par Newtoon (d · c).

Réponse à Newtoon
Tu as raison en partie, Newtoon, la notion d'ordre et de désordre est subjective. Elle ne définit pas parfaitement le concept entropie. Néanmoins tu ne peux pas rayer d'un trait tout l'historique de l'entropie et du deuxième principe même si la recherche dans ce domaine continue. De plus tu contestes la notion d'ordre désordre certes, mais l'article ne se limite pas à cette notion. Peut-être faudrait-il introduire une remarque sur ce sujet à controverse.
Maghémite 27 août 2007 à 12:36 (CEST)
Réponse à Maghémite
J'ai vu que l'article a changé mais je ne suis toujours pas satisfait de "S, est considérée comme une mesure du désordre". La définition d'il y a quelques jours "en gras" était encore plus axée sur la notion d'ordre et de désordre d'emblée et je suis heureux de voir que ce n'est plus tout à fait le cas.
Je ne rayais pas du tout l'historique de l'entropie. Je demandais juste une meilleure harmonisation en se calquant sur l'article US qui avait fait l'objet de nombreuses dicussions et qui se fondait à présent sur un autre axe (avec des articles annexes pour évoquer les différents concepts), comme la plupart des nouveaux ouvrages publiés aux US. Je n'invente rien. En parlant d'historique, les fondateurs Clausius et Carnot n'ont jamais parlé d'ordre et de désordre et ce sont pourtant bien eux qui sont à l'origine de la définition d'entropie et le second principe. Il suffirait dans un premier temps de revenir à ces bases. L' "ordre / désordre" une tentative plutôt malheureuse (c'est déjà pas mal d'essayer) de vulgarisation de Boltzmann (qui certes est arrivé avec davantage de connaissances grâce à son point de vue microscopique). Je crois que c'est justement en revenant à l'historique qu'on peut définir le second principe. Ce n'est pas évident mais c'est faisable (j'ai des liens si nécessaires : j'ai passé une dizaine d'heures de echerche et de lecture sur le sujet).
En fait, il me semble raisonnable d'énoncer les différentes versions en aboutissant à la plus fine (a priori) fondée sur la mécanique quantique. Maintenant, j'insiste : je voulais surtout mettre le doigt sur une incohérence entre la version anglaise (bien plus développée et discutée) et la version française (qui a encore un train de retard a priori).
Encore une fois dire "est assimilée au désordre" n'est pas rigoureux sur un plan scientifique tant qu'il n'y a pas de définition de ce qui est ordonné et ce qui ne l'est pas. C'est un raccourci malheureux qui a de plus le gros désavantage de servir les pseudosciences et autres théories fumeuses. On peut légitimement se demander s'il ne faudrait pas servir du coup une version plus pointue et précise (mais moins accessible) afin de limiter toutes ces confusions. C'est plutôt le cas de la version anglaise.
Suite
Bonjour Newtoon
Je trouve que tu exagères un peu car il ne reste plus que 2 ou 3 lignes faisant référence au désordre. Le reste de l'article étant consacré essentiellement à la vision historique de Clausius ΔS = Q/T .
De plus comme tu apprécies beaucoup la vision US, voici un paragraphe tiré de entropy:
Approaches to understanding entropy
Main article: Entropy (order and disorder)
Entropy, historically, has often been associated with the amount of order, disorder, and/or chaos in a thermodynamic system. The traditional definition of entropy is that it refers to changes in the status quo of the system and is a measure of "molecular disorder" and the amount of wasted energy in a dynamical energy transformation from one state or form to another.[30] In this direction, a number of authors, in recent years, have derived exact entropy formulas to account for and measure disorder and order in atomic and molecular assemblies.[31][9][32][33] One of the simpler entropy order/disorder formulas is that derived in 1984 by thermodynamic physicist Peter Landsberg, which is based on a combination of thermodynamics and information theory arguments. Landsberg argues that when constraints operate on a system, such that it is prevented from entering one or more of its possible or permitted states, as contrasted with its forbidden states, the measure of the total amount of “disorder” in the system is given by the following expression:[32][33]
 Disorder =\frac {C_D}{C_I}~,
Similarly, the total amount of "order" in the system is given by:
 order = 1 - \frac {C_O}{C_I}~
In which CD is the "disorder" capacity of the system, which is the entropy of the parts contained in the permitted ensemble, CI is the "information" capacity of the system, an expression similar to Shannon's channel capacity, and CO is the "order" capacity of the system.[9]
cordialement
Maghémite 30 août 2007 à 14:40 (CEST)


Suite de Suite Bonjour Maghémite,

Au préalable, j'aimerais dire que j'apprécie beaucoup ce débat qui est pourtant pour moi très coûteux en termes de temps (je suis débordé).

J'ai bien sûr dit auparavant que l'évolution de l'article est encourageante mais qu'elle reste pour moi inachevée (ce serait trop facile :) ). Maintenant, il me semble qu'il serait juste de contrebalancer cette définition d'ordre, désordre. où trouve-t-on l'équivalent dans le Wikipédia Français de :

 Disorder =\frac {C_D}{C_I}~, etc. ?

Ce n'est de toute manière qu'un extrait du paragraphe tout entier (voir juste en dessous de cet extrait) : il y a par ailleurs une page nommée "Entropy (order and disorder)" (http://en.wikipedia.org/wiki/Entropy_%28order_and_disorder%29) que j'avais remarqué et qui est contrebalancée par une page nommée "Entropy (energy dispersal)" (http://en.wikipedia.org/wiki/Entropy_%28energy_dispersal%29). Maintenant, il existe "Introduction to Entropy" (http://en.wikipedia.org/wiki/Introduction_to_entropy=qui représente pour moi ce que l'étudiant devrait chercher en premier.

On peut y lire en bas :

"Traditionally, 20th century textbooks have introduced entropy as order and disorder so that it provides "a measurement of the disorder or randomness of a system". Ambiguities in the terms used (such as "disorder" and "chaos") contribute to widespread confusion and can hinder comprehension of entropy for most students. A more recent formulation describing Entropy as energy dispersal describes entropy as measuring "the spontaneous dispersal of energy — at a specific temperature.""

Mon opinion est que cela vaut le coup d'être mentionné aussi en Français. On peut elducorer (je ne cherche pas à révolutionner l'article) mais ne pas oublier quand même de mentionner qu'il existe différentes manières de définir l'entropie au moins et que c'est encore sujet à débat. Chacun choisira ensuite en son âme et conscience.

Pourquoi pas parler d'ordre et de désordre effectivement mais en se référant aux équations données plus haut ; et encore, je n'ai pas été convaincu personnellement car si vous regardez de plus près, le désordre est défini... sur la notion d'entropie : c'est le serpent qui se mord la queue (référence circulaire : http://en.wikipedia.org/wiki/Circular_reference) ! Qui plus est, il y a un gros mélange des genres entre thermodynamique et théorie de l'information).

Quoiqu'il en soit, il me semble important qu'il faille contrebalancer la explication "vieille école" par la nouvelle tendance.

Dire "S est (considéré-assimilé) comme le désordre" est à présent dépassé. On pourrait du moins dire "S est usuellement etc.". C'est déjà une nuance. Si on veut pas se mouiller, on a qu'à renvoyer à l'article "Entropie".

Je vous suggère simplement de vous en référer aux discussions en archive sur Wikipédia version anglaise. C'est très instructif sur les modifications qui ont eu lieu il y a une année ou deux afin de trouver un compromis qui laisse une chance à toutes les vues sur le sujet.

PS : j'aurais envie d'ajouter que en relisant l'article "Second Principe" d'aujourd'hui, il me semble qu'il met l'accent sur l'entropie d'emblée alors qu'il existe des versions du second principe qui ne mentionnent pas l'entropie (qui, nous l'avons vu, est peu accessible) et qui étaient d'ailleurs des formulations premières (moins générales, certes, car concernant les moteurs thermiques). Je trouve que l'article http://en.wikipedia.org/wiki/Second_law_of_thermodynamics fait bien de mentionner tout de suite les principales versions, dés l'intro.

Je crois que ces formulations ne sont pas bien mises en avant actuellement.

Cordialement, Newtoon 31 août 2007

[modifier] Limite du second principe face au progrès des nanotechnologies

Le progrès des nanotechnologies repose le problème du mouvement perpétuel

Voir l'article intitulé: "la réalisation d’un circuit intégré produisant simultanément du froid et de l’énergie électrique est parfaitement dans le domaine du concevable": [1]

L'idée semble à priori contraire au second principe de la thermodynamique, selon lequel la conversion de chaleur en énergie mécanique ou électrique nécessite deux sources de chaleur: une source chaude et une source froide.

Il serait donc impossible de réaliser un dispositif prenant spontanément une température inférieure à celle du milieu ambiant, et prenant de la chaleur au milieu ambiant, tout en fournissant par ailleurs une énergie mécanique ou électrique.

Mais le second principe est valable uniquement à l’échelle macroscopique, pour laquelle les substances utilisées dans les moteurs thermiques sont considérées comme homogènes.

Or, au niveau microscopique, l’agitation thermique fait apparaître des hétérogénéités bien connues, révélées par les mouvements browniens: une petite particule de fumée lâchée dans un gaz prend un mouvement aléatoire, c’est à dire échange aléatoirement de l’énergie avec ce gaz. Voilà pour la réalité expérimentale.

Au niveau théorique, une population donnée de molécules de gaz à une température donnée subit des fluctuations d'entropie. Or, l'entropie, à un facteur près, mesure une énergie mécanique transformée en chaleur: "l'énergie définitivement dégradée" ou EDD.

Les fluctuations d’entropie correspondent donc, au signe près et à un facteur près, à des "fluctuations d’"énergie mécanique potentiellement récupérables" (EMPR) que l'on peut espérer extraire partiellement de la masse de gaz. Ce sont ces fluctuations qui créent les mouvements browniens.

Ortograf doc 441 - 2008 - 05