Renormalisation

Un article de Wikipédia, l'encyclopédie libre.

La renormalisation se rencontre en physique statistique, en théorie quantique des champs et en théorie statistique des champs, afin de résoudre les problèmes de divergence dûs à l'usage impropre que le physicien peut faire des distributions (la multiplication de distributions est censée être interdite mais en physique on les multiplie quand même en les traitant comme des fonctions, l'avantage étant une plus grande facilité des calculs, l'inconvénient, des divergences, que permet de résoudre la renormalisation). Cet article se concentre sur la renormalisation dite « perturbative ».

Sommaire

[modifier] En physique statistique

[modifier] Systèmes purs, renormalisation à la Wilson

[modifier] Principe

En physique statistique des systèmes purs (ex., couplages bien déterminés entre les spins d'un réseau hypercubique), la renormalisation se rencontre dans l'étude des phénomènes critiques. À l'approche du point critique, la longueur de corrélation diverge. Comme on s'intéresse aux propriétés macroscopiques du corps, il est naturel de se concentrer sur les propriétés du systèmes à des échelles l telle que la maille du réseau al (longueur de corrélation).

Puisqu'on ne s'intéresse pas à ce qui se passe à des échelles plus petites que l, il est naturel de tenter de se ramener à un système présentant les mêmes propriétés à grandes distances, où l'on néglige les fluctuations plus petites que l, et de le comparer au précédent.

On ne passe pas directement de la petite échelle a à la grande échelle l, mais on décompose la démarche en plusieurs étapes appelées « itérations ». À chacune on moyenne (intègre) les fluctuations à courte échelle, obtenant ainsi un système plus simple (puisqu'on a moyenné les fluctuations courte échelle, on n'en a plus le détail), mais aussi plus grand. On ramène alors le nouveau système à la taille du système initial à l'aide d'un changement d'échelle en s'arrangeant pour qu'il laisse invariante la forme du hamiltonien(qui peut être vu comme les quantités Pi lors d'un changement d'échelle en hydrodynamique), mais avec de nouvelles valeur des couplages (comme en hydrodynamique les nombres Pi sont inchangés, mais la vitesse par exemple doit être plus grande). Au cours de la renormalisation certains paramètres augmentent, d'autres diminuent.

[modifier] Dans l'espace réel

Dans l' espace réel, on commence par opérer une décimation. Cette opération consiste à regrouper les éléments du système en petits groupes (par exemple dans une chaîne comportant un nombre pair de spins, on regroupe le premier avec le second, le troisième avec le quatrième etc...). Plusieurs décimations sont possibles. L'ordre de grandeur des blocs est de l'ordre de la maille du réseau a. Ensuite, il s'agit d'intégrer les fluctuations sur chaque bloc. Concrètement on moyenne sur chaque bloc soit en faisant une moyenne arithmétique soit en se donnant une règle raisonnable. À chaque bloc on affecte un spin ayant cette moyenne comme valeur. Le réseau des bloc est néanmoins plus espacé que le réseau d'origine. On effectue ensuite un changement d'échelle en veillant à ce que les propriétés à grande distance de la maquette ainsi obtenue soit la même que celle du réseau d'origine. Ceci est obtenu en multipliant les couplages par un facteur d'échelle de façon à ce que la mesure (de Boltzmann) de chaque configuration soit la même que celle associée dans le système de départ. Si on peut faire cela c'est que la théorie est renormalisable. Pourquoi avoir fait tout cela ? La "maquette" obtenue possède les mêmes propriétés à grande distance que le système d'origine, mais au contraire de celle-ci, ignore le détail des fluctuations de petites distances (puisqu'on a moyenné à l'échelle des blocs). On obtient ainsi un système présentant la même physique à grande distance, mais plus simple, et ses couplages s'expriment en fonction des couplages d'origine et de facteurs d'échelle. Le résultat peut être vu comme un modèle plus simple qui capture toute la physique intéressante. Ceci est donc utile au voisinage des points critiques où la longueur de corrélation diverge, et où on s'intéresse par conséquent aux propriétés grande distance. En itérant cette transformation on se ramène à des systèmes de plus en plus essentiels. L'évolution des paramètres au cours de la renormalisation fait apparaître les paramètres essentiels (relevant)....finir.

[modifier] Dans l'espace réciproque

[modifier] Systèmes désordonnés

un tres bon polycopié, tres complet, traitant de ce cas et disponible sur arxiv, voir la référence

[modifier] Systèmes hors équilibre : processus de réaction diffusion

voir les travaux de cardy

[modifier] Pour les théories de champs

[modifier] Principe

En théories des champs, si on suppose que les quantités présentes dans le lagrangien correspondent à des quantités physiques (en particulier qu'elles sont finies), alors les fonctions de corrélations obtenues peuvent diverger dès le premier ordre du calcul en perturbation. Or les fonctions de corrélations sont des quantités physiques et doivent donc être finies.

L'idée de base consiste à faire glisser la divergence de la fonction de corrélation vers les paramètres du lagrangien, qui ne seront plus considérés alors comme des paramètres physiques (donc finis), mais comme des paramètres nus (dénués de tout sens physique, et pouvant être infinis).

Ceci se réalise de la manière suivante : on régularise, on évalue les divergences des diagrammes, puis on ajoute des contre-termes dans l'action de façon que les fonctions de corrélations obtenues avec ce nouveau lagrangien ne soient plus divergentes. Les paramètres de cette nouvelle action qui peuvent être infinis à cause des contre-termes, sont appelés paramètres nus par opposition aux paramètres physiques.

Il existe a priori plusieurs choix possibles de contre-termes, la partie infinie étant choisie, on est libre de choisir la partie finie du contre-terme. Ce dernier choix définit le schéma de renormalisation. L'essentiel à savoir pour trouver les contre-termes adaptés, est que les contre-termes à B boucles, contribuent à l'ordre B − 1 dans la fonction irréductible. Par ailleurs, certains contre-termes font intervenir une masse arbitraire pour des raisons dimensionnelles, et cette masse est dite « échelle de renormalisation ».

Comme pour la renormalisation en physique statistique, un changement d'échelle spatiale peut se réabsorber par une redéfinition des couplages conduisant ainsi aux équations de C.S.[réf. nécessaire].

[modifier] Un exemple physique : qu'est-ce que la charge de l'électron ?

En électrodynamique quantique, quand on calcule la charge d'un électron isolé, on trouve une quantité infinie, appelée charge nue de l'électron. Cela ne correspond pas à la réalité.

Pour contourner cette absurdité, les théoriciens ont considéré que tout électron était environné d'un nuage de particules virtuelles générées par l'intensité du champ électromagnétique à son voisinage et détruites aussitôt, dans un délai compatible avec les principes d'incertitude. Ces particules virtuelles sont en fait les interprétations du développement perturbatif en diagrammes de Feynman. Ce nuage de particules a une contribution infinie à la charge apparente de l'électron, qui compense sa charge nue.

Il reste à calculer la différence entre ces deux quantités infinies : c'est l'objet de la procédure de renormalisation.

[modifier] Validité de cette méthode

Cette méthode de calcul est également utilisée dans les théories d’unification des interactions faibles et fortes. Il est cependant impossible de faire de même avec la gravitation car une théorie de champ quantique comportant une constante de couplage dimensionnée n’est pas renormalisable. La renormalisation se justifie en faisant appel aux étrangetés quantiques telles que la création de particules virtuelles. Cependant Feynman, l’auteur de cette méthode, avait émis quelques doutes sur la validité d’une telle méthode en déclarant que « ce tour de passe-passe pour déterminer n et j l s’appelle techniquement la "renormalisation". Mais, quelle que soit l’ingéniosité du mot, c’est quand même un truc dingue !... Pour ma part, j’ai des doutes quant à la légitimité mathématique de la renormalisation »[1].


[modifier] Notes et références de l'article

  1. Lumière et matière, InterÉditions, 1987, p. 170

[modifier] Voir aussi

[modifier] Articles connexes

[modifier] Bibliographie

[modifier] Introduction générale

  • Bertrand Delamotte ; A hint of renormalization, American Journal of Physics 72 (2004) pp. 170-184. Une introduction très pédagogique aux idées, aucune connaissance en théorie des champs n'étant nécessaire. Texte complet disponible sur l'ArXiV : hep-th/0212049
  • John Baez ; Renormalization Made Easy, (1999). Un excellent article de vulgarisation, sans formule ni calcul. « I want to explain to you the basic idea of renormalization in quantum field theory, and I want to say a bit about how it's related to statistical mechanics. You won't get the mathematical details here... »
  • Andrew E. Blechman ; Renormalization: Our Greatly Misunderstood Friend, (2002).
  • Tian Yu Cao & Silvian S. Schweber ; The Conceptual Foundations and Philosophical Aspects of Renormalization Theory, Synthese, 97(1) (1993), 33-108.
  • Dmitry Shirkov ; Fifty years of the renormalization group, C.E.R.N. Courrier 41(7) (2001). Texte complet disponible sur : I.O.P Magazines

[modifier] Théorie quantique des champs & physique des particules

[modifier] Théorie quantique des champs & physique statistique

  • Jean Zinn-Justin ; Transitions de phase, Collection Savoirs Actuels, EDP Sciences (2005), ISBN 2-86883-790-5.
  • Michel Laguës & Annick Lesnes ; Invariances d'échelle - Des changements d'états à la turbulence, collection Echelles, Belin (2003, ISBN 2-7011-3175-8. « Écrit à quatre mains par un théoricien et un expérimentateur, cet ouvrage vise à présenter le sujet de façon simple et complète, tout en donnant de solides bases théoriques à l’étudiant comme au chercheur. »
  • William D. McComb ; Renormalization methods - A guide for beginners, Oxford University Press (2003) [ISBN 0-19-850694-5].
  • Nigel Goldenfeld ; Lectures on Phase Transitions and the Renormalization Group, Frontiers in Physics 85, Westview Press (June, 1992) [ISBN 0201554097]. Livre à succès où l'accent est mis sur la compréhension des phénomènes plutôt que sur les calculs techniques.
  • Zinn Justin, Jean ; Quantum Field Theory and Critical Phenomena, Oxford University Press (4th edition - 2002) [ISBN 0-19-850923-5]. Un ouvrage monumental qui synthétise l'état de l'art dans le calcul des exposants critiques par les méthodes du groupe de renormalization, appliquant l'idée originale de Wilson (Kenneth Wilson a reçu le prix Nobel 1982).
  • Zinn Justin, Jean ; Phase Transitions & Renormalization Group: from Theory to Numbers, séminaire Poincaré (Paris, 12 Octobre 2002), publié dans : Duplantier, Bertrand; Rivasseau, Vincent (Eds.) ; Poincaré Seminar 2002, Progress in Mathematical Physics 30, Birkhäuser (2003) [ISBN 3-7643-0579-7]. Texte complet disponible au format PostScript.
  • Domb, Cyril ; The Critical Point: A Historical Introduction to the Modern Theory of Critical Phenomena, CRC Press (March, 1996) [ISBN 074840435X].
  • Brown, Laurie M. (Ed.) ; Renormalization: From Lorentz to Landau (and Beyond), Springer-Verlag (New York-1993) [ISBN 0387979336].

[modifier] renormalisation et systèmes désordonnés

http://arxiv.org/PS_cache/cond-mat/pdf/0502/0502448v3.pdf


[modifier] renormalisation non perturbative

http://arxiv.org/abs/cond-mat/0702365

[modifier] Aspects divers

  • Shirkov, Dmitry ; The Bogoliubov Renormalization Group, JINR Communication E2-96-15 (1996). Texte complet disponible sur l'ArXiv : hep-th/9602024
  • Zinn Justin, Jean ; Renormalization and renormalization group: From the discovery of UV divergences to the concept of effective field theories, in: de Witt-Morette C., Zuber J.-B. (eds), Proceedings of the NATO ASI on Quantum Field Theory: Perspective and Prospective, June 15-26 1998, Les Houches, France, Kluwer Academic Publishers, NATO ASI Series C 530, 375-388 (1999) [ISBN ]. Texte complet disponible au format PostScript.
  • Connes, Alain ; Symétries Galoisiennes & Renormalisation, séminaire Poincaré (Paris, 12 Octobre, 2002), publié dans : Duplantier, Bertrand; Rivasseau, Vincent (Eds.) ; Poincaré Seminar 2002, Progress in Mathematical Physics 30, Birkhäuser (2003) [ISBN 3-7643-0579-7]. Le mathématicien français Alain Connes décrit la structure mathématique sous-jacente (algèbre de Hopf) de la renormalisation et ses liens avec le problème de Riemann-Hilbert. Texte complet disponible au format PostScript.