Utilisateur:MAILLARD Jean

Un article de Wikipédia, l'encyclopédie libre.


En cours de rédaction / mise en forme


Physique théorique : scientifique ou théologique

Sommaire

[modifier] Deux faces du savoir

La science est l'enregistrement qualitatif et quantitatif des faits et l'établissement des règles de corrélation entre eux.

La théologie est l'enseignement d'une religion qui répond à la pulsion spirituelle de l'humain pour connaître le mystère et le sens de la vie.

La science veut des doutes qu'elle se plaît à balayer par l'évidence des faits et la logique du langage. Sa valeur s'exprime par le nombre de ses acquis unanimement, mondialement admis.

La théologie exige sans discussion l'acte de foi en ses croyances et ses commandements. Sa valeur s'exprime par le nombre de ses fidèles et surtout par leur comportement.

[modifier] Constat

Au moyen âge la physique s'enseigne dans les universités, toutes religieuses, suivant les saintes écritures et les dires d'Aristote, sur la base de quatre éléments : l'air, l'eau, la terre et le feu. Le tribunal de l'inquisition menace le mécréant qui oserait contredire.

La physique théorique a pris un grand essor vers 1600 avec la mise à disposition des expérimentateurs et des observateurs d'appareils permettant d'obtenir des données de plus en plus précises. Les progrès seront continus, paraissant suivre une même voie, avec des acquis qui se complètent sans jamais contredire les précédents, jusque vers 1900. C'est le triomphe de la théorie atomique et de la thermodynamique. C'est la lumière rangée dans l'électromagnétisme. L'étudiant qui bien questionne est félicité. Le seul juge reconnu est le résultat expérimental.

Mais les découvertes extraordinaires de cette époque vont troubler les esprits et les faire sortir de la voie ordinaire qui avait fait la grandeur de la physique théorique. Ce fut l'étonnement avec la radioactivité, ce fut l'inexplicable avec une expérience jugée aberrante concernant la vitesse de la lumière, ce fut l'interrogation avec la mesure de la densité spectrale du rayonnement thermique. Alors rapidement, sans attendre que des expériences précises confirment les résultats, oubliant qu'un fait peut s'interpréter de plusieurs façons, on a tout remis en question en prononçant des décrets théoriques sans appel. On déclare périmées les notions ordinaires d'espace et de temps, on invente le quantum d'énergie et la lumière corpusculaire avec le photon. La marche vers une structure simple, unique, compréhensible des bases de la physique est interrompue. Des notions nouvelles sont sans cesse inventées avec le concours de mathématiques hermétiques admises équivalentes à des expériences. Finis les schémas descriptifs précis et, associés, des calculs rigoureux montrant leur conformité aux résultats expérimentaux et aux lois de la physique. L'an 2000 voit une physique remplie de particules étranges, défiant les règles que la physique de 1900 considérait acquises. Un grand maître déclare et on le répète : celui qui dit comprendre la théorie des quanta est un menteur. N'est ce pas le propos d'un théologien jetant l'opprobre sur un "orgueilleux" prétendant connaître un mystère divin? Sommes nous revenus au moyen âge, avec quatre forces semblables aux quatre éléments, avec Einstein remplaçant Aristote et avec une mathématique hermétique en anglais au lieu du latin comme langue savante? Et aussi défense aux étudiants de discuter l'enseignement. D'ailleurs comment pourraient ils le faire lorsque le cours expose non des faits expérimentaux mais seulement des "lois mathématiques".

Ce constat a conduit à l'étude suivante :
HISTORIQUE :Evolution au cours des siècles de la physique théorique,
ANALYSE CLASSIQUE : Interprétation des expériences sans nouveaux concepts de base,
EBAUCHE D'UNE SUITE : Tentative d'une théorie classique pour l'électricité et la gravitation.

[modifier] Historique

[modifier] 1600-1800

C'est, avec Galilée, la mécanique qui s'inscrit dans les premières pages de la physique théorique. La force F est figurée par un vecteur. Sous la poussée de deux forces F1 et F2 un corps est en équilibre si leurs deux vecteurs s'annulent F1 + F2 = 0. La force la plus commune est le poids d'un corps. Elle s'exprime par la formule F = mG, m étant la masse du corps et G le vecteur intensité du champ gravitationnel qui vaut 9,81 mètres par seconde au carré. Cette formule a été généralisée F = mγ, γ étant le vecteur de l'accélération que prend la masse m soumise à la seule force F. La masse m correspondant à la force d'inertie et celle correspondant à la force de gravitation sont égales dans les expériences et observations. La dimension physique de F est donc MLT − 2. Pour les mesures expérimentales il faut définir les unités. Aujourd'hui l'unité de masse est le kilogramme correspondant en principe à celle d'un litre d'eau mais concrétisée avec grande précision par une masse métallique, l'unité de longueur est un mètre, l'unité de temps est la seconde et l'unité de force est le newton. Un travail est déplacer un poids du sol à une étagère. Cela s'écrit T = Fh, h étant la hauteur de l'étagère. Plus généralement T = F.L c'est à dire le produit scalaire du vecteur F et du vecteur L ayant la longueur du déplacement supposé rectiligne, son sens étant défini par le point de départ et celui d'arrivée. Tout déplacement peut être considéré comme une succession de trajets rectilignes. En physique travail et énergie E ont la même signification. Sa dimension physique est ML2T − 2 et l'unité d'énergie est le joule. La définition de E indique que sa valeur est positive si l'action augmente l'énergie de la masse m, et négative si celle ci diminue. Au cours des siècles la notion d'énergie a pris une valeur de plus en plus grande qui s'exprime par le principe de la conservation de l'énergie.

Ce principe est toujours en vigueur. Lorsqu'un corps ou un système reçoit une quantité d'énergie, cette même quantité est soustraite ailleurs. La formule F = mγ associée à la notion que la poussée d'une masse sur une autre masse entraîne de celle-ci une réaction égale de sens inverse, permet de calculer les trajectoires des masses lancées dans l'espace. Mais le trièdre de référence Oxyz qui correspond à ces équations n'est pas un trièdre lié aux coordonnées géographiques. Le globe terrestre a dans l'espace cosmique deux mouvements, un de translation à vitesse uniforme lequel n'affecte pas les relations écrites dans le trièdre géographique, l'autre de rotation qui engendre dans ce trièdre l'accélération de Coriolis. Les axes pour lesquels les relations sont valables sont des axes dits galiléens dont les directions sont celles des étoiles lointaines.

Il faut compléter les bases de la mécanique par la notion de puissance qui correspond à la quantité d'énergie qui dans un échange s'écoule dans l'unité de temps. Son unité est le watt et sa dimension s'écrit W = ET − 1 soit ML2T − 3

La période 1600-1800 vit aussi de très grands acquis dans l'astronomie et dans la propagation de la lumière. Les instruments permettent des mesures astronomiques précises. Avec le réticule on peut chiffrer à la seconde d'arc. On espère connaître la distance des étoiles par la mesure de leur parallaxe basée sur le diamètre de l'orbite de la terre. Les étoiles sont plus lointaines que prévu. Il faudra pour cette mesure une précision plus grande. Mais dans la direction où la parallaxe devait être nulle toutes les étoiles montrent une variation annuelle de plus ou moins 10 secondes d'arc, l'équivalent de 10 − 4 radian. Ce fut Hooke qui, en 1669, annonça ce phénomène inexplicable, qui fut désigné l'aberration des étoiles. En 1676 Roemer, par l'analyse des mesures de Cassini concernant les éclipses des satellites de Jupiter, donna, pour la première fois et avec une assez bonne approximation, une valeur de la vitesse c de la lumière. En 1727 l'astronome Bradley après de nombreuses mesures de ce phénomène, comprit que 10 − 4 était le rapport v/c de la vitesse de la terre à celle c de la lumière et donna une explication simple de l'aberration. Et les astronomes notèrent la possibilité, par une mesure de la direction d'un rayon lumineux, de mesurer la vitesse orbitale de la terre.

En 1687 Newton publie son ouvrage où il précise les bases indiquées ci-dessus de la mécanique et où il donne la loi de l'attraction universelle.

Le dix huitième siècle verra croître le bagage mathématique des physiciens qui sont tous expérimentateurs et théoriciens. Les notions de base se précisent. La loi de Coulomb est pour les charges électriques analogue à la loi de l'attraction universelle. Mais l'électricité et le magnétisme sont deux domaines séparés et les physiciens se divisent sur la lumière corpusculaire ou ondulatoire, sur l'action à distance ou l'action pas à pas. Ces divisions sont salutaires. Un acquis scientifique ne peut être ainsi qualifié qu'en étant évident à tous par des faits incontestables.

[modifier] 1800–1900

Cette période voit le triomphe de la théorie classique et triviale. L'invention de machines à vapeur a montré que le feu pouvait fournir du travail. Chauffer l'eau est une dépense d'énergie qui s'exprimait en calories et rapidement les physiciens ont établi avec précision l'équivalence entre l'énergie mécanique et l'énergie calorifique. Ce fut le démarrage de la magnifique théorie de la thermodynamique. Au début du 19eme siècle. Carnot énonce les deux principe de base : le premier principe dit la conservation ce l'énergie étendu à l'énergie thermique, le second dit l'impossibilité de concevoir une machine donnant de l'énergie mécanique extraite d'une seule source thermique isotherme. La machine thermique exige l'existence de deux sources à des températures absolues T1etT2 différentes et le rendement énergétique maximum vaudra (T1T2) / T1.

Le premier principe signifie que l'énergie calorique a pour dimension physique ML2T2 car deux grandeurs physiques ne peuvent s'échanger que si elles ont même dimension. Cette énergie correspond donc à des mouvements des grains, atomes ou molécules qui constituent les différents matériaux. Quand on chauffe un matériau solide il devient liquide à une certaine température et gazeux à une autre. Ceci vaut ou doit valoir pour tous les corps. Ces phénomènes correspondent à des liaisons entre atomes ou molécules qui se cassent, à un accroissement d'énergie interne du corps chauffé. Le modèle théorique le plus simple est le gaz parfait où chaque molécule a la même énergie mécanique moyenne et le gaz, de volume V et de pression P, l'énergie E= PV=RT, T étant la température absolue et R une constante. A basse température certains gaz ont des caractéristiques de gaz partait et des mesures expérimentales permettent de définir, par cette relation la température absolue. Mais, comme nous le verrons, tout ceci n'est qu'une excellente approche d'une réalité physique plus complexe.

C'est par des variations du volume du gaz que nous obtiendrons de l'énergie mécanique. Le second principe exprime ce fait et généralise le calcul fait pour une machine à gaz parfait. Il faut extraire une énergie RT1 de la source chaude pour obtenir un travail mécanique de valeur RT1RT2. Ce second principe s'écrit sous différentes équations différentielles ayant leur utilisation en divers montages énergétiques. La notion d'entropie lui a été associée.

Tout ceci a conduit à la théorie cinétique des gaz par Bolztman et au nombre d'Avogrado qui est le même pour tous les gaz et dont les nombreuses mesures, en particulier son comptage direct par Jean Perrin, ont fait capituler les opposants à cette "théorie atomique". Ces opposants avaient la réaction normale de tout homme à la découverte des données concernant les astres ou les atomes. Démocrite ne pouvait imaginer 1020 atomes en un centimètre cube et chacun d'eux ayant un espace où il s'agite à la vitesse de 100 mètres par seconde.

Mais, telle qu'elle est formulée, cette théorie suppose des chocs élastiques entre les molécules et la distribution de l'énergie entre les molécules aléatoire, tous les états étant également probables. Ces conditions ne peuvent expliquer l'irréversibilité des phénomènes thermiques. Pour cela on a inventé que l'entropie était le logarithme de la probabilité et que l'évolution exigeait d'aller vers les états les plus probables. Cette introduction d'une probabilité mathématique liée aux jeux de hasard constitue la première dérive de la physique théorique. L'aléatoire physique a ses lois propres.

Il est une spécificité de l'énergie thermique qui est de se répandre et de le faire de diverses façons : par diffusion, par convection, par conduction, par rayonnement. Nous devons considérer cela comme une donnée physique fondamentale liée à la dimension de l'énergie. L'énergie exprime des mouvements, donc des chocs alentour. Il ne peut exister un milieu "chaud", il faut par cet adjectif désigner seulement une densité d'énergie, contenu dans une enceinte l'isolant absolument de son environnement. Tout ensemble physique est en contact avec son environnement même si celui-ci est le vide qui est un milieu support de l'énergie de rayonnement thermique. Si la température, ou valeur de la densité énergétique spatiale, est plus élevée à l'intérieur de l'ensemble qu'à l'extérieur, cette température baissera car l'ensemble cédera plus d'énergie qu'il en reçoit.

La thermodynamique ou théorie de la calorique est un triomphe des physiciens. Elle concerne les réactions chimiques, lesquelles s'accompagnent toujours d'échanges quantifiés d'énergie. Chacune de ces quantités d'énergie, chacun de ces quanta, correspond à une liaison moléculaire. Le nombre d'Avogrado qui donne le nombre de molécules dans une quantité de matière permet de chiffrer le quantum par molécule. Une libération d'énergie dans une réaction chimique est analogue à un toit qui s'effondre et dont les morceaux prennent de la vitesse. Elle s'accompagne d'une augmentation de température correspondant à l'énergie libérée.

Par rayonnement une source chaude, par exemple le soleil, réchauffe. Les physiciens ont donc logiquement cherché à connaître les lois qui pouvaient lier ce rayonnement à la thermodynamique. Ce furent les lois de Kirchhoff, de Stefan, de Wien et de lord Rayleigh qui définissent le rayonnement comme une énergie d'ondes électromagnétiques occupant un large spectre de fréquence. Soit une enceinte close à la température T et à l'intérieur un vide absolu. L'espace est parcouru en tous sens d'ondes électromagnétiques ayant des intensités aléatoires mais des puissances moyennes fixées par la température T. En chaque point il existe une densité énergétique moyenne de valeur E et les physiciens en ont tiré avec succès des conclusions thermodynamiques en déclarant que, comme dans un gaz, E signifie une pression. Cette énergie E résulte de l'existence de faisceaux élémentaires rayonnant dans un angle solide dω et de puissance w = δf df , δf est la densité énergétique spectrale fonction de la fréquence f et de la température T. L'aléatoire physique s'exprime par cette densité liée mathématiquement à la fonction de corrélation. Cette liaison n'était pas connue en 1900. La densité spectrale du rayonnement thermique, dite celle du corps noir, avait été établie expérimentalement et théoriquement pour la partie haute fréquence et seulement expérimentalement pour la partie basse fréquence et ceci sans raccord entre les deux parties.

Le début du dix neuvième siècle a vu, avec Oersted, Ampère et Faraday, naître l'électromagnétisme et avec Fresnel et Young classer, d'une façon jugée définitive, ondulatoire la lumière. Vers 1850 Fizeau et Foucault mesurent directement la vitesse de la lumière et celui-ci, avec son gyroscope, met en évidence la rotation de la terre. Puis Maxwell écrit les équations des ondes électromagnétiques que Hertz montre. Le spectre de fréquences de ces ondes s'étend jusqu'aux rayons cosmiques c'est a dire environ 1040 hertz. La lumière en fait partie. Elle occupe un petit spectre de 4 à 8 1014 hertz.

En 1880, nanti de toutes ces données, Michelson était quasiment certain de pouvoir, avec son interféromètre, détecter et mesurer la vitesse orbitale de la terre, ce que font les astronomes avec la mesure de l'aberration des étoiles. Son appareil devait avoir un signal correspondant à β2 = 10 − 8 avec β = v / c, v vitesse de la terre c vitesse de la lumière. En 1881 à Berlin, sa première expérience avec un petit appareil lui montra combien cette mesure était difficile. De retour en Amérique il construisit avec Morley un interféromètre dix fois plus sensible, bâti sur un socle d'une tonne flottant dans un bain de mercure. L'expérience, faite en 1887, montra seulement un signal d'environ 10 − 9 qui n'était peut être qu'un signal parasite. En ce temps, cet appareil fut le seul à pouvoir détecter un signal de 10 − 9 mais on n'attendit pas un verdict expérimental certain pour déclarer le signal nul et cogiter sur son interprétation. Lorentz et Poincaré formulèrent leur célèbre transformation expliquant le résultat nul avec des notions nouvelles d'espace et de temps.

[modifier] 1900-2000

En 1900, par un raisonnement simple; rigoureux, thermodynamique, Max Planck fit la liaison entre les deux lois de la densité spectrale du rayonnement thermique. Il mit la relation concernant les basses fréquences sous la forme : δ = aU
et celle des hautes fréquences sous la forme : δ = b U²
puis écrivit : δ = a U +b U² , U étant une fonction de T,f,h et il obtint son illustre relation où le rapport hf / kT est le nombre clé pour la densité spectrale. Tout ceci est parfait.

Mais il est connu depuis Platon que des humains de génie s'imaginent que les lois de la physique, dites lois parce que supposées être celles de Dieu, disent la perfection de l'œuvre divine et l'homme de génie se sent capable de dire cette perfection. Planck n'a pas résisté à cette tentation. Il a voulu démontrer sa relation. Pour cela il s'est inspiré des travaux de Boltzman à qui il a soumis ses écrits. Sa première rédaction fut refusée, la seconde acceptée par Boltzman puis par la communauté des physiciens. Ce n'était plus une dérive du navire de la physique théorique, c'était un changement de cap. Pour satisfaire la règle de la probabilité mathématique liée à celle des jeux de hasard, Planck admis que la quantité d'énergie hf est un quantum d'énergie indépendant. Ce quantum n'est-il pas seulement l'analogue des quanta des réactions chimiques, c'est à dire une variation de l'énergie potentielle de l'élément considéré. Inventer un concept nouveau plaît beaucoup et le quantum d'énergie fit couler de l'encre. Pire, il engendra le photon.

La nature ondulatoire de la lumière était considérée un acquis définitif. Le calcul faux d'un théoricien donna la nécessité d'une nature corpusculaire et le quantum hf arrivait à point. Ce faux calcul, qui prétend que la nature ondulatoire ne peut expliquer le temps de réponse de l'effet photoélectrique, fut enseigné dans nos écoles, même longtemps après que la revue "L'onde électrique de février 1948" ait montre la nullité de ce calcul (page 79, dans l'article de Jean Maillard, Note sur la Théorie de la Réciprocité de Carson). Le temps de réponse expérimental s'accorde avec la lumière ondulatoire. Aujourd'hui ce faux calcul parait enfin abandonné mais des concepts mathématiques discutables suffisent pour vouloir l'indescriptible photon.

En 1905 le photon fut adopté sans davantage de précision sur sa constitution, ni comment cette lumière corpusculaire satisfaisait aux conditions qui l'avait fait rejeter cinquante ans auparavant. Einstein donna avec le photon une explication, que l'on crut la seule possible, de l'effet photoélectrique. Déjà connu pour ses importants travaux sur le mouvement brownien, il acquit une grande renommée avec la théorie de la relativité restreinte qui, en l'incluant, donna le sacrement à la transformation de Lorentz Poincaré. Il fit ensuite la théorie de la relativité générale confirmée par les observations lors de l'éclipse de soleil de 1919.
La théorie de la relativité suppose le résultat nul dans l'expérience de Michelson. En Amérique, Morley et Miller perfectionnèrent l'interféromètre de 1887, le transportèrent au mont Wilson et s'efforcèrent de savoir si le signal de 10 − 9, toujours présent, était réel ou parasite. Vers 1920 Einstein puis Lorentz allèrent voir les travaux de Miller. En 1925-26 Miller fit quatre périodes de mesures de 8 jours à des époques différentes. Il déclara son signal réel et donna les coordonnées sidérales d'un vent d'éther correspondant à son interprétation des données enregistrées. A cette annonce le professeur allemand Joos décida de refaire l'expérience avec un appareil qui devait être plus précis. En fait par rapport à celui de Miller son appareil était plus sensible pour mesurer la grandeur du signal mais il captait une puissance du signal 9 fois plus faible et il était bien moins protégé contre les bruits mécaniques et thermiques. Joos a eu de la peine pour avoir deux jours de bonnes mesures. Ceci lui a suffi pour affirmer que le signal ne pouvait être supérieur à 10 − 11, . Une analyse de son compte rendu peut laisser penser autrement. Notons seulement que les deux résultats expérimentaux de Miller et de Joos, si importants pour la physique théorique, n'ont pas fait l'objet d'une sérieuse étude technique. L'attention était surtout sur leur interprétation. Miller aurait du seulement donner et défendre ses résultats bruts. Ceux-ci ne collent pas avec son schéma de l'éther et ce fut la principale raison de leur rejet. En disant que l'éther n'était pas entrainé en sa légère cabane au mont Wilson mais qu'il l'était totalement dans le sous sol de Joos. Miller a avalisé le résultat discutable de Joos. Il faudra attendre jusque en 1963 pour une nouvelle expérience faite en Amérique au MIT par Jasesa, Javan, Murray etTownes. L'appareil mesure encore β² mais par une différence de fréquence en utilisant deux lasers. Pour une rotation de 90° l'appareil montre un signal systématique équivalent à β2 = 10 − 9. Mais ce signal est déclaré magnétique, donc négligé. Il devait être supprimé dans un nouvel appareil dont on n'a pas eu signe de vie. En 1978 l'expérience de Brillet et Hall, semblable à celle du MIT, annonce β2 < 10 − 14, et ce résultat est jugé décisif. Dans les années suivantes quelques expériences identiques en France et en Allemagne annoncent encore mieux. Cependant avec l'amplification électronique la sensibilité de mesure d'un appareil passe au second plan et la qualité s'évalue avec le rapport en puissance signal sur bruit. Or pour aucune de ces expériences les publications ne donnent nl le calcul, ni la mesure du bruit électronique (dans cette expérience inférieur aux bruits thermiques et mécaniques). Sans cette information le doute est permis. La mesure du bruit donne un zéro absolu.

En 1905 Rutherford avait montré que l'état solide est surtout un espace vide où se trouvent des nucléons autour desquels gravitent des électrons.Vers 1915 Bohr fit le schéma de l'atome d'hydrogène et le calcul des orbites électroniques. Il expliqua les raies d'optique de cet atome, les calcula à partir de constantes fondamentales et il donna, avec ces constantes, la valeur de la constante de Rydberg. Le calcul se base sur deux équations. La première est celle de l'orbite régie par la loi de Coulomb. La seconde est arbitraire, on pose h (constante de Planck) égal à 2πmvr/n (m masse de l'électron, v sa vitesse, r rayon de l'orbite, n un nombre entier ). L'électron sur son orbite est supposé totalement sans contact avec son environnement. Il ne rayonne pas. C'est contraire à l'enseignement du second principe de la thermodynamique. L'électron est censé émettre un photon lorsqu'il saute d'une orbite à une autre, dont le niveau énergétique est inférieur. La fréquence émise est celle du photon suivant la relation hf égal à la différence des niveaux énergétiques. Aucune précision sur ce saut acrobatique. En particulier sa durée car les raies observées correspondent à de faibles largeurs de bande de fréquence. La partie transitoire de ce saut est occultée. Rien dans les raies ne montre l'existence de tels sauts. L'arbitraire de la seconde équation a fait cogiter. Louis de Broglie inventa la mécanique ondulatoire en supposant que la longueur de l'orbite était égale à n longueurs d'onde λ d'une énergie rayonnante accompagnant toute masse animée de la vitesse v suivant la formule λ=h/mv. Ainsi la seconde équation prend un sens physique qui a trouvé sa justification en donnant une bonne explication quantitative de la diffraction des électrons. Mais le schéma se trouve nanti de 3 fréquences: celle du photon, celle de l'orbite, celle de la mécanique ondulatoire. Scrodinger ficela tout cela dans sa célèbre équation où on ne doit retenir que les solutions en nombre entier.

On s'écarta encore davantage des acquis de la physique classique avec l'effet Compton. Pour expliquer son résultat expérimental dans une réflexion de rayons X, Compton suppose que chaque photon percute l'électron avec conservation de la quantité de mouvement et repart dans la direction opposée avec moins d'énergie, donc support d'une fréquence diminuée. Il n'existe aucune description physique du photon. Un choc aléatoire de deux boules ne modifiant pas les directions de leurs trajectoires est très, très rare. Un rayonnement de longueur d'onde de 7.10 − 11 m réfléchi par la surface d'un électron de rayon 7.10 − 11 m est diffracté en toutes directions. Mais Compton dit que son calcul correspond au résultat expérimental et à la valeur de h/mc (m masse de l'électron). Ce qui n'est peut être qu'une coïncidence numérique suffit pour faire de cette expérience un acquis enseigné dans les écoles. C'est oublier qu'un acquis scientifique veut, non une seule expérience, mais un grand nombre sous diverses formes et divers paramètres.

Alors tout est permis à l'imagination spirituelle. On veut démontrer toutes les lois et peu importe que la physique soit brumeuse, hermétique, complexe, réservée à des initiés. On invente des particules, on fait des théories incompréhensibles avec des espaces à 9 ou 21 dimensions. On dépense des milliards d'euros pour apercevoir "une particule contraction du vide". En fait le navire de la physique théorique semble être commandé par des mathématiciens théologiens.

[modifier] Analyse classique

Nous pouvons refaire l'analyse des expériences d'une façon classique c'est à dire en prenant soin de ne rien perdre des acquis précédents et de n'introduire des concepts nouveaux que sous la double condition d'une exigence expérimentale et d'un apport de clarté.

L'expérience de Michelson apparaît être la pierre angulaire, celle qui a introduit les génies mathématiciens sur la passerelle de commandement. Les données indiquées ci-dessus laissent un doute sur le résultat nul. A ce stade toute discussion est vaine. Il faut aller sur le terrain expérimental. Pour détecter un signal faible avec les techniques modernes la théorie de l'information dit que l'interféromètre de Michelson a l'avantage sur le montage à deux lasers. Nous avons, mon fils Pierre et moi, construit un appareil avec un plateau tournant comportant l'interféromètre et mesurant le déphasage sous forme électronique. Nous avons eu des enregistrements continus, jour et nuit, pendant plus d'une année. Le signal existe et aussi l'azimut que Miller dit inexplicable en son schéma. Il apparaît un vent d'éther (ou une anisotropie) ayant une grandeur moyenne d'environ β2 = 10 − 9


avec des variations non régulières de l'ordre de 10% de l'amplitude moyenne. Ces variations ont parfois des périodes de 12 ou 24 heures. Il en résulte l'impression d'un milieu non au repos mais au contraire plein de mouvements, ce qui paraît être la caractéristique de tout milieu physique. L'éther n'est pas entraîné, il ne freine pas, il pousse et tout azimut est possible. Il est peut être l'agent régulateur des orbites des planètes. Cette expérience est, après celles de Miller et du MIT, la troisième à obtenir un même résultat. Elle laisse entrevoir la possibilité d'une importante récolte expérimentale En sa réalisation actuelle elle est financièrement possible par tout laboratoire de physique. Sa répétition s'impose.

Alors que penser de la transformation de Lorentz Poincaré ? A cette époque on ignorait la radio. Soient trois trièdres galiléens A,B,C, ayant les trois axes Oxyz de mêmes directions, animés chacun d'une vitesse uniforme. La vitesse relative de B par rapport à A est de direction Ox, celle de C par rapport à A est de direction Oy. Je dis à ces trois trièdres de m'envoyer les coordonnées (x y z t ) d'un point M. Je constate que pour les trois couples AB, AC, BC seulement deux peuvent satisfaire la transformation. Pour la satisfaire, il faut admettre en ce troisième couple BC que la vitesse relative de B par rapport à C n'a pas la même direction que la vitesse relative de C par rapport à B. Certes la différence entre les deux directions est très faible, de l'ordre de β² radian (β=v/c, v vitesse relative, c vitesse de la lumière), mais cette relation est censée annuler tout effet de l'ordre de β². Logiquement elle n'est donc pas admissible. Elle n'est pas une relation de physique car elle ignore le transitoire. Puisque les atomes ne sont pas au contact les uns des autres, on peut imaginer un signal électromagnétique qui fixe la distance entre deux atomes et la variation quasi instantanée de ce signal avec la variation de la vitesse ou de l'orientation du trièdre. Mais les corps répondent avec inertie plus ou moins grande suivant leur structure et ceci même à l'échelle de l'atome. La relation de Planck s'écrit : δ = (8πhf / λ2)(ehf / kT − 1) − 1. Nous savons que les électrons sont agités par la température comme les molécules, que la self et la capacité d'un circuit oscillant ont chacune une énergie fluctuante de valeur moyenne kT et que la résistance est parcourue d'un courant exprimant une puissance kTdf, df étant la bande de fréquence du circuit. Supposons ce circuit isolé dans L'espace où existe un rayonnement thermique à température T. Supposons ce circuit hyperfréquence relié à l'espace par une antenne de surface S. Cette antenne recueillera la puissance du rayonnement thermique w = Sδdωdf dans un canal d'angle dω = λ²/4πS. Lorsque hf/kTest inférieur à 1, c'est à dire pour les grandes longueurs d'onde, la relation s'écrit : δ = 8πkT/λ² et si l'on admet que le circuit de réception est adapté pour le maximum de puissance, la résistance exprime la puissance kTdf. Lorsque hf est supérieur à 1, c'est à dire pour les fréquences élevées, la relation s'écrit : δ = (8πhf / λ2)(e hf / kT).


Ces deux relations sont identiques. Elles montrent que, quelle que soit la fréquence, conformément à la théorie classique, la surface minima de captation d'une onde électromagnétique est λ²/4π et non la surface d'un atome, comme l'avait écrit le théoricien voulant démontrer la nécessité de grains de lumière pour le temps de réponse de l'effet photoélectrique. Elles montrent que lorsque hf est supérieur à kT, ce n'est plus le rayonnement thermique mais un autre rayonnement d'intensité hf qui intervient. Le rayonnement thermique résulte de l'agitation des électrons par la température allant jusqu'à les faire changer de positions oscillatoires. Ces positions correspondent à des niveaux énergétiques. Le nombre des oscillateurs thermiques de fréquence f est proportionnel à e hf / kT. Cette expression est semblable au nombre de molécules dans un gaz en fonction de l'altitude a soit e ag / kT, g étant l'accélération de la pesanteur. Elle exprime que hf est le niveau énergétique supplémentaire que doit avoir l'oscillateur pour apparaître à lafréquence f dans le rayonnement thermique.

Ces relations font apparaître un rayonnement autre que le thermique. A 0°K les oscillateurs constitués par les mouvements des électrons existent et rayonnent. Ce rayonnement ne nous est pas perceptible mais il correspond à la quantité d'énergie hf et devient supérieur au rayonnement thermique lorsque hf > kT. Le rayonnement thermique ne concerne qu'un spectre de fréquence limité par cette relation. Pour T= 300° K soit la température moyenne sur terre, kT = hf pour f = 6.1012 ou λ= 50 microns et pour T= 5000° soit la température de la surface du soleil la limite se situe à f = 1014 ou λ = 3 microns. Le domaine du rayonnement thermique est aussi celui de la vie.

Le schéma de l'atome de Bohr qui résulte des expériences de Rutherford est bon mais les deux équations doivent être écrites différemment. L'analyse physique de la relation de Planck a donné un sens au quantum hf. Nous devons admettre l'existence d'un rayonnement à 0°K de densité spectrale δ = 8πhf / λ2. Chaque électron à la fois capte ce rayonnement et rayonne. Son orbite le fait rayonner à la fréquence f d'un tour de rotation et à des harmoniques nf de cette fréquence. La seconde équation traduit l'équilibre entre l'énergie moyenne engendrée par ce rayonnement et l'énergie cinétique d'où résulte le rayonnement de l'électron. Nous écrirons donc la seconde équation :

1/2 mv² = hnf avec m = masse de l'électron v = vitesse de l'électron

Cette équation correspond à la moyenne de données fluctuantes. La première équation doit aussi tenir compte que le proton est lui aussi soumis au rayonnement et que la moyenne de l'équation de Coulomb est différente de celle d'un mouvement continu. Nous écrirons :

1/2 mv² = K/r r = rayon de l'orbite K = constante de la loi de Coulomb

Ces deux équations nous donnent toutes les raies observées. Elles correspondent à des différences des fréquences calculées par les équations ci-dessus. Ces raies sont provoquées par le voisinage de nombreux atomes dans le volume λ³ dans les conditions expérimentales, λ étant la longueur d'onde moyenne des raies. Des battements entre deux oscillateurs donnent aussi bien la somme que la différence des fréquences, mais nous ne pouvons déceler que des raies dont l'intensité correspond à un rayonnement thermique supérieur au rayonnement hf ce qui, en général, n'existe pas pour la somme des fréquences.

Il faut encore deux conditions pour que le schéma soit satisfaisant. La première est la faible largeur de bande de fréquence des raies. Physiquement cela s'exprime par un coefficient de surtension élevé. Ce coefficient Q est égal au rapport puissance réactive sur puissance dissipée ou rayonnée. Le calcul donne environ Q = 3.1013λ , λ étant exprimé en mètres.

La seconde condition est la stabilité de l'orbite. Il faut que le rayonnement qui l'entretient ramène l'électron sur l'orbite s'il s'en écarte. La formule de la densité spectrale affirme cette stabilité puisque l'énergie fournie croit avec la fréquence de l'orbite et qu'un accroissement de fréquence de l'orbite signifie une diminution de r nécessitant de l'énergie pour retrouver sa valeur.

Ce schéma simple donne donc une réponse précise à toutes les questions. Il permet de mieux concevoir les trois phases, solide, liquide, gaz; d'un corps. Il faut considérer le solide en sa pureté c'est à dire la forme cristalline. Les atomes sont liés entre eux par des orbites électroniques définies par le rayonnement hf. L'état solide cesse dés que le rayonnement thermique kT est plus intense que le rayonnement hf pour une liaison. C'est pourquoi la température de fusion est fixe. La rupture d'une liaison nécessite un quantum d'énergie. Il faut aussi un quantum d'énergie pour placer un électron sur une orbite plus éloignée du noyau. L'eau a une chaleur spécifique élevée parce que entre l'état solide et l'état gazeux, il faut casser plusieurs liaisons. Il en résulte que l'équilibre thermique de l'eau concerne deux équilibres, le cinétique des molécules et le rayonnant des liaisons. Ils peuvent un moment ne pas coïncider. Ceci explique la surfusion .

Les données expérimentales de l'effet photoélectrique s'expliquent très bien avec le schéma ci-dessus.

L'effet Compton s'explique aisément par l'effet Doppler sur les ondes réfléchies par les électrons de recul. Pourquoi refuser cette explication classique?

[modifier] Ebauche d'une suite

Dans l'hypothèse que les physiciens ont repris la direction de la physique théorique, que pouvons nous espérer et que devons nous rechercher? Les physiciens du dix neuvième siècle se sont illustrés en montrant que la calorique sous toutes ses formes était de l'énergie ML2T − 2. Il faut faire de même pour l'électricité et la gravitation.

Avant d'aller plus loin dans cette recherche de la constitution mécanique de l'électricité, il faut comprendre ce qu'est l'énergie potentielle qui s'exprime par des champs de vecteurs. Que ce soit le champ électrique ou le champ gravitationnel, le champ est engendré par une particule spécifique de ce champ et ne concerne que les particules de même spécificité. Le champ magnétique H est lié au champ électrique par une relation mathématique et il doit exister un champ inertiel I lié pareillement au champ gravitationnel. Une particule électrique exprime une densité d'énergie engendré en son environnement. Tout l'espace autour de cette particule et jusqu'à l'infini montre une densité énergétique modifiée par la particule. Soit Ea(xyzt) le vecteur caractérisant le champ électrique de la particule A. C'est un vecteur fluctuant comme l'énergie de A mais, comme celle-ci, sa moyenne est stable. La densité énergétique de l'espace est proportionnelle à E_a^2 (en général la moyenne de E² n'est pas le carré de moyenne de E) et cette densité signifie un écoulement permanent d'énergie qui doit être compensé par un écoulement identique venant de l'espace vers la particule A. Soit une autre particule B et Eb le champ électrique correspondant. La densité énergétique devient proportionnelle (ou identique avec un choix des unités à cette fin) au carré de la somme vectorielle Ea + Eb . L'énergie potentielle résulte de la valeur non nulle de moyenne de Ea.Eb.

La somme dans tout l'espace de cette valeur de densité énergétique est l'énergie potentielle disponible. Soit U sa valeur. Supposons que la particule B soit déplacée d'une longueur vectorielle dL, l'énergie potentielle aura varié de dU et cette quantité d'énergie sera égale au travail reçu ou fourni dans le déplacement de B c'est à dire F.dL F étant la force que A provoque en B, et que B provoque de même sur A.

Tout ceci exprime seulement le principe de la conservation de l'énergie. L'énergie cinétique acquise par un électron allant vers un proton correspond à la même énergie soustraite dans l'espace environnant. Par ailleurs cette densité énergétique spatiale ne signifie pas une pression comme il en est pour le rayonnement thermique. Enfin le champ engendré par la particule est stable mais la répartition de sa grandeur laisse supposer laisse supposer une diffusion d'énergie à compenser par une réception d'énergie.

[modifier] Electricité

Nous savons aujourd'hui que l'électricité est quantifiée en une charge élémentaire q positive ou négative de valeur 1,610 − 19 coulomb, que tous nos corps simples sont constitués de protons ayant une charge + et d'électrons ayant une charge -, aussi de neutrons qui isolés ne sont pas stables et se décomposent chacun en un proton et un électron. Il existe de nombreuses particules portant des charges q positives ou négatives mais toutes éphémères, à très courte durée de vie, sauf deux le positron et l'antiproton qui sont l'électron et le proton nantis de charges électriques de sens inverse. Une première question est évidente : en énergie que signifie le +ou le – électrique. Une réponse, qui n'est peut être pas la bonne, qui est difficile à admettre mais qui cependant satisfait à d'autres questions est la suivante : le moins correspond à de l'énergie négative. Nous ferons cette ébauche de schéma avec cette hypothèse.

Cette notion d'énergie négative permet d'éliminer une grande interrogation qui aurait été de savoir l'origine de l'énorme quantité d'énergie spatiale. Nous admettrons que la densité énergétique spatiale moyenne est nulle. Nous admettrons que l'espace physique est plein complètement et de la même façon statistique par deux matières incompatibles, l'une de densité massique positive, l'autre de densité massique négative. Il est indifférent d'un point de vue physique de dire que la matière + a la vitesse v par rapport à la matière – ou celle-ci la vitesse –v par rapport à l'autre matière.

Si en tout point l'énergie spatiale moyenne est nulle à l'état normal, c'est uniquement en raison de la succession des + et des -. Une perturbation est une zone de densité et d'énergie positive compensée évidemment, puisque la moyenne est nulle, par une zone négative. Ceci signifie des zones de gradients de densité massique. Or il faut admettre aussi que chacune des deux matières est animée d'une grande densité énergétique moyenne, de l'ordre de d c² en valeur absolue, d étant la densité massique. De plus cette énergie correspond à des mouvements très rapides des éléments des deux matières puisque la densité spectrale énergétique doit s'étendre jusque aux rayons cosmiques, soit environ 1040 hertz. Une telle perturbation est l'existence d'un champ électrique et les données ci-dessus signifient que la perturbation va se propager et disparaître à la vitesse c.

Un proton correspond à une zone volumique permanente d'énergie positive et un électron à une zone volumique permanente d'énergie négative. Leur existence nécessite de recevoir en permanence de l'énergie comme il en est pour le circuit oscillant dans le rayonnement thermique dont la self et la capacité possèdent une énergie moyenne kT. Le donneur d'énergie ne peut etre que le même que celui pour l'atome de Bohr. Nous aurons donc la relation :

W = q2 / 4πεr = hf et avec f= c/λ λ= 2πr il vient h = 5.10 − 36 (au lieu de 7.10 − 34 )
q = 1,6.10 − 19 coulomb ε = 107 / 4πc2 r rayon de la particule

Cette valeur de h est possible car h doit tendre vers 0 pour les très hautes fréquences et les fréquences pour l'électron et le proton sont environ 1020 et 1023 hertz. Par ailleurs nous ne connaissons pas la façon dont se fait la transmission de l'énergie de rayonnement au spin de la particule et encore moins la raison de la stabilité valable seulement pour deux particules.

Les mesures expérimentales nous donnent les masses inertielles de l'électron ( 9.10 − 31 kg) et du proton ( 1,7.10 − 27 kg). Si nous admettons que l'énergie magnétique engendrée par la vitesse v de la particule correspond à l'inertie (cette hypothèse fait m infini pour v=c), nous en déduisons les rayons du proton ( 1,5.10 − 18 m) et celui de l'électron ( 2,8.10 − 15 m). Ceci correspond pour la valeur de l'énergie électrique exprimée ci-dessus à W = mc², m étant la masse de la particule. Si m = Nme, me étant une masse élémentaire, la particule est semblable à une bulle de gaz dont chaque molécule aurait une vitesse moyenne c.

L'énergie W = q²/4πεr résulte d'un calcul qui suppose l'énergie située à l'extérieur de la sphère de rayon r. C'est bien ainsi que nous devons voir le proton ou l'électron. L'effet du spin peut s'interpréter comme celui d'une sphère de masse m, mais concevoir ainsi le proton ou l'électron serait supposer un matériau supportant sans exploser une accélération de l'ordre de c²/r à sa périphérie, soit plus de 1030 newtons. L'hypothèse de la densité massique négative permet un schéma possible avec la zone centrale vidée de densité positive. Le gradient de celle-ci, maximum à la distance r du centre, engendre un coefficient de diffusion équilibrant l'accélération. La densité énergétique décroît comme 1 / r4. Pour l'observateur la particule apparaît ponctuelle.

Pourquoi seulement le proton et l'électron comme particules stables élémentaires, il manque une deuxième équation pour l'expliquer. Les noyaux stables de l'hydrogène (deutérium et tritium) doivent être considérés comme des noyaux répondant aux relations :

W = pW0 = phc / λ0 = pq2 / 4πεr0 avec λ0r0 valeurs du proton et p=2 ou 3


Ces relations correspondent à un noyau de rayon r0/p et d'énergie hf avec f=pc/l0 . Ces relations sont approximatives. La stabilité résulte du fait que W0-W = dm c2 . On fabrique des neutrons en cassant de tels noyaux. Le neutron n'a pas une configuration stable. Son noyau est le proton puisque sa masse est très voisine, mais il est entouré d'une énergie négative qui en quelques minutes se transforme en un électron. Plus généralement l'énergie d'un noyau condensé comportant n protons et p neutrons s'écrira : W = (n + p)W0 = (n + p)hc / λ0 = n2q2 / 4πεr. Si r et λ sont liés comme supposé ci-dessus, cette relation signifie une baisse de la force électrique q dans les noyaux lourds.

[modifier] Gravitation

La loi de l'attraction universelle a été formulée par Newton sous la forme:

F = m1m2 / 4πγd2

avec F= Force d'attraction entre deux masses m1etm2 écartées d'une distance d.

Cette relation correspond à une action à distance mais on peut formuler cette loi sous la forme d'un champ gravitationnel G analogue au champ électrique. La force électrique entre deux protons est une force de répulsion car l'énergie spatiale électrique croit lorsque les protons se rapprochent. Cette force vaut :

q24πεr2

celle d'attraction vaut:

m2 / 4πγr2 avec q = 1,6.10 − 19c ε = 107 / 4πc2 m = 1,7.10 − 27 γ = 1011 / 28π

Il en résulte que entre deux protons la force de répulsion électrique est 1036 plus grande que la force d'attraction gravitationnelle.

La densité énergétique spatiale de l'électricité est εE². On peut imaginer de même une énergie spatiale gravitationnelle de densité γG² et alors la loi de la gravitation n'est autre que le principe de la conservation de l'énergie mais à une condition impérative car les masses s'attirent: il faut que cette énergie spatiale soit négative.

Une telle densité spatiale négative peut résulter de l'hypothèse d'une moyenne énergétique nulle et en conséquence toujours une quantité d'énergie négative compensant une quantité positive. Or si nous admettons que le milieu spatial positif contient l'équivalent de grains élémentaires ayant chacun une énergie moyenne mec2, les chocs de ces grains sur le proton lui donneront la même énergie moyenne positive et le proton sera entouré dans l'espace de la même quantité d'énergie négative. Cette quantité s'exprime par la formule Wg = m2 / 4πγr avec m masse du proton et r son rayon. La masse élémentaire m0 est donc égale à Wg / c2 soit, avec Wg = 1,4.10 − 46 joule, environ m0 = 10 − 63kg = 10 − 36mp . La valeur m0 étant la valeur moyenne des masses des particules qui remplissent l'espace.

Le champ électrique reste confiné à l'intérieur de l'atome. Le champ gravitationnel de chaque atome s'ajoute à celui des autres et finalement le rassemblement d'atomes en une grande masse s'accompagne d'une grande libération d'énergie qui réchauffe cette masse. Mats cette énergie n'est pas renouvelée et, par rayonnement la masse se refroidira.

Calculons la température d'un astre qui vient de se constituer en rassemblant tous ses atomes. Son énergie gravitationnelle Wg correspond à la formule ci-dessus concernant le proton et nous l'écrirons Wg = mu2 avec u2 = m / 4πγr (r étant le rayon de l'astre) qui correspond à la densité énergétique de l'astre. Ainsi pour la terre de masse 6.1024 kg et de rayon 6,4.106m l'énergie reçue est de 6.107 joules, pour le soleil elle est 333000/109 = 3055 fois plus grande soit environ 2.1011 joules par kg. Faut-il chercher ailleurs la cause du feu central?

[modifier] Electricité et gravitation

Dans le schéma ci-dessus il est admis un seul milieu spatial support des énergies électrique et gravitationnelle. Il convient de voir comment elles se différencient. Notons une différence entre ces énergies et celle du rayonnement thermique qui a cependant pour support le même milieu. L'énergie du rayonnement thermique correspond à une énergie entièrement positive et sa présence se caractérise par une augmentation de pression du milieu. Soit un condensateur électrique constitué de deux plaques entre lesquelles l'énergie spatiale électrique est de densité volumique eE2 . Une pression engendrée par cette énergie les ferait se repousser alors qu'elle s'attirent captant l'énergie spatiale. La pesanteur est la même à la surface de l'eau et à 10 000 mètres de profondeur à l'intérieur de la sphère d'acier du bathyscaphe. L'énergie spatiale fondamentale qui engendre les atomes et les assemble, supposée répartie en deux masses ,l'une positive, l'autre négative , dans le schéma ci-dessus, ne nous apparaît pas directement.

Au niveau du proton son énergie électrique est q2 / 4πεr = mc2 = 1,5.10 − 10 j et son énergie gravitationnelle m2 / 4πγr = 1,4.10 − 46j . Elles sont dans le rapport de 1036 indiqué ci-dessus. A la surface de la terre la densité de l'énergie gravitationnelle est égale à γG2 soit 1,1.1011j / m3 et la densité de l'énergie électrique εE2 vaut environ 10 − 7j / m3 pour un champ électrique de 100v/m .

Un vent de 15 m/s soit environ 50 km/h correspond à une densité énergétique de l'ordre de 10² j/m³ . L'agitation moléculaire de l'air correspondant à une énergie kT pour chacune des 1025 molécules contenues dans un mètre cube signifie une densité énergétique égale à 4 104 j/m³ pour T = 300°K L'énergie nucléaire de ces molécules , de valeur mc² pour chacune d'elles correspond à une densité énergétique d'environ 1042 j/m³ . Dans le schéma ci-dessus du proton cette énergie nucléaire est engendrée par l'énergie de rayonnement hf dont la densité doit donc être supérieure. Evaluons la . La densité énergétique de rayonnement est supposé , d'après la relation de Planck, être 8πhf df/λ²c ou 8πf³ df/c³. Nous avons admis, par l'existence des rayons cosmiques que le spectre du rayonnement doit s'étendre jusque vers 1040 hertz. Admettons que l'énergie totale soit équivalente à h constant jusque à 1035 hertz. Ceci donne une densité énergétique de 1080 j/m3 mais d'après le schéma supposé l'énergie de ce rayonnement est à la fois positive et négative.
Comparées aux valeurs énergétiques qui concernent directement la vie humaine ces valeurs sont plus effrayantes que celles que refusaient d'admettre au 19eme siècle les opposants à la théorie atomique. Le coefficient d'absorption étant égal à celui d'émission, la température moyenne de la terre est fixée par l'équilibre entre l'énergie thermique reçue du soleil, de densité énergétique de l'ordre de 10 − 5 j/m3, et l'énergie thermique rayonnée par la terre.

Finalement ce schéma fait apparaître un milieu fondamental où l'énergie existe avec deux polaritès et sous trois formes :

  • forme électrique ou mouvements oscillatoires du milieu dans un spectre très étendu.
  • forme gravitationnelle ou mouvements chaotiques des éléments du milieu.
  • forme astronomique ou mouvements d'ensemble du milieu (vent d'éther).

[modifier] Synthèse

Le savoir humain a deux faces extrêmes : la scientifique, factuelle, concrète, évidente, triviale et la théologique, spirituelle, virtuelle, mystérieuse , transcendante. Il s'exprime et se transmet par le langage qui est le parler, le dessin, l'écriture, les mathématiques et l'informatique. Dans la face scientifique les faits imposent le langage, dans la théologique le langage précède les faits.

La physique théorique ne s'invente pas. Elle s'établit sur la base de données expérimentales précises. Elle ne doit donc avoir que la face scientifique. Le vingtième siècle l'a nantie de plusieurs concepts qui, par leur langage, sont de la face théologique. Ces concepts transcendants ne correspondent à aucune exigence expérimentale. Ils sont inutiles. Ils nuisent au progrès et à l'enseignement.

Un acquis physique est avant tout une donnée expérimentale que personne ne conteste. Les moyens techniques actuels permettent des jugements expérimentaux définitifs. Le doute sur le résultat de l'expérience de Michelson subsiste et le nier n'est pas la solution. L'importance de ce résultat pour la physique théorique veut un jugement expérimental incontestable par une mesure très précise avec un interféromètre moderne.