Pas de nouveaux épicycles S.V.P.
Le risque de nouveaux épicycles existe-t-il ? Oui, il existe le risque d’une errance théorique contemporaine en ce qui concerne la conception et la représentation de notre cosmos. Ptolémée (100-168) savant grec, astronome, astrologue, qui vécut à Alexandrie, avait conçu un modèle géocentrique du mouvement des planètes correspondant aux observations possibles à cette époque et aussi fortement déterminé par la croyance de l’époque, à savoir que la terre (le genre humain) était au centre du monde. A force d’épicycles il définissait les trajectoires des planètes autour de la planète terre. Ce modèle totalement arrangé tînt bon puisqu’il fallut attendre que les progrès des instruments d’observation ainsi que la théorie élaborée par Nicolas Copernic puis perfectionnée par Johannes Kepler entraînent son abandon pas moins de 14 siècles après. Mais ce fut à grand peine : le système héliocentrique de Copernic (1543), appuyé par Galilée (1630) fut rejeté par l’Église catholique et Galilée fût contraint de renier officiellement ses théories en 1633.
Cet exemple appartient à l’histoire, aujourd’hui les astrophysiciens et les cosmologistes ne sont absolument pas contraints, ni intellectuellement déterminés, par les croyances d’une semblable nature et leurs capacités de représentations à partir de leurs observations peuvent être maintenant d’une qualité sans communes mesures. Pourtant il faut prendre en compte sérieusement le risque, à cause d’une inertie de la pensée collective des physiciens, que les fractures actuelles du modèle standard de la cosmologie provoquées par les résultats inattendus des récentes observations soient comblées aux moyens d’artefacts.
Pour expliciter cette inquiétude, prenons l’exemple significatif des deux valeurs mesurées de la constante de Hubble. Ce n’est que depuis le mois de juillet que l’on peut attribuer valablement deux valeurs à la constante de Hubble après que finalement fut acceptée cette situation scientifique au cours d’un symposium, du 15 au 17 juillet, au Kavli Institute for Theorotical Physics (KITP) (E.U.), réunissant les spécialistes les plus aguerris sur ce sujet. Ce symposium avait pour unique sujet : ‘Tensions entre l’univers précoce et l’univers tardif’ ; ‘Tensions between the Early and the Late Universe’.
La cause de ces tensions c’est que pour la première fois depuis 1920, il faut admettre que la constante de Hubble[1], qui indique la vitesse d’expansion de l’univers, a deux valeurs, l’une correspondant à son évaluation pendant la période primordiale de l’univers, calculée, de multiple fois, avec une très haute précision par l’équipe du satellite Planck et égale à 68 km/s/Mpc. L’autre correspond à son évaluation durant les 5 à 6 milliards d’années en arrière de notre époque et égale à 74 km/s/Mpc. Cette deuxième valeur a été annoncée pour la première fois en juin 2016. Les mesures ont été depuis plusieurs fois renouvelées avec des méthodes différentes. L’écart est significatif et à Kavli, les physiciens ont accepté le fait que cet écart ne pouvait pas être la conséquence d’erreurs systématiques des mesures.
Selon les spécialistes réunis à Kavli, c’est durant la période comprise entre le découplage[2] situé 380 000 ans après le big bang et la recombinaison[3] que se situe une faille dans le modèle standard de la cosmologie et il s’agit donc de combler une lacune car comme il a été rappelé tout au long du symposium, il n’est pas considéré qu’il y ait matière à devoir reconsidérer le modèle standard. Par un vote, il a été indiqué qu’il y avait un ‘problème’ à résoudre dans le cadre du modèle standard mais il n’y avait pas vraiment crise au-delà de ce sujet spécifique.
Il y a de quoi s’inquiéter quand on découvre la pauvreté des propositions théoriques qui viseraient à combler la faille et à établir la jonction entre les deux valeurs du taux d’expansion de l’univers. La première proposition consiste à introduire un champ scalaire qui automatiquement (miraculeusement) aurait toutes les propriétés dynamiques opportunes qui assurerait la jonction entre les deux vitesses d’expansions. L’autre proposition consiste à attribuer un rôle aux neutrinos qui auraient à cette occasion des propriétés nouvelles avec la condition que le fameux quatrième : dit neutrino stérile[4], entre à nouveau en scène.
Je n’insiste pas plus pour confirmer la crainte que nous soyons dans une période conceptuelle équivalente à celle de Ptolémée. A mon sens cette situation perdurera tant que nous n’aurons pas mis en avant un nouveau paradigme en ce qui concerne notre perception du monde physique car ce n’est pas avec des réajustements comme ci-dessus énumérés que nous atteindrons de vrais progrès. Abandonner le concept de big bang pourrait libérer l’intelligence collective et favoriser des idées plus fertiles. Ce qu’il est bon de rappeler c’est que les équations de la relativité générale ne sont pas en cause jusqu’à présent dans le questionnement nécessaire à l’égard du modèle standard de la cosmologie. Bref elles ne sont pas la cause des failles constatées.
Je peux encore affirmer que la relativité générale n’est pas la cause d’une nouvelle discordance sérieuse à propos du modèle standard qui est révélée, pour la première fois ces 15 dernières années, dans un article du 18/11 dans ‘Nature’. Sur ce sujet il faut encore utiliser le conditionnel mais cette discordance est décelée en exploitant les dernières données toujours plus précises fournies en 2018 par l’équipe (du satellite) Planck. Ces données exploitées par une équipe extérieure, a conduit celle-ci à publier un article dans lequel elle déclare avoir mesuré une amplitude d’effet gravitationnel accrue, dans le spectre de puissance du fond diffus cosmique micro-ondes, comparée à celle prédite par le modèle standard actuel. Cela indiquerait que notre Univers serait fermé puisqu’au lieu d’un univers euclidien (plan : toutes tranches d’univers est un plan) avec une courbure nulle ce serait une courbure positive, sphérique, qui dominerait dans l’univers aux grandes échelles. Dans ce cas la lumière suivrait une trajectoire courbe sphérique au lieu d’être linéaire comme cela est actuellement considéré.
Si ce premier article était confirmé nous serions confrontés à des discordances plus élevées que généralement estimées pour la plupart des observables cosmologiques locales, y compris les oscillations baryoniques acoustiques. « L'hypothèse d'un Univers plat pourrait donc masquer une crise cosmologique où les propriétés observées disparates de l'Univers semblent être mutuellement incompatibles. Des mesures futures sont nécessaires pour déterminer si les discordances observées sont dues à des erreurs systématiques non détectées, à une nouvelle physique ou simplement à une fluctuation statistique. »
Je cite l’auteure de l’article de phys.org du 13/11 : « Avant tout, nous devons revoir la pierre angulaire fondamentale de la cosmologie c.-à-d. la théorie de l’inflation cosmologique. Inflation qui décrit les premiers instants après le Big Bang, prédisant une période d’expansion exponentielle de l’univers primordial. Avec cette hypothèse de l’inflation, il est justifié que l’univers soit plat. Si l’univers est sphérique, l’inflation doit être remise en cause… Pour le moment, l’évidence physique des trois piliers de la cosmologie : matière noire, énergie noire et inflation proviennent exclusivement de la cosmologie. Leur existence respective supposée peut expliquer plusieurs observations astrophysiques. Mais concrètement rien n’est observé pour confirmation dans le modèle standard des particules physiques qui gouverne l’univers aux plus petites échelles pas plus que dans la théorie de la R.G. qui opère aux grandes échelles. Au lieu de cela, ces substances et ce mécanisme appartiennent au domaine de la physique inconnue. Personne n’a jusqu’à présent observé de la matière noire, de l’énergie noire ou l’inflation en laboratoire ou ailleurs… Bref nous devons repenser le puzzle de l’univers d’une façon différente. »
Cette obligation de repenser d’une façon radicale, notre représentation actuelle de l’univers ainsi que ses paramètres attachés, est très prononcée au regard d’un autre article du 27/11 émis par l’université d’Oxford dans phys.org. Cet article au titre : ‘Evidence de l’anisotropie de l’accélération cosmique’ ; ‘Evidence for anisotropy of cosmic acceleration’, rend compte que l’accélération de l’expansion de l’univers résulte d’un effet local jusqu’à présent sous-estimé par les astrophysiciens et en conséquence pour les signataires de l’article « l’énergie noire est un pur artéfact » (sic). Cette annonce est depuis plusieurs années de mieux en mieux étayée par l’équipe menée par Subir Sarkar de Oxford et Jacques Colin de l’IAP à Paris et autres chercheurs de l’institut Niels Bohr à Copenhague.
L’équipe s’appuie sur les observations engrangées de 740[5] supernovas Type 1a pour montrer que cette accélération est un effet relativement local : elle est dirigée le long d’une direction suivant laquelle nous semblons nous déplacer en prenant pour référence le fond diffus cosmologique. Tandis que la raison physique de cette accélération est inconnue, elle ne peut pas être attribuée à l’énergie noire comme prédite car elle provoquerait une accélération dans toutes les directions. S. Sarkar explique : « Le modèle standard de la cosmologie repose sur la supposition que l’univers est isotrope autour de tous les observateurs. Ce principe cosmologique est une extension du principe copernicien : nommément nous ne sommes pas des observateurs privilégiés. Ceci permet d’importantes simplifications dans la construction mathématique du modèle cosmologique exploitant la théorie de la R.G. d’Einstein. Cependant, quand les données des observations sont interprétées dans ce cadre nous obtenons la conclusion étonnante qu’à peu près 70% de l’univers est constitué de la constante cosmologique d’Einstein ou plus généralement, ‘d’énergie noire’. »
Avec l’analyse des données de ces 740 SN il se trouve que l’accélération inférée présente une anisotropie dipolaire dans la même direction suivant laquelle nous nous déplaçons localement avec un niveau de confiance satisfaisant alors qu’en contraste toute accélération isotrope qui serait attribuée à l’énergie noire est obtenue avec un niveau de confiance bien plus faible. Il apparaît donc que l’accélération est un artéfact, consécutif au flux de notre mouvement local, en conséquence l’énergie noire ne peut pas être évoquée comme étant la cause.
Contrairement à l’exemple de la faille répertoriée de la valeur de la constante Hubble, le point de vue de l’équipe de Sarkar n’a toujours pas beaucoup d’échos, la remise en cause est tellement profonde qu’il faudra que l’équipe apporte des preuves irrémédiables. Il n’est pas impossible que cela se produise car à mon sens l’hypothèse de l’énergie noire est fragile de naissance. Il faut considérer que l’hypothèse de chandelles standards n’est pas, non plus, assurée. Enfin pourquoi l’énergie noire dominerait l’univers depuis seulement 6 à 8 milliards d’années alors qu’elle est considérée comme négligeable durant l’univers des premiers temps en particulier 380 000 ans après le Big Bang au moment du découplage et pourquoi donc le fond diffus cosmologique serait insensible à l’hypothétique énergie noire ?
Comme le rappelle à juste raison S. Sarkar, le principe cosmologique affirmé qui nous autorise à considérer que nous serions des observateurs non privilégiés donc universels doit être sans cesse médité dans le sens qu’il ne peut pas être acquis une bonne fois pour toutes. Comme tous les principes qui ne sont pas démontrables a priori mais acceptés grâce à leurs valeurs heuristiques, il doit être sans cesse vérifié que l’on n’exploite pas ce principe abusivement. Personnellement, je pense que plus on va progresser dans la connaissance du cosmos, plus l’exploitation de ce principe sera délicate voire impossible à revendiquer car la ‘Présence’ de l’observateur, du sujet pensant, finira par être immanquablement associée aux paramètres de l’observation dans le cosmos. Si l’avertissement de Sarkar s’avérait être justifié alors ce serait une première et dans une certaine mesure cela remettrait en cause la R.G. car la recherche d’Einstein a toujours été guidée par une pensée réaliste affirmant que les bonnes équations physiques sont celles qui sont indépendantes de la ‘Présence’ du physicien qu’il soit observateur et/ou théoricien.
[1] Une valeur de 70 km/s/Mpc pour la constante de Hubble signifie qu'une galaxie située à 1 mégaparsec (environ 3,26 millions d'années-lumière) de l'observateur s'éloigne du fait de l'expansion de l'univers (et donc hors effet d'un mouvement propre de l'objet, négligeable à très grande distance) à une vitesse d'environ 70 km/s. Une galaxie située à 10 Mpc s'éloigne à une vitesse de 700 km/s, etc
[2] Relate le fait qu’à la température de 3000°K de l’univers, les photons du rayonnement thermique et la matière baryonique se découple, chacun de ces ingrédients n’entrent plus systématiquement en collisions et ils deviennent progressivement mutuellement transparent l’un par rapport à l’autre.
[3] Processus par lequel, grâce au refroidissement continu de l’univers à cause de son expansion, les électrons perdent de l’énergie cinétique et l’interaction électromagnétique favorise de plus en plus la combinaison entre les protons et les électrons pour constituer des atomes d’hydrogène essentiellement, plus un peu d’hélium et du lithium. Cela correspond à la formation de la période sombre de l’univers.
[4] Celui-ci souvent arbitrairement introduit, pour d’autres besoins, a été déclaré à plusieurs occasions découvert et autant de fois il a été annulé par d’autres équipes de chercheurs quelques mois après.
[5] L’affirmation scientifique de la découverte de l’accélération de l’expansion de l’univers a été publiée en 1998 sur la base des observations de seulement 60 de ces supernovas. Cette découverte a été, à mon avis, (trop) rapidement gratifiée par un prix Nobel en 2011.