Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
29 janvier 2015 4 29 /01 /janvier /2015 16:56

                          Bilan de la recherche de la matière noire.

Tout savoir sur l’Univers est inaccessible pour le ‘sujet pensant’ car le ‘Tout’ de l’univers est infini. Ainsi le sujet pensant sera toujours en quête… en mouvement.

Au tout début des années 1980, lorsqu’il s’avéra évident que la dynamique : des galaxies, des amas de galaxies, et plus généralement des structures recensées dans Notre univers, ne pouvait pas être rendue compte correctement en ne considérant que la matière identifiée c’est-à-dire la matière baryonique, le problème de la masse manquante s’est posé. Assez rapidement cette hypothèse de ‘masse manquante’ fut qualifiée : hypothèse de la matière noire.

 Astrophysiciens, cosmologistes, ont tout de go considérés qu’ils devaient résoudre cette problématique d’une façon globale, universelle, conformément à leur assurance que la vraie science fondamentale, la bonne science, est celle qui fournit des réponses complètes, invariantes, à ce genre de questionnement nouveau. Ils ont entrepris de lever cet énigme en ne tenant compte que des connaissances canoniques à cette époque et toujours dominantes aujourd’hui. Ils raisonnent sur la base d’un univers fermé (que je désigne comme : Notre univers), d’une genèse de cet univers sur la base d’un Big-Bang, comme si cette hypothèse de matière noire ne pouvait pas battre en brèche ces certitudes canoniques.

Fin 2014, début 2015, aucun indice tangible de cette fameuse matière noire n’a été mis en lumière. La situation est extrêmement anarchique car les proclamations des indices de matière noire varient, selon les équipes de recherche de quelques meV (tel l’axion) à 1012 eV (tel un WIMP comme le neutralino), en passant par le neutrino stérile à 7.1 keV et autres WIMPs de plusieurs GeV. Ces propositions dans cette très large gamme de masse proviennent d’instruments de détection dans l’espace dédiés ou pas à la recherche de la matière noire (XMM-Newton, PAMELA, CHANDRA, Fermi Space Télescope, AMS-02). Plus déroutant encore, un grand nombre de publications très récentes (en 2014), pour justifier leurs résultats et leurs annonces, s’appuient sur une phénoménologie qui semblerait interdite, consistant à privilégier la propriété d’annihilation entre les particules de matière noire (matière et antimatière). ‘J’indique qui semblerait interdite’ car dès 2013 les premiers résultats publiés par l’équipe de ‘Planck’, et les plus récents de novembre 2014, affirme qu’il n’y a pas eu d’annihilation de matière noire dans l’univers primordial car, dans le cas contraire, il y aurait eu un excès d’énergie de radiation qui aurait laissé son empreinte dans le rayonnement fossile très précisément analysé. Or le bilan est : pas d’annihilation dans les temps primordiaux, donc pas d’annihilation après. Ou alors il faudrait expliquer pourquoi cette propriété puisse apparaître après coup. Cette perspective est très peu probable, et peu cohérente. On doit donc s’interroger sur cette persistance à concevoir l’annihilation de composants de la matière noire.

Ainsi l’article de l’ESA-Planck du 04/12/2014 précise : « Nos nouveaux résultats sont encore plus intéressants quand on les compare avec les mesures réalisées par d’autres instruments. Les satellites Fermi et Pamela, tout aussi bien que l’expérience AMS-02 au sein de l’ISS, ont observé un excès de rayons cosmiques, qui pourrait être interprété comme la conséquence de l’annihilation de matière noire. Etant donné les observations réalisés par Planck, une explication alternative pour AMS-02 et les mesures sur Fermi – comme des radiations de Pulsars non encore identifiés – doivent être considérées, si on fait l’hypothèse raisonnable que les propriétés des particules de matière noire sont stables dans le temps. »

Pour être complet, il faut préciser que Planck exclut aussi l’hypothèse d’une 4e famille de neutrinos donc exclut l’hypothèse du neutrino stérile.

Aucun de ces détecteurs spatiaux n’est spécifiquement configuré pour détecter directement la matière noire. Les équipes qui décryptent les signaux sur ces détecteurs sont contraints de considérer que ces signaux résultent des produits de la cascade du processus d’annihilation, par exemple des rayons ϒ en ce qui concerne le Fermi Space Télescope, des rayons X en ce qui concerne XMM-Newton, des flux d’antimatière (rayons cosmiques, essentiellement des positrons) en ce qui concerne AMS, etc… On devrait s’étonner que, selon les physiciens, cette matière exotique s’annihile en produisant obligatoirement des produits standards. De même, il est possible de lire, dans des articles : « Although still elusive in particle-physics experiments, dark matter is a reality for astronomers. » : «Bien que toujours insaisissable dans les expériences de physique des particules, la matière noire est une réalité pour les astronomes.» Sans être provocant on doit s’étonner de l’absence de recul intellectuel de la part de ces astrophysiciens et astronomes. En effet considérer par la force des choses que la matière noire est une matière exotique, mais la faire rentrer immédiatement dans le tuyau de la phénoménologie de la matière standard dès qu’on conçoit son annihilation[1]ou bien considérer qu’on en a tellement besoin dans notre conception du cosmos et de sa genèse qu’on postule sa réalité, on est loin d’une démarche scientifique. L’impatience de résoudre des énigmes persistantes en court-circuitant le raisonnement et la rigueur scientifiques ne peut mener qu’à une succession d’impasses.

Sans vouloir dramatiser outre mesure, j’ai perçu que nous atteignîmes l’Impasse, avec un ‘I’ majuscule, le 1er Novembre 2013, lorsqu’il fut annoncé qu’aucun indice de détection directe de matière noire n’a été relevé au sein du détecteur : LUX. Or tous les atouts sont réunis à propos de ce détecteur, (Large Underground Xenon Experiment, situé dans une mine désaffectée dans le Dakota), atouts technologiques qui autorisent d’évaluer d’un facteur 100, par rapport aux meilleurs détecteurs actuels, l’amélioration de sa sensibilité, et aussi atouts de compétences humaines car l’équipe dédiée à LUX est considérée comme l’une des plus pointues dans ce domaine. On peut considérer qu’il y a, depuis plus de dix ans, sur la planète terre, une bonne dizaine de détecteurs configurés pour relever des traces de passages de particules de matière noire. Même s’ils sont moins sensibles que LUX, l’accumulation de résultats non significatifs doit être prise en compte. Il pourrait y avoir une exception avec les détecteurs Cogent et Dama, mais l’interprétation des résultats ne fait pas l’unanimité, loin s’en faut : il vaut mieux s’en tenir là.

En 1983, une autre démarche, très solitaire, pragmatique, a été empruntée par le scientifique : Moti Milgrom. Il a proposé de modifier la loi de Newton pour rendre compte d’une façon pragmatique de la dynamique observée des galaxies et autres structures de Notre univers (cela conduit à la théorie MOND : MOdified Newtonian Dynamics). Autant dire que ce pragmatisme iconoclaste fut spontanément rejeté par la communauté scientifique. Il a fallu beaucoup de témérité de la part de Milgrom pour qu’il soit entendu plutôt que occulté. En fait, on a commencé à exprimer de l’intérêt pour MOND, lorsqu’il y eut une conjonction remarquable entre la loi de Tully-Fischer et les travaux de Milgrom. La loi de Tully-Fischer (découverte en 1977, par les deux astronomes américains Tully et Fischer), obtenue par les moyens d’observations, montre une corrélation très significative entre la masse d’une galaxie et sa vitesse de rotation. Ce résultat est contenu dans la théorie MOND et cela permet d’attribuer à cette théorie une valeur prédictive à ce niveau donc elle acquiert un statut nouveau. Après coup et plus récemment la théorie MOND s’est avérée plus précise que l’hypothèse courante de la matière noire pour rendre compte de la dynamique des ‘galaxies naines’ qui sont au voisinage de la Voie Lactée et d’Andromède, par exemple.

En conséquence il n’est plus souhaitable de sous-estimer l’intérêt que représentent les travaux de Milgrom sur plus de 30 ans qui précisons-le ne résolvent pas toutes les questions relatives à la dynamique des structures de Notre univers, mais les adéquations croissantes, significatives, obtenues le sont sans qu’il soit fait appel à l’existence de matière noire dans l’univers. Malgré cela, que devons-nous penser de ce que nous dit F. R. Bouchet[2], cosmologue à l’Institut d’Astrophysique de Paris, directeur de recherche : «En dépit de ce succès, l’immense majorité des cosmologues a préféré accepter l’existence de matière noire en grande quantité plutôt que d’abandonner un cadre conceptuel qui a fait ses preuves, au profit d’une modification ad hoc. Il pourrait s’avérer que MOND soit une théorie effective, limite de basse énergie d’une théorie plus fondamentale, mais cela nous laisse alors sans cadre théorique bien défini, en dépit de nombreuses tentatives. Il devient alors difficile de progresser, puisqu’il est dès lors impossible de vérifier si l’alternative est capable de reproduire les succès bien réels de la cosmologie relativiste, même s’ils sont obtenus au prix de révisions de nos idées sur ce qu’est le contenu « naturel » de l’Univers. En bref, même sans trop d’a priori, il semble que, pour aller de l’avant, le plus prometteur soit de chercher d’autres indications de la matière sombre, en ignorant cette tentation de MOND. »

Ecrit il y 10 ans ce paragraphe indique d’une façon remarquable le dilemme dans lequel les cosmologistes sont pris dans une sorte de houle intellectuelle. Il serait intéressant de savoir si F. Bouchet continue de considérer la théorie MOND comme purement effective. De même, il serait intéressant qu’il  nous dise, s’il considère toujours, après ces 10 dernières années de recherche infructueuse de matière noire, « Pour aller de l’avant, le plus prometteur soit de chercher d’autres indications de la matière sombre, en ignorant cette tentation de MOND. » Je ne crois pas extrapoler abusivement les propos de Bouchet en disant qu’en fait il retient l’hypothèse de la matière noire par défaut. Combien de temps est-ce souhaitable, est-ce que ce n’est pas aveuglant sur le plan intellectuel et aussi contraire à la curiosité scientifique ouverte ?

Depuis que F. Bouchet a écrit : « Il devient alors difficile de progresser, puisqu’il est dès lors impossible de vérifier si l’alternative est capable de reproduire les succès bien réels de la cosmologie relativiste… », il semblerait que les choses aient changé puisque dans le NewScientist du 03/May 2014, M. Milgrom affirme « Après bien des efforts jusqu’en 2004, J. Bekenstein avec B. Sanders, en s’appuyant sur la théorie TeVeS, ils obtinrent de décrire la gravité avec trois champs et ainsi ils ont obtenu que MOND soit compatible avec la relativité d’Einstein. » Est-ce que cette compatibilité avec la relativité d’Einstein est en mesure de réduire la prévention de Bouchet ? Ou bien cela confirmerait sa prévention que MOND n’est qu’une théorie effective ?

Il y a un domaine sur lequel MOND est muet c’est évidemment sur la formation des puits de potentiel si nécessaires dès les premières secondes de la genèse de Notre univers afin que la matière baryonique s’y précipite pour former les grumeaux primordiaux de matière qui sont à l’origine des structures de l’univers. Jusqu’à présent, la thèse du Big-Bang a besoin de ce scénario puisque les fluctuations relevées du rayonnement fossile sont de 10-5 à 10-6 °K

Au-delà des problèmes de la détection de constituants de matière noire sur lesquels je me concentre dans cet article, il est nécessaire de signaler les désaccords très significatifs entre les résultats des observations et ceux résultants de la simulation. Citons[3]le désaccord de la densité de matière noire observée avec celle simulée lorsqu’on fait une évaluation de cette densité au plus près du centre des galaxies (désigné comme problème des cuspides, prédites dans les simulations, alors que des cœurs sont observés.) Autre désaccord : il concerne, avec l’hypothèse de la matière noire, la prédiction de 500 galaxies naines autour de la Voie Lactée alors que nous atteignons à peine une trentaine observées.

Wimp, axions, neutrinos ? Détecteurs enterrés, accélérateurs de particules, observatoires spatiaux ? « Je ne sais pas d’où viendra la lumière, mais le bout du tunnel est proche », nous dit Emilian Dudas de l’Ecole polytechnique dans une interview très récent, son collègue Pierre Salati (Université de Savoie) assure que : « Si rien ne vient, il nous restera à réexaminer les lois de la physique. »

Au début des années 1980, c’était une démarche ‘raisonnable’ que de vouloir insérer l’hypothèse de la matière noire dans le cadre des connaissances canoniques qui prévalaient à cette époque à propos de notre connaissance rassemblée pour concevoir ce que l’on appelle l’univers, accompagné de sa genèse. Etant donné qu’avec cette hypothèse nous n’avons pas progressé d’un iota, il est temps de se s’interroger sur le fait que : soit l’hypothèse n’est pas judicieuse, soit le cadre des connaissances canoniques est incorrecte, soit encore d’une façon plus dramatique nous devons simultanément reconsidérer ces deux socles de connaissances et d’hypothèses. Les succès croissants de la théorie MOND nous y obligent d’une façon objective sans devoir considérer que cette théorie est la ‘bonne’, loin s’en faut.

Et si cette hypothèse de matière noire nous signalait que notre conception de l’univers était erronée, en tous les cas provisoire ? Dans le sens où ce que nous désignons actuellement comme l’Univers n’est rien d’autre que l’univers de nos connaissances actuelles et qu’il faut franchir maintenant un cap de connaissances nouvelles pour résoudre les problèmes posées depuis les années 80. Par exemple, ne plus penser en terme d’un univers borné, déterminé, par la vitesse de la lumière, ne plus considérer que le Big-Bang est un paradigme valable. Mais penser à un univers qui engloberait un champ plus riche de connaissances, qui n’obligerait pas à réexaminer les lois de la physique présentement acceptées comme l’imagine Pierre Salati mais à accepter leur validité locale, provisoire, pas vraiment universelle. (Notre univers n’aurait que la valeur d’un univers local). Bref il faudrait aller au-delà. Dans cet au-delà de connaissances (que nous devons nous approprier) le problème lié à l’hypothèse de l’énergie sombre devrait certainement avoir aussi une explication.  



[1] Qui plus est, ne jamais prendre en considération, dans ce cas, que la quantité de matière noire diminue dans notre univers et qu’ainsi un effet gravitationnel général va en diminuant, laisse perplexe.

[2] In ‘Einstein, aujourd’hui’, p.361, Edit. CNRS Editions, 2005.

[3] Voir livre de F. Combes : ‘Mystères de la formation des galaxies – vers une nouvelle physique ?’, édit. UniverSciences, 2008. P. 150-158. Voir aussi cours de F. Combes, Collège de France : janvier-février 2015.

Partager cet article
Repost0

commentaires

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens