Overblog
Suivre ce blog Administration + Créer mon blog
8 septembre 2020 2 08 /09 /septembre /2020 08:23

Pas croyable... Découverte d’un trésor…

C’est un florilège de titres d’articles dithyrambiques qui ont été publiés en concert le 02 septembre. Ces articles annoncent qu’’Anthrôpos n’a pas fini de creuser…’ et qu’Homo-Sapiens n’est pas près d’avoir une pensée scientifique enfermée par des limites car ce qui a été décrypté et annoncé remet en cause un savoir en astrophysique considéré abusivement établi.

Les derniers articles que j’ai postés indiquaient que de nombreuses compréhensions récentes nous disaient que l’univers-contenant était à revoir sérieusement parce que le scénario du Big Bang et ce qui rationnellement semblerait en découler présente des failles significatives. Toutefois les ayatollahs du modèle standard de la cosmologie continuent de mettre des rustines parce que ce modèle standard est toujours intellectuellement, pour eux, confortable.

A l’unisson les articles du 2 septembre reconnaissent que le contenu supposé de l’univers ne répond pas à la croyance établie en ce qui concerne les critères théoriques attribués à l’ensemble de la famille des trous noirs et relatifs aux différents processus de leurs formations.

C’est une ère nouvelle autant théorique que d’observations qui s’ouvre en astrophysique voir en cosmologie. Je vais tenter de vous proposer ci-dessous une synthèse de toutes les perspectives qui sont sous la lumière de cette ère nouvelle.

La source d'ondes gravitationnelles GW190521 (ondes enregistrées sur LIGO et Virgo le 21 Mai 2019) est à ce jour la plus lointaine détectée puisqu'elle s'est produite à environ 7 milliards d'années-lumière de la Voie lactée. Les détecteurs ont en effet révélé qu'il s’agissait de la fusion de deux trous noirs, respectivement de 85 et 65 fois la masse du Soleil environ. Le produit final de cette fusion serait un trou noir de 142 masses solaires, ce qui veut dire que c'est l'équivalent de presque huit masses solaires qui ont été converties en rayonnement gravitationnel pur.

Cette source est Atypique, il semble qu'elle soit quand même le produit de la fusion de deux trous noirs et surtout qu'il en aurait résulté la formation du premier trou noir de masse intermédiaire (IMBH) directement détecté, contenant 142 masses solaires. Mais il ne faut pas exclure qu’il pourrait s’agir de tout autre chose…

En effet, les astronomes ont détecté la collision la plus puissante, la plus lointaine et la plus déroutante des trous noirs à l’aide d’ondes gravitationnelles. Parmi les deux mastodontes qui ont fusionné lorsque l’Univers avait la moitié de son âge actuel, au moins un — pesant 85 fois plus que le Soleil — a une masse que l’on croyait trop grande pour être impliquée dans un tel événement. Et la fusion a produit un trou noir estimé de près de 150 masses solaires, le plaçant dans une gamme où aucun trou noir n’avait jamais été vu de façon concluante auparavant.

« Tout ce qui concerne cette découverte est ahurissant », explique Simon Portegies Zwart, astrophysicien à l’Université de Leiden aux Pays-Bas. En particulier, dit-il, il confirme l’existence de trous noirs de « masse intermédiaire » : des objets beaucoup plus massifs qu’une étoile typique, mais pas aussi grands que les trous noirs supermassifs qui habitent les centres des galaxies.

Deux aspects rendent cet événement exceptionnel. Tout d’abord, la taille de l’ancêtre plus grand (85 masses solaires) tombe dans un « l’écart » où les trous noirs ne sont pas censés se former par des mécanismes conventionnels. Deuxièmement, la détection du reste de masse solaire de 142 est la première observation directe d’un trou noir de masse intermédiaire (IMBH) — une classe de trous noirs avec des masses entre cent et des dizaines de milliers de masses solaires.

Selon les équations d’Einstein, les trous noirs peuvent avoir n’importe quelle masse (sic, cela est vrai). Cependant, dans notre Univers, les trous noirs d’une certaine masse ne peuvent exister que s’il existe un processus astrophysique pour les créer. L’effondrement d’étoiles massives fournit une voie clé à la formation de trou noir qui impose certaines contraintes sur les masses prévues de trou noir.

Un trou noir de masse stellaire se forme lorsqu’une étoile meurt dans une explosion spectaculaire de supernova. L’explosion se produit une fois que la fusion nucléaire a transformé la majeure partie du noyau de l’étoile en fer. À ce stade, l’étoile est hors de combustible nucléaire, et son noyau commence à s’effondrer sur lui-même. Si la masse stellaire est supérieure à une certaine valeur (estimée à au moins 2,17 masses solaires), son noyau est condamné à s’effondrer dans un trou noir. Les trous noirs formés de cette façon peuvent avoir un large éventail de masses, mais seulement jusqu’à une valeur maximale définie par ce qu’on appelle ‘la paire-instabilité’.

La paire-instabilité’ est un phénomène qui draine l’énergie d’une étoile grâce à la production de paires d’électrons-positrons. Dans une étoile chaude, le noyau produit des rayons gamma qui exercent une « pression de (radiation) de photons » sur les couches stellaires extérieures, s’opposant ainsi à l’attraction gravitationnelle. Si le noyau de l’étoile est plus grand qu’environ 65 masses solaires, cependant, les rayons gamma se convertissent efficacement en paires électron-positron, et en conséquence la pression de radiation des photons diminue. Les couches extérieures s’effondrent alors vers l’intérieur, la combustion nucléaire s’accélère d’une manière galopante et l’étoile explose sans laisser derrière elle aucun reste de trou noir. Ce mécanisme convient jusqu’à environ 135 masses solaires, au-delà desquelles l’étoile s’effondre directement dans un trou noir. La paire-instabilité crée ainsi un écart de masse entre 65 et 135 masses solaires, où les trous noirs ne sont pas théoriquement attendus. Jusqu’à présent, aucun des trous noirs progéniteurs détectés par LIGO et Virgo ne s’est trouvé dans cet écart.

Faut-il revoir la théorie des supernovas pour des étoiles massives ? Pas nécessairement parce qu'un trou noir de 142 masses solaires est précisément ce que l'on appelle un trou noir de masse intermédiaire, compris entre une centaine et quelques centaines de milliers de masses solaires tout au plus. Or, il existe des scénarios de fusion à répétition de trous noirs stellaires et de capture pour former des systèmes binaires qui permettraient de faire naître des astres compacts de ces masses. C'est d'autant plus intéressant que l'on s'interroge sur la possibilité de faire naître les trous noirs supermassifs, qui dépassent les quelques centaines de milliers de masses solaires, justement par fusion de trous noirs de masses intermédiaires. Leur croissance viendrait ensuite dans l'Univers observable jeune des courants froids de matière dans le cadre du paradigme devenu dominant de la croissance des galaxies et des trous noirs supermassifs qu'ils hébergent.

Il existe une autre possibilité fascinante, les trous noirs détectés par Ligo et Virgo pourraient être la pointe émergée d'une population de trous noirs primordiaux nés pendant le Big Bang. Cette population pourrait même contribuer à résoudre l'énigme de la nature de la matière noire. Ce qui est sûr, c'est que nous sommes devant la première preuve directe de l'existence de trous noirs intermédiaires, les précédentes étant indirectes et via le rayonnement électromagnétique.

Dans un communiqué du MIT, Alan Weinstein, membre de Ligo et professeur de physique à Caltech, se prononce : « Cet événement ouvre plus de questions qu'il n'apporte de réponses ». Weinstein précise que : « Depuis que nous avons activé Ligo pour la première fois, tout ce que nous avons observé avec crédibilité a été une collision de trous noirs ou d'étoiles à neutrons. C'est le seul cas où notre analyse permet la possibilité que cet événement ne soit pas une telle collision. Bien qu'il soit cohérent avec une fusion de trous noirs binaires exceptionnellement massive et que les explications alternatives soient défavorisées, il repousse les limites de notre connaissance. Et cela le rend potentiellement extrêmement excitant. Parce que nous avons tous espéré quelque chose de nouveau, quelque chose d'inattendu, cela pourrait remettre en question ce que nous avons déjà appris (sic). Cet événement a le potentiel de le faire. »

Citons aussi ce que pense Jean-Pierre Luminet de cette découverte :  « Je ne suis pas convaincu qu'il faille parler de trou noir de masse intermédiaire (IMBH), (pour moi c'est au-dessus de 1.000 masses solaires) en lieu et place de trous noirs stellaires exceptionnellement massifs. Pour expliquer la formation de ces derniers je ne crois guère à des fusions successives de petits trous noirs stellaires, qui me semblent bien improbables (ne parlons même pas des cordes cosmiques, éliminées depuis belle lurette avec la débandade des théories supersymétriques), je privilégierai les trous noirs primordiaux (sic, moi-même je serais plutôt en phase avec cette hypothèse), formés moins d'une seconde après le Big Bang dans cet intervalle de masse (sans compter les bien plus massifs formés quelques secondes plus tard, qui permettraient de rendre compte des premiers quasars). Sans oublier, non plus  la possibilité de trous noirs de 50-100 masses solaires formés par effondrement gravitationnel d'étoiles très massives car de première génération et de très faible métallicité, et qui ne se seraient pas forcément désintégrées par instabilité de paires ».

 

En final de cet article, je vous propose la traduction par mes soins de quelques extraits du suivant obtenu dans Physics.aps.org, annonçant un avenir prometteur : ‘Gravitational-Wave Astronomy Stills in its Infancy’ ; ‘L’astronomie des ondes gravitationnelles est encore à ses débuts’ et en sous-titre : « Les détecteurs d’ondes gravitationnelles ont à peine effleuré la surface du trésor de découvertes qu’ils peuvent produire. »

 

« Une nouvelle ère en physique fondamentale et en astronomie

LIGO et Virgo ont été construits pour observer les ondes gravitationnelles émises par la fusion de binaires compacts, tels que deux trous noirs ou deux étoiles à neutrons. Et ces types de fusions sont les seuls événements que les détecteurs ont repéré en toute confiance dans les deux premières séries d’observation. Ces détections ont permis aux scientifiques de réaliser d’importantes découvertes astrophysiques, dont certaines ont ébranlé la sagesse établie.

L’une des premières découvertes est que les ondes gravitationnelles voyagent à la vitesse de la lumière. Ce résultat, bien qu’il soit compatible avec la Relativité Génerale, pose un défi pour les théories de la gravité inspirées par l’énergie sombre parce que ces théories exigent que les ondes gravitationnelles se déplacent à des vitesses plus lentes (sic). Une autre avancée sur le terrain a été l’observation que les fusions binaires d’étoiles à neutrons sont des ancêtres des sursauts gamma, dures, et courts, résolvant ainsi un puzzle vieux de plusieurs décennies sur l’origine de ces événements astrophysiques transitoires de haute énergie. Et puis, comme annoncé aujourd’hui, LIGO et Virgo ont repéré un trou noir qui se trouve dans le soi-disant écart de masse où aucun trou noir n’était censé se former à cause de la théorie de la ‘Paire-Instabilité’. Ainsi, cette détection remet en question les modèles astrophysiques actuels qui prédisent la formation des grands trous noirs et les environnements dans lesquels ils se forment.

 Considérés dans leur ensemble, ces progrès résolvent de vieilles questions, remettent en question ce que nous pensions savoir sur les processus fondamentaux de l’évolution stellaire, et jettent des doutes sur les solutions proposées aux problèmes actuels en astrophysique observationnelle.

Les observatoires du futur

Au cours des prochaines années, les mises à niveau prévues de LIGO et de Virgo devraient donner lieu à une multiplication de 5 à 10 fois le taux de détection des fusions binaires compactes. L’activation d’autres détecteurs d’ondes gravitationnelles pourrait également augmenter ce taux. KAGRA au Japon, premier détecteur d’ondes gravitationnelles en Asie et premier détecteur à être construit sous terre, a récemment commencé ses opérations…!?. LIGO et Virgo seront également bientôt rejoints par LIGO-India, dont la construction a commencé cette année. (LIGO-India utilise l’instrumentation développée par LIGO). On espère que LIGO-India sera opérationnelle après 2025.

D’autres améliorations et installations sont également à l’étude. Par exemple, une mise à niveau sur les sites LIGO existants, appelée LIGO-Voyager, vise à accroître la sensibilité du LIGO avancé, ce qui entraîne une augmentation d’un facteur 8 de la couverture en volume et donc une augmentation similaire du taux de détection. Il y a aussi le télescope européen Einstein (ET), qui a été initialement conçu en 2008 et qui est actuellement à un stade avancé de conception. Le projet ET est la proposition d’un observatoire souterrain qui abrite trois détecteurs en forme de V aux coins d’un triangle équilatéral avec des côtés de 10 km de long. Et puis il y a des idées pour le ‘Cosmic Explorer’ aux États-Unis, dont les bras seraient 10 fois la longueur de ceux de LIGO, et puis NEMO en Australie, qui ciblerait les signaux post-fusions des étoiles à neutrons binaires. Ensemble, ces nouvelles installations seront en mesure de détecter les événements jusqu’au bord même de l’Univers observable (sic). Ils enregistreront également les signaux de l’univers proche avec une fidélité plus élevée qu’il est actuellement possible.

Plus d’installations aideraient également à identifier l’endroit exact à partir duquel les ondes gravitationnelles émanent. Avec KAGRA et LIGO-India en fonctionnement, les chercheurs pourraient enregistrer un « coup quintuple » — les mêmes ondes déformant les cinq détecteurs. Cela permettrait aux astronomes de regarder plus facilement les fusions avec des télescopes conventionnels, réduisant la zone du ciel qu’ils auraient besoin d’examiner d’un facteur 4. Ces observations multimessages pourraient révéler beaucoup plus d’informations sur la nature et le comportement des sources que celles qui peuvent être glanées à partir des seuls détecteurs d’ondes gravitationnelles.

Questions sur l’astronomie GW de la nouvelle génération

Au fur et à mesure que de nouveaux observatoires, tels que l’ET ainsi que l’Explorateur cosmique, seront mis en ligne, les observatoires d’ondes gravitationnelles sauteront de la surveillance de l’Univers proche à l’arpentage de l’Univers entier pour les fusions de trous noirs. Cet accroissement permettra aux détecteurs de remonter plus loin dans l’histoire et de capturer les fusions de trous noirs et d’étoiles à neutrons à partir d’époques où la formation d’étoiles n’en était qu’à ses balbutiements.

Il est difficile de délimiter les découvertes que cette avancée pourrait permettre et le potentiel qu’elle offre pour percer les remarquables mystères de l’Univers, ainsi que pour découvrir de la nouvelle physique et des nouveaux phénomènes astronomiques. Par exemple, les générations futures d’observatoires d’ondes gravitationnelles terrestres peuvent permettre aux chercheurs de déterminer l’équation d’état de la matière à densité la plus élevée, de détecter la matière noire autour des trous noirs et de tester des théories modifiées de la gravité. Nous allons maintenant décrire ces possibilités en détail :

Gravité extrême et physique fondamentale : Les ondes gravitationnelles émanent de régions de l’espace-temps avec une gravité forte et une grande courbure de l’espace-temps et transportent avec elles des informations non corrompues sur leurs sources. La nature de la source, ses caractéristiques physiques (telles que les masses des objets en collision) et les propriétés de l’environnement dans lequel réside la source sont imprimées dans le signal.

La détection des sources avec les nouveaux observatoires pourrait soumettre la Relativité Générale à des tests les plus contraignants à ce jour et pourrait aider à explorer les violations potentielles de la théorie avec des champs (gravitationnels) forts. Par exemple, les observations pourraient révéler de nouvelles particules et des champs qui violent le principe d’équivalence fort, qui, rapidement parlant, prédit que la chute libre simule avec précision les conditions de gravité zéro dans tous les référentiels inertiels. Les chercheurs pourraient également découvrir des violations de l’invariance de Lorentz (une symétrie fondamentale dans la relativité) ou détecter des polarisations d’ondes gravitationnelles (le modèle caractéristique de la distorsion de l’onde de l’espace-temps) qui ne sont pas prédites par la RG. Nous pourrions aussi déduire des signatures de gravité quantique. Par exemple, certaines théories de la gravité quantique prédisent les configurations pseudoscalaires des ondes gravitationnelles qui violent la parité (une symétrie fondamentale qui dit que la physique d’un système et de son image miroir devrait être la même), tandis que d’autres prédisent des ondes gravitationnelles biréfringentes. Les observatoires de nouvelle génération pourraient également détecter les champs bosoniques ultralégers proposés dans certaines extensions du modèle standard. Les preuves de ces champs devraient provenir de la dynamique orbitale des binaires de trou noir ou des propriétés de spin des trous noirs.

  Matière extrême et environnements extrêmes : D’autres systèmes astrophysiques que les physiciens pourraient explorer avec de nouveaux détecteurs sont les étoiles à neutrons, qui sont les objets les plus denses de l’Univers et qui ont des champs magnétiques jusqu’à des milliards de teslas de magnitude. Six décennies après leur découverte, nous ne comprenons toujours pas pleinement l’équation d’état des noyaux de ces étoiles, et nous ne connaissons pas l’origine de leurs grands champs magnétiques. Ces champs pourraient déformer une étoile à neutrons, ce qui provoquerait l’émission d’ondes gravitationnelles, ce que les futurs observatoires pourraient découvrir.

Lorsque deux étoiles à neutrons sont prises dans une spirale entrante binaire et fusionnent, elles se soumettent à des champs de marée. L’état de la matière du noyau de chaque étoile détermine l’ampleur de sa déformation des marées, ce sont des informations qui devraient être imprimées dans les ondes gravitationnelles émisent. En outre, la fusion des étoiles pourrait laisser derrière elle une étoile à neutrons hypermassive de courte durée, un objet qui se forme à la suite d’une fusion binaire d’étoiles à neutrons et, pendant quelques dizaines de millisecondes, est soutenue par une rotation contre l’effondrement en raison de sa propre gravité. Le rayonnement gravitationnel émis par cette étoile à neutrons hypermassive pourrait également révéler une physique inconnue sur l’état de la matière ultra-haute densité et si cette matière est composée d’un plasma quark-gluon.

Le suivi électromagnétique des observations d’ondes gravitationnelles offrira des occasions de faire la lumière sur l’origine des éléments du processus-r, qui se forment lorsqu’un noyau grandit en capturant rapidement plusieurs neutrons (voir Point de vue : Out of the Neutron Star Rubble Comes Gold). Trouver l’origine des éléments lourds dans l’Univers est un problème de longue date. L’observation électromagnétique de GW170817 a fourni la première preuve irréfutable que les fusions binaires d’étoiles à neutrons produisent des lanthanides et d’autres éléments lourds. Mais beaucoup plus d’observations sont nécessaires pour confirmer si les fusions seules expliquent l’abondance d’éléments lourds dans l’Univers ou si d’autres canaux de production sont nécessaires.

Trous noirs à partir du bord de l’Univers : Les observatoires de nouvelle génération traceront un recensement complet des trous noirs de masse stellaire à partir du temps présent jusqu’à ce que l’Univers n’ait que quelques centaines de millions d’années et que se formaient et se rassemblaient ses premières étoiles. Ce recensement fournira des renseignements clés sur la taille des trous noirs et permettra aux chercheurs de découvrir comment ces objets se forment et se développent.

Il y a de plus en plus de preuves que des trous noirs massifs existent au centre de toutes les galaxies. Les masses de ces trous noirs (souvent appelés trous noirs supermassifs) varient de 105 à 1010 fois celle du soleil et leur taille est largement corrélée avec celle de la galaxie hôte. Mais nous ne savons pas comment ces trous noirs se sont formés ni comment ils sont devenus si énormes. Le modèle de fusion dit hiérarchique postule que ces trous noirs massifs ont d’abord été ensemencés par de lourds trous noirs de masse stellaire, qui ont ensuite fusionné en trous noirs plus grands. Un modèle alternatif suggère que des trous noirs massifs ont été ensemencés par l’effondrement direct de nuages de gaz massifs. Une troisième théorie intrigante spécule que des trous noirs massifs se sont formés dans l’Univers primordial et ont conduit à l’effondrement de la matière noire et des baryons, déclenchant la formation de galaxies. Les données LIGO et Virgo sont jusqu’à présent insuffisantes pour confirmer l’un ou l’autre de ces modèles, mais les informations supplémentaires provenant des futurs observatoires, y compris les masses des premiers trous noirs dans l’Univers et la vitesse à laquelle les fusions se produisent, pourraient identifier l’origine des trous noirs supermassifs.

La cosmologie et l’histoire primordiale de l’Univers : la cosmologie du Big Bang est en grande partie compatible avec la RG, mais l’expansion accélérée de l’Univers dans son histoire récente ne peut pas être expliquée par la théorie d’Einstein. Ce problème indique soit une défaillance de la théorie, soit la présence d’une forme d’énergie exotique, encore inconnue appelée énergie noire. En outre, les observations de l’échelle galactique à l’échelle du cosmos fournissent des preuves indirectes d’une forme exotique de matière, appelée matière noire, mais nous manquons encore de preuves directes pour ces deux choses.

Les futurs observatoires pourraient aider à détecter directement la matière noire autour des trous noirs et autour des étoiles à neutrons. La présence de matière noire pourrait modifier la rotation d’un trou noir. Elle pourrait également modifier la dynamique orbitale des trous noirs binaires. Alternativement, la matière noire pourrait provoquer l’implosion des étoiles à neutrons, faisant des trous noirs de masse solaire qui ne peuvent se former d’aucune autre manière. En outre, avec la détection d’une plus grande population de fusions binaires compactes, et avec des observations électromagnétiques de suivi des décalages rouges des fusions, il sera possible de mesurer avec précision les paramètres cosmologiques, tels que le paramètre Hubble, les densités de matière noire et d’énergie sombre, et l’équation d’état de l’énergie sombre. Ces mesures sont possibles puisque les fusions binaires compactes sont ce que l’on appelle les sirènes standards dont la luminosité peut être utilisée pour apprécier leurs distances. Et comme la RG détermine complètement la luminosité, aucune modélisation astrophysique n’est nécessaire dans de telles mesures. Ces résultats fourniront une mesure totalement indépendante et complémentaire de la dynamique de l’Univers.

Des détecteurs plus sensibles pourraient également capter les ondes gravitationnelles dites stochastiques, qui devraient avoir été produites au début de l’Univers. Comme l’Univers a refroidi à partir de son état primitif chaud et dense, il est censé avoir subi plusieurs transitions de phase qui pourraient avoir généré un signal de fond d’onde gravitationnelle. La détection de ce fond d’onde transformerait considérablement notre connaissance de la physique des particules à des échelles énergétiques inaccessibles aux accélérateurs terrestres. On prévoit également que les ondes gravitationnelles stochastiques émanent de « cordes cosmiques », des défauts topologiques 1D hypothétiques associés à une transition de phase de rupture de symétrie dans l’Univers primitif.

Sources à la frontière des observations : Enfin, les futurs observatoires pourraient aider à comprendre le comportement des supernovas, des pépins stellaires et des tremblements d’étoiles, trois phénomènes astrophysiques mal compris. Ces systèmes devraient générer des ondes gravitationnelles qui pourraient être détectables avec des détecteurs plus sensibles. Les observations multimessages combinant des observatoires gravitationnels avec des télescopes électromagnétiques et avec des observatoires de neutrinos, nous permettront de sonder différents aspects de ces événements astrophysiques extrêmes.

En résumé, l’astronomie des ondes gravitationnelles promet de répondre à des questions clés en physique et en astronomie dont les solutions pourraient considérablement améliorer notre compréhension de l’Univers. Avec ces récompenses potentielles massives, les exemples scientifiques pour la construction de nouveaux détecteurs sont extrêmement convaincants.

 

Partager cet article

Repost0
28 août 2020 5 28 /08 /août /2020 10:25

Au-delà de la Relativité Générale ? Que Nenni !

C’était avec la problématique clairement annoncée : ‘ Au-delà de la Relativité Générale’ que j’avais organisé la programmation du séminaire 2019-2020. Que nenni ! quant à la mise en évidence objective d’un quelconque indice qui indiquerait le chemin théorique à suivre menant à cet au-delà. Pourtant un certain nombre d’événements nouveaux à étudier donnaient à formuler l’hypothèse que des failles pouvaient être enregistrées dans le bloc de cohérence et de pertinence théoriques que constitue la théorie d’Einstein. Cela finira par se produire un jour, peut-être demain ou dans un temps bien plus lointain.

Je soumets à votre lecture cet article du 24 Août qui va dans le sens d’une confirmation de la R.G. bien qu’il traite de l’événement d’une collision de trous noirs avec des caractéristiques jamais constatées jusqu’à présent.

Titre de l’article, sur le site Physics.aps : ‘Une fusion déséquilibrée’, de Stephen Taylor, du Département de physique et d’astronomie, Vanderbilt University, Nashville TN, États-Unis.

« La fusion de deux trous noirs avec des masses significativement différentes permet aux chercheurs de mieux caractériser les paramètres du trou noir et d’effectuer de nouveaux tests sur la relativité générale. Ainsi, le 12 Avril 2019, les détecteurs LIGO et Virgo ont enregistré la fusion d’un duo de trous noirs remarquablement asymétrique, dont les composants pèsent respectivement 8 et 30 masses solaires.

Depuis que LIGO et Virgo ont observé pour la première fois la fusion de deux trous noirs en septembre 2015, (voir ‘Point de vue’ : Les premiers sons de la fusion des trous noirs), la détection des ondes gravitationnelles est devenue une occurrence régulière. Maintenant, les collaborations LIGO et Virgo rapportent que, à peine deux semaines après leur troisième période d’observation, les détecteurs LIGO et Virgo ont repéré une fusion de trous noirs, baptisée GW190412, qui était remarquablement différente de celles précédemment mesurées : avec 8 et 30 masses solaires, respectivement, ce duo « Laurel et Hardy » est le premier système binaire de trou noir vraiment asymétrique jamais repéré. La détection d’un tel binaire asymétrique a permis une foule de nouvelles possibilités scientifiques, allant de l’imposition de fortes contraintes sur les rotations des trous noirs, à la suggestion de nouveaux scénarios astrophysiques pour la formation de tels systèmes déséquilibrés, à l’essai de la théorie d’Einstein de la relativité générale dans des régimes précédemment inexplorés.

Les ondes gravitationnelles apparaissent naturellement dans la théorie de la relativité générale, qui relie la gravité à la déformation de l’espace-temps en présence de matière. Une paire d’objets compacts comme les étoiles à neutrons ou les trous noirs déforment l’espace-temps pendant qu’ils orbitent les uns autour des autres, formant une spirale entrante, et en conclusion finissent par fusionner, créant des ondulations de l’espace-temps qui rayonnent vers l’extérieur à la vitesse de la lumière. Des milliards d’années plus tard, les ondes atteignent nos détecteurs d’ondes gravitationnelles, où elles déforment légèrement les bras longs, de quelques kilomètres, et orthogonaux du détecteur. Un tel modèle de déformations encode la dynamique du système de fusion, y compris la géométrie orbitale et les propriétés de chaque étoile à neutrons ou trou noir.

Jusqu’à présent, la plupart des détections montraient des paires de trous noirs avec des masses à peu près comparables : même les fusions les plus asymétriques détectées impliquaient des ratios de masse inférieurs à 2. Comme il est prédit par la relativité générale, le signal de l’onde gravitationnelle dans ces cas symétriques est dominé par une seule fréquence — la deuxième harmonique de la fréquence orbitale binaire. De plus, les signaux de toutes les détections, sauf deux (GW151226 et GW170729) ont été compatibles avec le système binaire ayant un spin effectif de zéro. Ce paramètre est une somme pondérée en masse du composant de rotation (spin) de chaque trou noir perpendiculairement au plan orbital. Un spin effectif en voie de disparition pour les trous noirs de même poids signifie que les deux corps ne tournent pas ou bien qu’ils tournent dans des directions opposées. Un spin effectif différent de zéro affecterait significativement la dynamique des fusions.

À première vue, GW190412 est en ligne avec les découvertes précédentes, c’est une paire de trous noirs avec des masses individuelles compatibles avec les détections précédentes et avec les voies de formation de trous noirs considérés par la théorie. Dans le même temps, l’asymétrie des deux masses du système binaire en fait un système magnifiquement divergent comparé à tout ce qui a été vu auparavant. LIGO et Virgo ont utilisé une variété de modèles (calibres[1]) de forme d’onde différents pour déterminer que l’un des trous noirs était environ 3,5 fois plus massif que l’autre. En accord avec la relativité générale (sic), cette asymétrie signifie qu’en plus de la fréquence d’émission principale de seconde harmonique, des notes plus élevées d’émission d’ondes gravitationnelles, en particulier le mode de 3 fois la fréquence orbitale binaire, étaient détectables. Les ondes gravitationnelles ont souvent été appelées la musique du cosmos, et dans ce cas l’analogie est tout à fait appropriée : la collision de ces trous noirs dans l’immensité de l’Univers a produit un signal contenant un « cinquième parfait » — un intervalle musical, comme celui entre les notes G et C, correspondant à deux fréquences avec un rapport de 3:2.

Des simulations numériques réalisées de la spirale entrante et la fusion de deux trous noirs avec un rapport de masse de 3,5 sont compatibles avec l’observation GW190412.

Le duo de trous noirs déséquilibrés a permis aux chercheurs d’examiner avec soin et de vérifier la relativité générale dans des régimes auparavant inexplorés. A savoir, en testant les prédictions de la théorie pour les moments multipôles associés avec des émissions d’harmoniques plus élevées correspondantes à une fusion asymétrique. Tous les paramètres associés aux écarts par rapport à la relativité générale étaient compatibles avec le fait d’être nuls, même si les nuances de sa théorie sont testées de manière nouvelle, Einstein continue d’être correct (sic et re-sic).

En ajustant le signal plus complexe contenant les notes supérieures, les chercheurs ont considérablement amélioré, comparé aux détections précédentes, les contraintes sur les paramètres du système tels que la distance du système binaire de la Terre, son rapport de masse, et le spin des trous noirs. En fait, les scientifiques de LIGO et de Virgo rapportent la détermination la plus précise du spin d’un trou noir jamais extrait des données d’onde gravitationnelle, trouvant que l’horizon d’événement du plus grand trou noir tourne à environ 43% de la vitesse de la lumière. GW190412 est maintenant le troisième signal à montrer des preuves d’un spin différent de zéro, montrant qu’il y a un grand potentiel pour déterminer cette fonctionnalité proprement et directement en utilisant l’analyse des ondes gravitationnelles. D’autres techniques courantes de caractérisation des spins sont indirectes, car elles déduisent le spin d’un trou noir en exploitant l’émission de rayons X de matériaux tombant dans le trou noir et doivent donc s’appuyer sur des modèles difficiles à tester de la dynamique d’accrétion. Pour GW190412, l’analyse du signal a également laissé entrevoir un effet difficile à observer : une légère précession des rotations orbitales suggérant que les rotations de chaque trou noir n’étaient pas alignées avec l’axe du mouvement orbital.

La particularité de GW190412 parmi ses pairs — le spin mesurable et les masses asymétriques — en fait un ajout précieux qui informe sur la démographie des trous noirs. À partir de fusions précédemment détectées, les chercheurs ont montré que la probabilité de trouver des systèmes binaires de trous noirs avec certaines tailles peut être décrite par une loi de puissance. L’inclusion de ce duo asymétrique donne des contraintes beaucoup plus strictes sur la distribution des ratios de masse attendus. Alors que les analyses précédentes suggèrent qu’un système au moins aussi asymétrique que GW190412 ne devrait apparaître que dans 1,7 % des cas, la loi sur la répartition de la population qui explique la nouvelle détection révise cette probabilité à 25 %.

La détection de GW190412 montre à quel point nous avons encore beaucoup à apprendre de la fusion des trous noirs. Un résultat important serait l’extraction de notes encore plus élevées. En brisant d’importantes dégénérescences de paramètres, de telles notes amélioreraient les mesures des distances des systèmes binaires de trou noir, permettant ainsi d’être utilisées comme « sirènes sombres » pour inférer le taux d’expansion local de l’Univers. Cette approche pourrait aider les chercheurs à régler le débat sur la constante de Hubble : puisque les mesures de fond de micro-ondes cosmiques et des supernovas fournissent des valeurs contradictoires. De plus, les détections d’autres systèmes asymétriques et de leurs spins peuvent faire la lumière sur les canaux de formation possibles. Le non alignement des spins des trous noirs GW190412 peuvent suggérer, par exemple, que le duo ne vient pas directement d’un binaire stellaire. Au lieu de cela, l’un d’eux pourrait être le produit d’une fusion précédente de trous noirs. Une meilleure caractérisation du spin des trous noirs et de l’environnement dans lequel la fusion a eu lieu pourrait fournir des preuves concluantes de cette hypothèse. Certainement, nous pouvons nous attendre à ce que les détections à venir fournissent beaucoup plus d’informations étant donné l’assortiment de scénarios qui prévoient la fusion de paires de trous noirs. En effet, au cours de l’écriture de ce point de vue, les chercheurs ont signalé un système encore plus asymétrique, appelé GW190814, qui abrite soit l’étoile à neutrons la plus lourde, soit le trou noir le plus léger jamais découvert. »

            En effet cette dernière phrase de l’auteur nous renvoie à une série d’articles très récents, très interrogatifs sur ce fameux événement spécifique du 14/08/2019. Peut-être que j’aurais l’occasion d’évoquer cet événement et les interrogations actuelles qui l’accompagnent.

            En résumé Stephen Taylor publie un article positif et optimiste, à juste raison, en relation avec ces fusions de trous noirs détectées depuis 2015. Il est époustouflant de découvrir qu’à partir d’un simple ‘CHIIIRP’ qui nous arrive comme message de la fusion, il est possible de décrypter autant de données scientifiques. Je ne veux rien retirer à cet enthousiasme et à cet optimisme, mais il est souhaitable, à mon sens, de garder à l’esprit que les modèles des calibres ont été préétablis au moyen de la loi de la Relativité Générale et en conséquence ce qui est sélectionné dans l’opération de décryptage du signal enregistré par LIGO et Virgo ne peut être que conforme. Il ne faut pas s’interdire de penser que la totalité de ce qui est contenu dans le signal n’est pas décelable parce qu’au-delà, en dehors, de la Relativité Générale. Des informations contenues dans le signal peuvent encore être transparentes aux calibres exploités faute d’outils théoriques encore plus affinés. Il faut s’appuyer sur la perspective que l’accumulation d’événements non totalement conformes aux calibres fourniront des indices des incomplétudes prédictives de la R.G. et partant franchir un cap théorique historique car depuis 1915 la R.G. rend compte parfaitement de la physique à l’échelle classique qui nous permet de décrire avec fiabilité ce que nous observons dans l’univers.  

 

 

[1] Les calibres sont ces modèles qui ont été calculés et simulent effectivement le plus grand nombre (250.000) de scénarios possibles de fusion de trous noirs. Ce travail a été entrepris depuis plus d’une dizaine d’années en prévision du fonctionnement des détecteurs LIGO et Virgo. C’est donc une remarquable base de modèles constitués, très fournie, qui permet de calibrer (caractériser) les événements de fusion au fur et à mesure de leur détection. Sur ce sujet, il y a une conférence de Thibault Damour sur YouTube : ‘Théorie et détection des ondes gravitationnelles’ que je recommande. Il rappelle que l’école française du calcul analytique et de la relativité numérique a eu une contribution très importante, depuis 2000, pour déterminer ces calibres ce que Th. Damour nomme des ‘calques’.

Partager cet article

Repost0
22 août 2020 6 22 /08 /août /2020 10:55

A chacun sa propre lecture du ‘Fond diffus cosmique micro-ondes’

Récemment, le 22/o7, j’ai posté l’article : ‘Anthrôpos ne cessera de creuser’ dans lequel je rapportai, entre autres, qu’avec le Télescope de Cosmologie d’Atacama (ACT), ayant cartographié le fond cosmique micro-ondes, il était confirmé les résultats du satellite Planck à propos de la constante de Hubble relative à l’univers primordial. Ce résultat n’est pas surprenant car les outils théoriques et partant les algorithmes pour décrypter le rayonnement fossile et déterminer la constante de Hubble (H) sont identiques dans les deux cas. On est convaincu depuis plusieurs années que les résultats donnés par l’équipe Planck sont fiables et ACT vient à nouveau le confirmer. Ainsi, A. Riess a pu applaudir, à juste raison, la qualité du travail des expérimentateurs et en même temps laissé entendre que, selon lui, le modèle standard de la cosmologie est faux : « Mon instinct (sic) me dit qu’il se passe quelque chose d’intéressant. »

            Rappelons-nous que la première image du fond diffus cosmique micro-ondes fut obtenue par hasard à la fin des année 1970. L’humanité n’avait jamais observé une ‘photographie’ aussi profondément lointaine dans le temps passé de l’univers. Sondes, satellites, ballons sondes, bolomètres, ont été depuis envoyés dans l’espace pour recueillir le maximum de détails relatifs à cette première image (qui est encore, aujourd’hui, première image possible, accessible, de l’univers pour l’humanité.) C’est donc à partir de ce référentiel de signes à décrypter qu’il fut imaginé et conçu, avec les outils scientifiques théoriques disponibles, l’histoire de ce qui a pu se produire jusqu’à ce que cette empreinte se soit formée (380.000 ans après le Big Bang) dont sa relique occupe tout l’espace du passé de l’univers jusqu’à aujourd’hui[1]. C’est à partir de cette première image restituée que les physiciens ont théorisé une origine de l’univers sous forme d’avènement Big Bang, à partir de rien, 380.000 ans avant celle-ci. Entre le temps zéro de l’univers et 380.000 ans toute une chronologie, d’événements, de surgissements de propriétés, de produits, a été scientifiquement élaborée pour que ce qui est décrypté dans le rayonnement fossile et ce qui est conçu coïncident. L’inflation primordiale a aussi été accepté pour rendre compte du constat que notre espace est euclidien (plan). En à peine deux décennies c’est une extraordinaire machinerie naturelle qui a été inventée, dont la communauté scientifique éprouvait, à juste raison, de la fierté.

            La gravité quantique à boucles (LQG), a été développée sur une base totalement théorique, c’est-à-dire que ses inventeurs[2] se sont donnés pour objectif de construire la version quantique de la Relativité Générale, puis ensuite la confronter à la connaissance acquise et que nous continuons d’acquérir de l’univers primordial. Dans cette entreprise la gravité quantique à boucles étend son domaine de référence et devient la cosmologie quantique à boucles (LQC). C’est donc avec un recul intellectuel que les physiciens adeptes de la LQC testent leur théorie en regard de la première image de l’univers car celle-ci ne constitue pas leur calibre de vérité. Cette lecture différente qu’ils peuvent avoir du rayonnement fossile est très certainement utile. Ainsi leur interprétation des quatre anomalies recensées ne doit pas être ignorée par les autres non adeptes de la LQC.

            Il n’y a pas que A. Riess qui pense que le modèle standard de la cosmologie est moribond car les progrès de l’observation grâce à des instruments de plus en plus performants mettent en évidence des écarts significatifs entre ce que l’on observe et ce que l’on pensait être finalement établi. L’article que j’ai recueilli dans PhysicsWorld le 17/08, amène à réfléchir à ce propos. En aucun cas, il n’est nécessaire d’être un(e) adepte de la LQG et de LQC pour lire avec intérêt cet article traduit par mes soins.

            En lisant cet article, nous devons avoir présent à l’esprit qu’actuellement il y a la conviction que la première image de l’univers fournie par le satellite Planck, après celle de WMAP : 15 ans plus tôt, contient certaines informations que, présentement, nous ne sommes pas capables de décrypter, car trop ténues. Il n’existe pas de projet possible de concevoir un satellite ou une sonde plus performant soit pour des raisons technologiques et/ou financières. Le recours actuel c’est : ‘Une Avancée Théorique’. Le laboratoire actuel pour tester cette Avancée, n’est rien d’autre que l’histoire que l’on prête et que l’on prêtera à notre univers.

‘Les anomalies micro-ondes renforcent le cas de la cosmologie quantique à boucles, disent les physiciens’

Article sur le site ‘PhysicsWorld’ le 17 août 2020

 Qu’a vu le satellite Planck : le ‘Fond diffus cosmique micro-ondes’ abrite-t-il des preuves en faveur de la cosmologie quantique à boucles ?

Une théorie de la gravité quantique qui décrit l’univers comme commençant par un « Big Bounce », « Grand Rebond », plutôt qu’un Big Bang a réussi à expliquer plusieurs anomalies dans le rayonnement du fond diffus micro-ondes cosmique (CMB) encore appelé tout simplement : rayonnement fossile.

La gravité quantique à boucles, (Loop quantum gravity : LQG) est une alternative à la théorie des cordes et décrit l’espace lui-même comme étant quantifié aux plus petites échelles, connues sous le nom de longueur de Planck, d’environ 10-35m. Selon la LQG, l’espace ne peut pas être réduit en dessous de cette valeur, et l’application de LQG à l’Univers plus large est connue sous le nom de cosmologie quantique à boucles, (Loop quantum cosmology : LQC).

Dans la cosmologie standard du Big Bang, si nous faisions reculer l’histoire de l’univers pour qu’il s’effondre plutôt que de s’étendre, l’univers se contracterait en une singularité inconnaissable. Cependant, dans la LQC, l’univers qui s’effondre, cesserait de s’effondrer à la longueur de Planck, puis rebondirait. Cela suggère que si la LQC est correct, il n’y avait pas de singularité Big Bang, mais un Grand Rebond résultant de l’effondrement d’un univers précédent (sic).

Caractéristiques anormales

Maintenant, une nouvelle recherche menée par une équipe dirigée par Abhay Ashtekar à l’Université d’État de Pennsylvanie, a constaté que la LQC peut expliquer plusieurs anomalies dans le CMB qui n’ont pas pu être expliquées dans le cadre d’autres théories. La recherche est décrite dans le ‘Physical Review Letters’.

Les travaux portent sur deux anomalies. L’une concerne le spectre de puissance[3] du CMB, qui trace les minuscules variations de température dans le CMB par rapport à leur taille angulaire. L’autre anomalie étudiée concerne l’amplitude de l’effet de lentille gravitationnelle, c’est-à-dire le degré par lequel la lumière CMB a été gravitationnellement modifiée pendant qu’elle a voyagé à travers l’univers. L’effet lentille gravitationnelle est le résultat de la distribution et de la densité de matière qu’elle traverse, qui à son tour est reliée aux fluctuations quantiques qui ont ondulé à travers l’univers très tôt, avant l’inflation.

Si la LQC est correct, alors le Grand Rebond devrait avoir influencé les propriétés du CMB. En particulier, la LQC décrit comment, au moment du Grand Rebond, la courbure de l’espace-temps était plus grande qu’à tout autre moment de l’histoire cosmique.

« La cosmologie quantique à boucles prédit une valeur spécifique pour la courbure au rebond, » Ashtekar dit à Physique World : « Cette valeur est essentielle pour obtenir ce que nous voyons, à savoir qu’il y a certaines modifications de l’inflation, précisément à ces grandes échelles angulaires, qui proviennent de la nature spécifique de la cosmologie quantique à boucles. »

Empreinte du Grand Rebond

La grande courbure de l’espace au Grand Rebond imprime des fluctuations spécifiques dans le CMB qui sont d’une longueur d’onde beaucoup plus grande que la taille de l’univers visible, et donc nous ne pouvons pas les détecter directement. Cependant, ils sont également en corrélation avec des modes de longueur d’onde plus petits qui ont un effet perceptible sur le CMB, sous la forme d’anomalies apparentes que le modèle du Big Bang ne peut pas expliquer adéquatement.

Il y a six paramètres fondamentaux qui déterminent ce que nous voyons lorsque nous regardons en arrière du fond diffus cosmique. Deux de ces paramètres sont primordiaux, relatifs à la fin de l’inflation, et leurs valeurs influencent le spectre de puissance fond diffus (CMB). Deux autres se rapportent à l’époque entre la fin de l’inflation, quand l’univers avait environ 10-32s, et le moment où la lumière du CMB a été émise, environ 379.000 ans plus tard. Les deux derniers paramètres décrivent ce qui se passe entre le moment où le CMB a été émis, et maintenant. Bien que le modèle standard de la cosmologie Big Bang soit capable de déterminer les valeurs de ces paramètres, la LQC modifie leurs valeurs de telle sorte que les anomalies sortent naturellement des données en tant que produits de l’empreinte de cette courbure extrême au Big Bounce.

« C’est assez étonnant qu’avec ces six paramètres, les cosmologistes soient en mesure de prédire ce que nous voyons aujourd’hui », dit Ashtekar.

Une troisième anomalie est hémisphérique – les deux hémisphères de la CMB ont des énergies moyennes différentes. Les travaux d’Ivan Agullo, de la Louisiana State University, ont déjà été en mesure d’examiner cette anomalie de la même manière, en exploitant les contraintes propres à la LQC. Agullo décrit le travail du groupe d’Ashtekar comme « fantastique », ajoutant : « Cela prouve que les processus physiques qui se produisent dans le passé lointain, avant l’époque inflationniste (sic), peuvent laisser des empreintes observables dans le ciel. »

Une quatrième anomalie – la tension entre les mesures de la constante de Hubble selon que vous la calculez en fonction du CMB ou via les chandelles standards plus locales telles que les supernovae de type Ia – attend toujours une explication. Ashtekar souligne toutefois que le travail d’Alejandro Perez de l’Université d’Aix-Marseille en France fait les premiers pas en utilisant la LQC pour résoudre ce problème.

 

[1] Les photons reliques ont actuellement une température de l’ordre de 2,725°K et une densité de 400/cm3. Lorsqu’ils furent émis, 380.000 ans après le Big Bang, ils étaient à la température de 3000°K. Ce refroidissement est dû essentiellement à l’expansion de l’univers.

[2] Citons parmi les principaux à ma connaissance : L. Smolin, C. Rovelli, A. Asthekar,

[3] Voir Wikipédia.

Partager cet article

Repost0
4 août 2020 2 04 /08 /août /2020 09:44

Nouvelle théorie sur la relation conscient et inconscient.

Dans le ‘Pour La Science’, hors-série : Août-septembre, de nombreux d’articles tentent de rendre compte de l’avancée de la recherche de L’Inconscient en exploitant les nouvelles théories des neurosciences (sic).

Les premières pages sont consacrées à un interview de S. Dehaene. Globalement ce n° HS est constitué d’articles qui n’ont pas obligatoirement de forts liens entre eux et donc en fin de lecture et relectures, j’ai eu une forte impression de flou frustrant. Ainsi, le projet d’écrire un article à propos de cette lecture n’est pas spontanée. Préalablement, il fallut que j’accepte l’idée que cette impression ‘patchwork’ était due au fait que les ‘neurosciences’ sont une science jeune, ce qui interdit qu’elle puisse émettre des propositions généralisantes sur le fonctionnement du cerveau. Secondairement, je sais que l’exercice d’écrire un article est bien plus contraignant qu’une lecture et cela oblige à investir avec plus d’attention le contenu des articles pour vous en restituer ce qui est le plus significatif, selon mon entendement, en tant qu’idées nouvelles pouvant fructifier et contribuer au développement de notre projet commun. A vous d’apprécier et peut-être lire directement le n° HS.

L’idée centrale à retenir c’est que la distinction profonde entre l’inconscient et la conscience n’est pas fondée, la frontière entre les deux est bien plus diffuse. Plus encore la conscience est le prolongement de l’inconscient. Aujourd’hui, l’inconscient n’est plus vu comme un sanctuaire d’idées refoulées (voir Freud), mais plutôt comme l’ensemble des processus automatiques de traitement des informations dans notre cerveau avant que certaines ne parviennent à la conscience. Comme le dit S. Dehaene : « La métaphore de l’ordinateur fait du cerveau un dispositif de traitement inconscient de l’information. » La psychanalyse nous a amené à considérer que l’inconscient constituait un vaste réservoir de pulsions, de désirs inassouvis, de souvenirs traumatisants, tous refoulés dans le but de préserver l’intégrité des procédés conscients. L’inconscient agirait comme un autre moi à l’intérieur de moi, avec sa volonté propre, ses raisons. Il s’agit maintenant de repenser les rapports entre conscient et inconscient d’une manière qui reflète le fait que la conscience que nous avons du monde est un phénomène dynamique[1], à différentes échelles temporelles.

Repenser les rapports entre conscient et inconscient est à l’ordre du jour parce que S. Dehaene peut déclarer en tant que neuroscientifique : « En fait, le modèle bayésien[2] de l’inconscient permet une sorte de réconciliation entre inné et acquis » Avant de faire l’exégèse de ce qui est réconcilié selon Dehaene, arrêtons-nous sur ce qui valide la rupture avec l’ancienne conception de l’inconscient et partant de l’ancienne conception du cerveau.

Pour les neuroscientifiques, ils considèrent qu’ils ont acquis suffisamment de données expérimentales pour affirmer que l’inconscient est cognitif, c’est-à-dire qu’il est le foyer d’un ensemble de processus de traitement de l’information et des représentations mentales dont le sujet n’a pas conscience mais qui influencent néanmoins son comportement. Cette théorie révolutionnaire attribue un rôle central aux automatismes de l’esprit. Ceux-ci auraient pour fonction de prédire les probabilités d’événements futurs avec rapidité et fiabilité. L’apprentissage, l’expérience et la conscience n’auraient finalement pas d’autre objectif que d’améliorer sans arrêt des pronostics implicites établis en continu par notre cerveau. Cela indique que des mécanismes innés influencent l’image que nous avons du monde, sans que nous puissions ne rien y faire. Comme on l’a ensuite découvert, cela ne concerne pas que la perception sensorielle, mais aussi l’ensemble des processus mentaux, de la formation de nos jugements jusqu’à la prise de décision, en passant par la réalisation de nos actions. A ce stade de l’article qui est à la page 34, je propose de sauter directement à la page 64 pour citer l’article : ‘Instincts : la marque de l’évolution’ car l’une de mes hypothèses centrales est de considérer, au sein de l’être humain cogitant, un rôle à l’être de la nature qui rappelle en permanence sa capacité d’inertie à l’être dans la nature qui ne peut être que dans la conquête de nouvelles connaissances réduisant ainsi le pouvoir qui est encore obscur de la nature sur l’être humain (à titre d’exemple et sans tomber dans la facilité opportuniste, je propose à chacun de réfléchir sur la nature et les causes de l’émergence et de la lutte actuelle entre le coronavirus et la recherche médicale). Et cette dynamique n’a pas de fin puisque c’est ce qui fait que l’être humain est un être vivant.

Effectivement on peut lire : « Les mécanismes inconscients qui sous-tendent l’univers mental des êtres humains dans leurs interactions avec l’environnement physique (voir article : ‘Décrypter la physique comme science de l’interface de l’être humain et de la nature’ le 18/03/2015) et social sont le fruit de la sélection naturelle ; nombre de comportements inconscients ont été façonnés par la sélection naturelle (sic), par gradations, indépendamment les uns des autres le plus souvent, pendant des millions d’années ; le cerveau, comme tous les organes, est le produit de l’évolution biologique ; nos mécanismes psychologiques ont été façonnés par la pression sélective de l’environnement de nos ancêtres. Ainsi, nos traits, émotionnels, capacités cognitives, et comportements sont fondamentalement adaptés (déterminés[3]) au mode de vie chasseur-cueilleur selon lequel Homo sapiens et ses ancêtres du genre Homo ont vécu, par petits groupes de quelques dizaines d’individus pendant 2,6 millions d’années… Au fil des révolutions techniques, la complexité de l’environnement physique et social n’a cessé de croître. Mais 12000 ans (début du néolithique, début de la sédentarisation), soit 400 à 500 générations, représentent un temps bien trop court pour que la structure fondamentale de notre cerveau, fruit de millions d’années d’évolution et objet le plus complexe de l’Univers connu, change radicalement.

A ce stade, je vous propose maintenant de nous concentrer sur l’article page 44 : ‘La vision contemporaine de l’inconscient qui serait bayésien’ (voir mes articles : ‘Thomas Bayes dans le cerveau ? 2/11/2012 ; ‘Scientifiques façonnés dès la naissance’ 24/03/2013 ; Stanislas Dehaene et suite 14/10/2014.).

« Une révolution bayésienne infuserait progressivement les sciences cognitives. Cette théorie fondée sur un célèbre théorème en statistique - le théorème de Bayes[4] – bouleverse notre vision de l’inconscient. Celui-ci reposerait sur une architecture hiérarchique du cerveau faisant de cet organe une machine à prédiction. » Comprenons bien, parce que c’est très spécial, et très orienté en signification car il est prétendu que le théorème de Bayes calque effectivement l’architecture du cerveau. Ce théorème décrit la méthode optimale pour mettre à jour une croyance dans des conditions d’incertitude. Il est largement utilisé en intelligence artificielle, en ingénierie comportementale, en neuro économie, en sciences sociales, en psychologie expérimentale, et en neurosciences cognitives pour décrire ou modéliser des comportements.

Dans le paragraphe : de Freud à Bayes, page 48, les auteurs précises : « L’influence causale de l’inconscient a été illustré par de nombreuses preuves expérimentales… Les théories neurocognitives de l’inconscient favorisent l’émergence de l’inconscient cognitif dont la formulation bayésienne en est une des illustrations… Dans l’hypothèse du cerveau bayésien hiérarchique, l’inconscient est « structurel » au sens où il repose sur l’architecture fonctionnelle du cerveau (sic), c’est-à-dire l’organisation et la connectivité des neurones et des synapses. Page 49, on peut voir un schéma représentant le cerveau et attaché à ce schéma les flèches de couleurs différentes qui tracent, la circulation du contenu significatif des actions et des réactions inconscientes, dans les différentes aires du cerveau qui sont sollicitées, selon les modalité induites par cette description bayésienne. Finalement quelle conséquence sur notre démarche humaine effective : « A mesure que nous évoluons dans notre environnement, notre cerveau inscrit la structure statistique du monde dans son anatomie fonctionnelle, afin de simuler ensuite la charpente causale de son environnement. Les modifications de la connectivité synaptique nous permettent d’encoder cette expérience en modifiant nos croyances. » (Je vous propose de réfléchir à ce qui se produit dans le cerveau des cosmologistes quand ils découvrent dans leur environnement intellectuel que la constante de Hubble n’est pas celle que l’on croit et provoque une situation de crise qui peut avoir des conséquences importantes à propos du modèle standard. Il y a les cosmologistes qui s’enthousiasment de cette ouverture et de l’aventure d’une pensée qui devra évoluer et ceux qui rétropédalent et veulent conserver le confort de l’acquis et craignent cette aventure. Quelles sont ces connections synaptiques différentes, possibles et empêchées, qui engendrent une telle dichotomie ? Quels sont les antécédents synaptiques qui expliqueraient ces états intellectuels différents.)

De même pensons donc à l’inertie extraordinaire de l’évolution synaptique à cause de la tradition, de la religion, de toutes sortes de croyances si on fait référence au cerveau de Ptolémée (100-170) en comparaison avec celui de Copernic (1473-1543). Tant de siècles s’écoulent avant d’accepter scientifiquement que la terre n’est pas le centre du monde. On peut penser que les connexions synaptiques qui donnaient de la force à l’interdit de penser autrement étaient prépondérantes. Aussi, c’est extraordinaire de penser qu’une fois une telle vérité proférée par Copernic est reconnue, ceci engendre progressivement et silencieusement un basculement synaptique pour une grande partie de l’humanité concernée de l’époque.

Plus récemment pensons à la fixité intellectuelle d’Einstein provoquée par sa ferme croyance préalable qu’il y a un monde réel établi et que celui-ci est révélable par le physicien d’aujourd’hui. Avec son opposition à la mécanique quantique fondée par l’Ecole de Copenhague, il n’hésitait pas à dire de ses promoteurs qu’ils se vautraient dans des coussins moelleux qui montraient une paresse intellectuelle. L’aire(s) cérébrale(s) où s’installerai(en)t la/les croyance(s) aussi profonde(s) serai(en)t intéressante(s) à détecter. Je pense qu’une croyance préalable, solide, est nécessaire pour se lancer dans l’aventure d’une prospection intellectuelle inédite, disons que cela constitue un socle utile. Ce qui m’interroge, c’est pourquoi couramment cette croyance peut fossiliser la pensée alors que la prospection est à même de mettre en évidence des résultats qui contredisent, annulent, la croyance originelle. A propos d’Einstein, on peut considérer que sa fixité intellectuelle était compréhensible car sa croyance préalable l’a conduit à découvrir la remarquable loi de la Relativité Générale. On sait et Einstein savait à son époque que les résultats obtenus grâce à la Mécanique Quantique sont aussi très remarquables, inédits. Einstein, le physicien, n’avait pas pour autant la souplesse de l’esprit, la plasticité cérébrale, pour penser autrement à partir de 1917.

J’ai bien conscience que ce que j’ai exprimé ci-dessus résulte d’un raisonnement réducteur mais pas sans fondement si on en croit ce qui est publié dans la revue HS. Ainsi on peut lire, page 34 : « … de notre point de vue seule la pensée consciente est censée diriger nos actions. Ce n’est que de cette façon, croit-on, que nous garderions notre destin en main. Mais ce n’est pas du tout ce que montre la recherche moderne : celle-ci indiquerait plutôt que l’ensemble de nos pensées et de nos actes sont en grande partie gouvernés par des séquences de réactions automatiques. » Aucun article nie l’existence de la conscience chez l’être humain mais elle est totalement reliée à notre inconscient cognitif : « … un contenu mental est conscient quand il devient accessible à d’autres fonctions comme la mémoire de travail, la capacité de décision ou le langage. Cette accessibilité reposerait sur un embrasement de l’activité cérébrale résultant de la synchronisation de l’activité des neurones de différentes zones du cerveau. La conscience n’est probablement pas le produit d’une aire précise, mais plutôt le résultat de l’activité de la quasi-totalité des 100 milliards de neurones de notre encéphale. »

Une fois avoir lu tout ceci, on est plus tout à fait le même : on n’est pas ce que l’on croyait. Enfin, pour moi c’est ainsi.

 

 

[1] « Au sein d’une éternité, parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance de l’univers. »

[2] Théorie bayésienne : le cerveau produirait à partir de modèles de la réalité (des a priori) des prédictions d’entrées sensorielles qui sont confrontées au réel. En cas de décalage, les modèles sont corrigés.

[3] Ainsi se trouve complètement illustré mon concept de ‘Déterminations’ que je considère comme étant de vrais obstacles qui interdisent de continuer de croire que la ‘pensée scientifique du physicien’ serait une pensée universelle libérée de toutes sortes d’attaches.

[4] Cette œuvre fut publiée en 1763 et s’exprime par la formule de Bayes : P(A/B) = P(B/A)∙P(A)/P(B) Le terme P(A) est la probabilité a priori de A. Elle est « antérieure » au sens qu’elle précède toute information sur B. P(A) est aussi appelée la probabilité marginale de A. Le terme P(A|B) est appelé la probabilité a posteriori de A sachant B (ou encore de A sous condition de B). Elle est « postérieure », au sens qu’elle dépend directement de B. Le terme P(B|A), pour un B connu, est appelé la fonction de vraisemblance de A. De même, le terme P(B) est appelé la probabilité marginale ou a priori de B. Ainsi confrontant deux évènements l’un à l’autre, la formule quantifie donc la probabilité pour l’un d’induire l’autre, remontant ainsi des conséquences vers les causes pour comprendre les phénomènes de la nature. Nous avons donc à faire avec une mathématisation de la chaîne de causalité, en tous les cas elle sert de référence.

 

Partager cet article

Repost0
22 juillet 2020 3 22 /07 /juillet /2020 15:43

Anthrôpos ne cessera de creuser.

J’aime à dire fréquemment, pour rendre compte de la situation de l’être humain dans l’univers et de la dynamique qui l’anime et dont il jouit : « Au sein d’une éternité (sic), parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance de l’univers qui n’a pas de bornes. » J’ai toujours été réticent au concept de modèle standard car si on peut, en partie, comprendre son utilité opérationnelle, il est malheureusement à mon sens trop souvent évoqué comme un alibi pour borner la pensée sur ce sujet. Si on considère l’histoire de l’humanité et les multiples cosmogonies qui ont jalonné l’évolution de la prise de conscience de l’être humain d’être dans le monde, il est consternant, voire inquiétant, de penser, que nous, à notre époque, nous aurions atteint le sommet de notre développement cérébral. Nous ne représentons pas l’état de l’Homo Sapiens finalisé.

Ci-joints deux articles qui nous offrent autant d’indices que l’enfermement intellectuel induit par le concept de modèle standard, n’a plus, n’aura plus, de raisons d’être.

Le mystère sur l’expansion de l’Univers s’approfondit avec de nouvelles données.

            Dans un article du 15/07/2020, dans ‘Nature’ il est annoncé qu’une nouvelle carte tant attendue du rayonnement fossile du Big Bang ne parvient pas à régler le débat sur la vitesse à laquelle l’Univers est en expansion.

Une nouvelle carte de l’Univers primitif renforce l’énigme de longue date en astronomie quant à la vitesse de l’expansion du cosmos. Les données, recueillies à l’aide d’un télescope dans le désert d’Atacama au Chili, confirment les estimations précédentes de l’âge, de la géométrie et de l’évolution de l’Univers. Mais les résultats entrent en conflit avec les mesures de la vitesse à laquelle les galaxies s’éloignent les unes des autres, et prédisent que l’Univers devrait se développer à un rythme significativement plus lent que ce qui est actuellement observé.

Le télescope de cosmologie d’Atacama (ACT) a cartographié le fond cosmique de micro-ondes (CMB). Les résultats, basés sur les données recueillies de 2013 à 2016, ont été publiés ce 15 juillet.

Les données d’ACT confirment maintenant les conclusions de Planck et produisent une valeur très similaire pour la constante de Hubble. Cet accord entre ACT et Planck sur la constante de Hubble est « une étape vraiment importante », déclare Paul Steinhardt, physicien théorique à l’Université de Princeton. « Je suis très impressionné par la qualité des nouvelles données et leur analyse », ajoute-t-il.

Adam Riess, un astronome de l’Université Johns Hopkins à Baltimore, Maryland, qui a dirigé une grande partie du travail de pointe sur les chandelles standards, dit que l’accord des données ACT avec Planck est « rassurant » et « un témoignage de la qualité du travail des expérimentateurs ».

Mais la tension sur la constante de Hubble demeure. Steinhardt pense que les mesures finiront par converger (sic) au fur et à mesure que les expérimentateurs perfectionneront leurs méthodes.

Mais Riess dit que c’est peut-être, au contraire, le modèle standard de la cosmologie qui est faux (sic). Et il ajoute : « Mon instinct me dit qu’il se passe quelque chose d’intéressant. »

 

Autre article très intéressant, du 26 juin, de Sean Bailly de ‘Pour la Science’, que je vous communique presqu’en intégral, qui recense très valablement toutes les interrogations et les incertitudes légitimes à propos de ce que l’on appelle la connaissance standard de l’univers. Nous avions pendant les dernières séances du télé-séminaire déjà abordés ces sujets. Voici le titre de l’article :

L’expansion de l’Univers est-elle vraiment isotrope ?

 

Un des piliers du modèle du Big Bang est que, à grande échelle, l’Univers présente les mêmes caractéristiques dans toutes les directions. Une analyse récente relance le débat sur la solidité de cette hypothèse. 

Dans le modèle du Big Bang, les cosmologistes ont fait deux hypothèses fondamentales : l’Univers est homogène et isotrope à grande échelle. Cela signifie que deux régions de l’Univers prises au hasard sont globalement équivalentes et que le cosmos a un aspect similaire quelle que soit la direction dans laquelle on l’observe. Ces idées naturelles sont d’ailleurs assez bien étayées par les observations. Pourtant, le modèle du Big Bang n’est pas sans défauts, et des chercheurs ont parfois proposé de révoquer l’une de ces hypothèses, voire les deux. Dans des travaux récents, Konstantinos Migkas, de l’université de Bonn, et ses collègues ont étudié des amas de galaxies à partir de données recueillies par les télescopes spatiaux Chandra de la Nasa et XMM-Newton de l’ESA. Ils ont observé des indices qui mettent à mal l’isotropie de l’Univers.

Quand on regarde le ciel nocturne, on voit que les étoiles ne sont pas uniformément réparties sur la voûte céleste, notamment du fait de la présence de la Voie lactée, que l’on voit par la tranche. Mais qu’en est-il à plus grande échelle ? Si l’on examine la distribution des galaxies, on constate que celles-ci se regroupent en amas. Il existe donc des régions riches en matière et d’autres quasiment vides. Mais à encore plus grande échelle, aux échelles cosmologiques, l’Univers paraît en revanche homogène et isotrope, un peu comme lorsqu’on s’éloigne d’un tableau pointilliste et que chaque point de couleur se fond dans une image d’ensemble unie. L’homogénéité et l’isotropie sont des principes fondamentaux et essentiels pour le modèle du Big Bang. Faire ces hypothèses permet d’utiliser une description mathématique assez simple et riche en symétries (en l’occurrence la métrique Friedmann-Lemaître-Robertson-Walker).

Le modèle du Big Bang est construit sur les prédictions théoriques d’Alexandre Friedmann et de Georges Lemaître dans le cadre de la relativité générale et des premières observations d’Edwin Hubble. Ces travaux ont montré que l’Univers est en expansion. Le cosmos serait né d’un état très dense et très chaud qui se dilate depuis. Une image souvent utilisée pour illustrer cette expansion est celle d’un cake aux raisins en train de cuire. À mesure que la pâte homogène gonfle, les raisins secs s’éloignent les uns des autres au même rythme. Il n’y a pas de zone plus remarquable qu’une autre dans la pâte (si on fait abstraction des bords du moule !) et, en moyenne, autour de n’importe quel point dans la pâte, toutes les directions sont équivalentes. C’est ainsi que les galaxies de l’Univers s’éloignent les unes des autres non pas à cause de leur vitesse propre, mais par la simple dilatation de l’espace qui les sépare. On parle de vitesse de récession.

Cette vision s’est enrichie en 1998. En étudiant des explosions particulières d’étoiles nommées supernovæ de type Ia, l’équipe de Saul Perlmutter, d’une part, et celle d’Adam Riess et Brian Schmidt d’autre part, ont montré que l’expansion de l’Univers accélère depuis environ 7 milliards d’années. Ce résultat a eu un impact retentissant – les trois astrophysiciens ont été récompensés par le prix Nobel de physique en 2011 –, car les cosmologistes pensaient plutôt à l’époque que l’expansion devait ralentir sous l’effet de la force gravitationnelle de la matière contenue dans l’Univers. Le gonflement du cake, au lieu de diminuer comme en fin de cuisson, est de plus en plus rapide ! Pour expliquer cette expansion accélérée de l’Univers, les physiciens ont fait l’hypothèse que celui-ci renferme une grande quantité « d’énergie noire ». La nature précise de cette dernière est inconnue et fait l’objet d’intenses recherches.

Le modèle du Big Bang amendé avec l’ajout de l’énergie noire n’a pas pour autant remis en question l’homogénéité et l’isotropie de l’Univers : l’expansion accélérée paraît identique dans toutes les directions. Les campagnes d’observation systématique du ciel qui ont permis d’analyser les grandes structures de l’Univers et la distribution de la matière semblent confirmer ces hypothèses aux plus grandes échelles.

L’homogénéité remise en question

Cependant, dès le début des années 2000, Thomas Buchert, à l’École normale supérieure de Lyon, a proposé une idée audacieuse. Si l’on prend en compte la non-linéarité des équations de la relativité générale, les hétérogénéités, à l’échelle des galaxies et des amas de galaxies, peuvent avoir un impact sur le comportement de l’Univers, et notamment sur sa vitesse d’expansion. Ces calculs sont très difficiles à mener de façon exacte. Néanmoins, certains résultats partiels laissent à penser que cet effet, dit « de rétroaction », pourrait rendre inutile l’ajout d’énergie noire ! Le futur télescope spatial Euclid devrait fournir des informations précieuses concernant cet effet.

Cette approche met en évidence qu’un Univers homogène seulement à très grande échelle se comporte différemment d’un Univers complètement homogène. Il semble donc raisonnable de se demander si l’Univers est réellement homogène aux plus grandes échelles. Certains cosmologistes explorent cette piste par exemple en supposant que la Voie lactée serait plongée dans une « bulle de Hubble », une vaste région de plusieurs centaines de millions d’années-lumière de diamètre où la densité moyenne est plus faible qu’à l’extérieur. Cette hypothèse permet d’expliquer simplement l’impression que l’expansion de l’Univers accélère.

Si l’Univers n’était pas aussi homogène qu’on le pensait, cela aurait un impact sur l’hypothèse de son isotropie. Plusieurs équipes ont voulu mettre à l’épreuve cette dernière. Mais si certains travaux semblent confirmer l’isotropie, d’autres ne sont pas aussi affirmatifs. Par exemple, en première approximation, le fond diffus cosmologique, le rayonnement fossile émis alors que l’Univers n’avait que 380 000 ans, est identique dans toutes les directions du ciel, avec une température de 2,7 kelvins. Cependant, le fond diffus présente d’infimes fluctuations (de l’ordre de 10-5 degrés) autour de la température moyenne. Ces fluctuations sont riches en informations. Elles sont liées à des ondes acoustiques qui se propageaient dans le plasma emplissant l’Univers à l’époque ou le rayonnement a été émis. Les photons du fond diffus cosmologique un peu plus chaud proviennent des zones légèrement plus denses, et inversement. Les satellites WMAP puis Planck ont établi une cartographie précise de ces fluctuations. Elles sont relativement bien réparties dans le ciel et leur distribution statistique est assez bien comprise. Cependant, une région exceptionnellement vaste de cette carte, dans la direction de la constellation d’Éridan, dans l’hémisphère Sud, est anormalement froide. Elle résulterait de la présence d’une très grande région pauvre en matière. Cette observation semble indiquer que l’isotropie n’est peut-être pas respectée même aux plus grandes échelles.

Le fond diffus cosmologique est un outil très puissant pour sonder les propriétés de l’Univers. Mais il est très difficile d’en extraire des informations qui dépendent de directions spécifiques, et il repose aussi de façon cruciale sur les paramètres du modèle cosmologique utilisé (sic). Des astrophysiciens ont aussi sondé l’isotropie de l’Univers en s’appuyant sur les supernovæ afin de vérifier si la relation reliant la distance et la vitesse de récession des galaxies était identique dans toutes les directions. Mais les conclusions ne sont pas claires : certaines équipes observent une déviation par rapport à l’isotropie, d’autres non.

Prendre la température des amas de galaxies

Pour en savoir plus, en 2018, Konstantinos Migkas et Thomas Reiprich, de l’université de Bonn, ont proposé une nouvelle technique complètement indépendante. Ils se sont intéressés au gaz chaud au sein des amas de galaxies. L’idée est d’utiliser la relation entre la température d’un amas de galaxies et sa luminosité en rayons X. Une formule assez simple relie ces deux grandeurs. L’avantage de cette approche est que la température peut être déterminée indépendamment de toute hypothèse cosmologique, contrairement à la luminosité. Il est donc possible d’exploiter la relation qui relie ces deux grandeurs pour voir si elle est identique dans toutes les directions du ciel.

Konstantinos Migkas, Thomas Reiprich et leurs collègues ont mis en œuvre cette idée avec un catalogue de 313 amas de galaxies (237 analysés par Chandra et 76 par XMM-Newton). Ils ont constaté que le résultat dépend fortement de la direction du ciel observée ! En d’autres termes, dans une région particulière du ciel, les amas paraissent plus ternes qu’ils ne devraient d’après leur température.

Ces mesures sont néanmoins délicates. « La température mesurée par spectroscopie X dépend de la composition du gaz (de sa métallicité) », explique Florian Pacaud, de l’université de Bonn, qui a aussi participé à l’étude. Cette composition influe sur l’émission globale d’un amas, mais elle ne peut pas être parfaitement contrainte par les observations. « Par conséquent, nous avons eu recours à des suppositions qui pourraient affecter les résultats. Mais il est peu probable que les déviations par rapport à ces suppositions soient systématiquement différentes d’une grande région du ciel à une autre », explique l’astrophysicien.

Un second facteur délicat à prendre en compte est l’absorption du rayonnement X émis par les amas de galaxies par le milieu interstellaire lorsqu’il traverse la Voie lactée. « Il faut donc corriger cette absorption, précise Florian Pacaud. Et pour cela, nous utilisons la densité d’hydrogène comme traceur (car elle est facile à mesurer), alors que l’absorption provient en pratique d’éléments plus lourds (les atomes plus lourds et les “poussières”). » Une erreur de modélisation de l’absorption galactique pourrait induire un effet d’anisotropie trompeur. Adam Riess, astrophysicien de l’université Johns-Hopkins, a d’ailleurs fait remarquer que la région particulière identifiée par Konstantinos Migkas est proche de la zone la plus opaque de la Voie lactée. Il faut cependant noter que le plan galactique couvre presque un tiers du ciel et qu’il n’est donc pas surprenant qu’une direction a priori aléatoire tombe près du plan galactique. La direction du grand attracteur (vers lequel se dirigent les amas de galaxies locaux et dû à des structures très massives dans la direction du superamas de Shapley) se trouve aussi étrangement proche du pic du signal de l’équipe de Konstantinos Migkas. Cela serait cohérent si on suppose que les grandes structures locales sont à l’origine de cette anisotropie.

Pour s’assurer de la réalité de l’effet qu’ils ont observé, Florian Pacaud et ses collègues ont analysé un catalogue d’amas plus important (842 structures considérées). Verdict : la région anormale persiste.

 

 

 

Partager cet article

Repost0
22 juillet 2020 3 22 /07 /juillet /2020 14:32

Partager cet article

Repost0
8 juillet 2020 3 08 /07 /juillet /2020 19:54

Un battement mesurable d’un intervalle de temps fondamental maximal.

La période de l’horloge de l’Univers : C’est le titre d’un article de Physicsworld du 19 juin : ‘The Period of the Univers’sClock’. Avec le sous-titre : « Les théoriciens ont déterminé 10−33 seconde comme limite supérieure pour la période d’un oscillateur universel, ce qui pourrait aider à construire une théorie quantique de la gravité. »

Ci-jointe la traduction, par mes soins, de la totalité de l’article « Le tic-tac de l’Univers. Une nouvelle théorie propose que le temps soit une propriété fondamentale de l’Univers, régie par un oscillateur qui interagit avec toute la matière et toute l’énergie.

Un trio de théoriciens a modélisé le temps comme un oscillateur quantique universel et a trouvé une limite supérieure de 10-33 seconde pour la période de l’oscillateur. Cette valeur se situe bien en dessous des tic-tacs les plus courts des meilleures horloges atomiques d’aujourd’hui, ce qui la rend incommensurable. Mais les chercheurs indiquent que les horloges atomiques pourraient être utilisées pour confirmer indirectement les prédictions de leur modèle.

La physique a un problème avec le temps : en mécanique quantique, le temps est universel et absolu, avançant continuellement au fur et à mesure que les interactions se produisent entre les particules. Mais avec la relativité générale (la théorie qui décrit la gravité classique), le temps est malléable — les horloges situées à différents endroits dans un champ gravitationnel ont des tic-tacs avec des vitesses différentes. Les théoriciens qui développent une théorie quantique de la gravité doivent concilier ces deux descriptions du temps. Beaucoup s’entendent pour dire que la solution exige que le temps soit défini non pas comme une coordonnée continue, mais plutôt comme le tic-tac d’une horloge physique, explique Flaminia Giacomini, théoricienne quantique au Perimeter Institute for Theoretical Physics (PITP) du Canada.

Une telle horloge fondamentale imprégnerait l’Univers, un peu comme le champ de Higgs de la physique des particules. Semblable au champ de Higgs, l’horloge pourrait interagir avec la matière, et elle pourrait potentiellement modifier les phénomènes physiques, dit Martin Bojowald de l’Université d’État de Pennsylvanie à University Park.

Mais les chercheurs ont encore à développer une théorie pour une telle horloge, et ils ne comprennent toujours pas la nature fondamentale du temps. Visant à mieux comprendre les deux problèmes, Bojowald et ses collègues ont imaginé l’horloge universelle comme un oscillateur et ont entrepris d’en déduire sa période. Leur espoir étant que cela pourrait offrir des idées sur la façon de sonder les propriétés fondamentales du temps.

Dans le modèle, l’équipe considère deux oscillateurs quantiques, qui agissent comme des pendules quantiques oscillant à des rythmes différents. L’oscillateur plus rapide représente l’horloge universelle et fondamentale, et le plus lent représente un système mesurable en laboratoire, comme l’atome d’une horloge atomique. L’équipe couple les oscillateurs pour leur permettre d’interagir. La nature de ce couplage est différente des oscillateurs classiques, qui sont couplés par une force commune. Au lieu de cela, le couplage est imposé en exigeant que l’énergie nette des oscillateurs reste constante dans le temps, une condition dérivée directement de la relativité générale.

L’équipe constate que cette interaction provoque une désynchronisation lente des deux oscillateurs. La désynchronisation signifie qu’il serait impossible pour n’importe quelle horloge physique de maintenir indéfiniment les tic-tacs d’une période constante, plaçant une limite fondamentale sur la précision des horloges. En conséquence, les tic-tacs de deux horloges atomiques construites à l’identique, par exemple, ne seraient jamais entièrement d’accord, si mesurées à cette limite de précision. L’observation de ce comportement permettrait aux chercheurs de confirmer que le temps a une période fondamentale, dit Bojowald.

Bojowald et ses collègues ont utilisé la propriété de désynchronisation pour obtenir une limite supérieure de 10-33 secondes pour la période de leur horloge oscillante fondamentale. Cette limite est 1015 fois plus courte que le tic-tac des meilleures horloges atomiques d’aujourd’hui et 1010 fois plus longue que le temps de Planck, une longueur proposée pour l’unité mesurable la plus courte.

La résolution d’une unité de temps Planck est bien au-delà des technologies actuelles. Mais le nouveau modèle permet potentiellement aux chercheurs de se rapprocher beaucoup plus qu’auparavant, explique Bianca Dittrich, qui étudie la gravité quantique au PITP. Bojowald est d’accord. L’utilisation de l’échelle de temps de la désynchronisation entre les horloges pour faire des mesures de temps, plutôt que les horloges elles-mêmes, pourrait permettre des mesures sur des échelles de temps beaucoup plus courtes, dit-il.

Un autre avantage de choisir un système quantique oscillant comme modèle pour une horloge fondamentale est qu’un tel système ressemble beaucoup aux horloges utilisées en laboratoire, explique Esteban Castro-Ruiz, de l’Université Libre de Bruxelles, qui étudie les problèmes liés aux horloges quantiques et à la gravité. La ressemblance est essentielle, dit Castro-Ruiz, parce qu’elle « amène la question d’une période fondamentale de temps à un cadre plus concret, où l’on peut réellement commencer à penser à des conséquences mesurables ».

Cette recherche est publiée dans Physical Review Letters.

            Cet article est pour moi une aubaine car c’est, à ma connaissance, un article qui me fait entrevoir pour la première fois une complicité de pensée théorique du battement du temps fondamental, insécable, que j’estime actuellement de l’ordre de 10-26 à 10-28s. Mon premier article sur ce sujet date du 02/11/2012 ‘Synthèse : Un monde en ‘Présence’’

Ci-jointes les idées exprimées que je fais miennes : « Une nouvelle théorie propose que le temps soit une propriété fondamentale de l’Univers » ; « La physique a un problème avec le temps » ; « Beaucoup s’entendent pour dire que la solution exige que le temps soit défini non pas comme une coordonnée continue, mais plutôt comme le tic-tac d’une horloge (physique.) » ; « … amène la question d’une période fondamentale de temps à un cadre plus concret, où l’on peut réellement commencer à penser à des conséquences mesurables ».

   Je cite maintenant ma différence de point de vue. Les auteurs de l’article indiquent clairement que le battement maximal est de nature physique, non pas à cause du moyen physique qu’ils proposent pour le mesurer mais par leur hypothèse : c’est l’horloge de l’Univers qui bat à 10-33seconde. Selon mon hypothèse le battement maximal est dû à la ‘‘Présence’ du Sujet pensant’, je le nomme TpS ou encore τs, est (voir mon article de 2012) :

                   1- une durée définitivement insécable ; (sic)

               2- un existential ;

               3- la condition de la mobilité de la pensée humaine et partant, concomitamment, la condition de la faculté de langage ;

               4- le foyer, le siège, de la temporalisation du temps ; (sic)

               5- une durée irrémédiable et aveugle de l’intelligence humaine ;

6- au cours de cette durée – qui a la valeur d’une ‘faille’ – se joue la compatibilité de l’être de la nature et de l’être dans la nature qui caractérise l’être humain ;

Bref aucune opération de mesure physique ne peut être instantanée, elle implique obligatoirement une durée. (sic)

            Si les auteurs de l’article parviennent à obtenir une mesure, il est évident qu’elle ne permettra pas de trancher entre les deux hypothèses sur la nature de ce battement. Qu’elle que soit la dimension temporelle de ce battement, qu’elle soit proche de mon estimation ou de la leur, ou encore une valeur intermédiaire, la question de la nature du battement restera posée. Par contre l’obtention d’un résultat tangible aura, à mon avis, la valeur d’un paradigme. Comme l’indique Castro-Ruiz : « on peut réellement commencer à penser à des conséquences mesurables » Effectivement, on pourra concrètement, exploiter ce résultat et le mettre à l’épreuve d’autres nouveaux résultats que l’on pourra attribuer à ce battement primordial. On fera de la physique avancée et nouvelle car c’est, in fine, avec des nombres à comparer, qu’on fait de la science dure. En ce sens ce résultat aura la valeur d’un paradigme.

            Je cite : « Une telle horloge fondamentale imprégnerait l’Univers, un peu comme le champ de Higgs de la physique des particules. Semblable au champ de Higgs, l’horloge pourrait interagir avec la matière, et elle pourrait potentiellement modifier les phénomènes physiques, dit Martin Bojowald » ; si Bojowald prédisait juste, ce serait remarquable. Toutefois, il y a encore beaucoup de chemin à parcourir avant d’affirmer une telle hypothèse avec les effets conséquents évoqués. J’aimerais que Martin ait raison, car mon hypothèse serait toujours valable puisque ce champ semblable au champ de Higgs serait, selon mon hypothèse, le témoin justifiant la ‘Présence’ du sujet pensant ainsi que son action investigatrice car le temps est un propre de l’homme et cette ‘Présence’ est inexpugnable. Voir article[1] du 21/12/2011 : ‘L’être humain est-il nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la Nature ?’ et article du 02/05/2013 ‘Bienvenu au ‘Moment Présent’ de Lees Smolin’. Article dans lequel je précise : « Attention ! Je ne prétends pas comme L. Smolin que le temps est réel, donné, dans le sens qu’il serait dans la nature, au contraire, je considère que c’est le sujet pensant qui est la source (temporalisation du temps) et le vecteur du temps. »

            Il restera à départager mon hypothèse de celle de Martin Bojowald pour rendre compte de ce qui est à la source de ce champ : ‘similaire au champ de Higgs’. Lorsqu’on sera à ce niveau d’une recherche de confirmation, il sera aisé de considérer que l’on aura fait un sacré progrès théorique. Dans l’article du 05/08/2017, je propose un projet d’expérience qui permettrait de distinguer laquelle des deux hypothèses serait juste avec la possibilité concomitante d’expliquer l’étrangeté que constitue le phénomène de l’intrication.

            Sur le site de phys.org, le 26 juin, un article a été consacré sur le même sujet sans apporter un quelconque développement supplémentaire. J’ai remarqué dans ces 2 publications une prise de distance intéressante, à mes yeux, à l’égard du temps de Planck, écartant l’idée que ce temps puisse avoir une signification physique. J’ai toujours considéré que les grandeurs associées à la constante de Planck étaient des grandeurs « hors-sol » obtenues en considérant les équations aux dimensions. Ce type d’extrapolation, laisse penser que les physiciens ont cru avoir saisi le ‘Graal’ avec h et, selon eux, tout s’expliquerait en faisant briller artificiellement son éclat à tout propos. Cela s’appelle une fascination, un tropisme, aveuglants.   

 

[1] Pendant ces 9 dernières années, j’ai consacré beaucoup d’articles au développement de l’hypothèse que le temps est un propre de l’être humain. On trouve, dans l’article du 19/07/2017 : « Votre, Notre Cerveau est une Machine du Temps » et dans l’article du 05/08/2017 : « Appel d’Offres », des étapes de ce développement.

Partager cet article

Repost0
20 juin 2020 6 20 /06 /juin /2020 16:30

Le modèle basique de l’univers doit être repensé.

Une publication du 11 juin, dans le site de Phys.org :Nouvelles mesures de distances renforce la mise en question du modèle basique de l’univers’ ; ‘New distance measurements bolster challenge to basic model of universe’, relate le dernier résultat de la valeur de la constante de Hubble. Il s’ajoute à tous les résultats précédents (voir article du 13/08/2019 : ‘Des nouvelles du futur univers’) qui mettent en cause la valeur de cette constante H pourtant plusieurs fois confirmée par l’équipe de physiciens qui exploite les données obtenues, avec la première image de l’univers après le Big Bang, par le satellite Planck (67.4 km/s/mégaparsec ; 1 parsec = 3.26 AL). Cette valeur sert encore de valeur de référence exploitée par la communauté scientifique.

Je cite : « Un nouvel ensemble de mesures de distances précises fait avec une collection internationale de radio télescopes a considérablement augmenté la probabilité que les théoriciens doivent réviser le "modèle standard » qui décrit la nature fondamentale de l’Univers. Ces nouvelles mesures des distances ont permis aux astronomes d’affiner le calcul de la valeur de la Constante Hubble (73.9 km/s/Mparsec), le taux d’expansion de l’univers, une valeur importante pour tester le modèle théorique décrivant la composition et l’évolution de l’Univers. Le problème est que les nouvelles mesures exacerbent un écart entre les valeurs précédemment mesurées de la Constante de Hubble et la valeur prédite par le modèle lorsqu’il est appliqué aux mesures du fond micro-ondes cosmique obtenues par le satellite Planck. Notre travail utilise une technique de mesure de la distance complètement indépendante de toutes les autres, et nous renforçons la disparité entre les valeurs mesurées et les valeurs prévues. Il est probable que le modèle cosmologique de base impliqué dans les prédictions soit le problème. »

Aujourd’hui, la constante De Hubble est, et continue d’être, une propriété fondamentale de la cosmologie observationnelle et est encore la valeur centrale pour les études actuelles. Les déterminations de la constante de Hubble basées sur l’exploitation des chandelles standards que seraient les SuperNovas de type 1a et aussi grâce à l’observation de la lumière émise par les quasars amplifiée par les lentilles gravitationnelles ont produit des chiffres de 73-74 kilomètres par seconde (la vitesse) par mégaparsec. Toutefois, les prédictions de la constante de Hubble du modèle cosmologique standard lorsqu’elles sont obtenues par des mesures sur le fond cosmique micro-ondes (CMB) — les restes de rayonnement du Big Bang — donnent une valeur de 67,4, soit une valeur différente et troublante. Cette différence, que les astronomes disent être au-delà des erreurs expérimentales de leurs observations, a de graves implications pour le modèle standard.

« Tester le modèle standard de la cosmologie est un problème vraiment difficile qui nécessite les mesures les plus précises de la Constante de Hubble. L’écart entre les prévisions et les valeurs de la constante Hubble indique donc l’un des problèmes les plus fondamentaux dans toute la physique. » ; « "Notre mesure de la constante Hubble est très près des autres mesures récentes, et statistiquement très différente des prédictions basées sur le CMB et le modèle standard cosmologique. Tout indique que le modèle standard a besoin d’être révisé. »

A propos de la consistance du modèle standard de la cosmologie, récemment, des nouvelles fragilités potentielles ont été mises en exergue. Ainsi dans l’article du 08/04/2020 : ‘Rethinking cosmology : Universe expansion may not be uniform.’; ‘Repenser la cosmologie : l’expansion de l’Univers pourrait ne pas être uniforme.’ Je cite : « Nous avons observé que les amas de galaxies avec les mêmes propriétés, avec les mêmes températures, apparaissaient être moins brillants que ce que nous attendions dans une direction du ciel, et plus lumineux qu’attendus dans une autre direction. La différence est assez significative, autour de 30%. Ces différences ne sont pas aléatoires mais résultent d’une dépendance claire de la direction par laquelle nous les observons dans le ciel. »

Si ces observations de l’anisotropie de l’univers étaient confirmées par une autre équipe d’astrophysiciens cela conduirait à des révisions remarquables. « Si l’Univers est vraiment anisotrope, même si ce n’est que pendant les quelques derniers milliards d’années, cela signifierait un énorme changement de paradigme parce que la direction de chaque objet devra être prise en compte pour analyser leurs propriétés. Par exemple, aujourd’hui, nous estimons la distance d’objets lointains dans l’Univers en exploitant un ensemble de paramètres cosmologiques et d’équations. On considère que ces paramètres sont les mêmes en tous points de l’Univers. Mais si nos conclusions sont justes, cela ne sera plus possible et il faudra reconsidérer, revoir, toutes les conclusions précédentes. »

Une autre croyance d’une propriété intrinsèque attribuée à l’Univers pourrait aussi voler en éclat si une observation récente publiée le 02/06/2020 était confirmée par une deuxième équipe d’astrophysiciens. Je cite, sur le site de Futura Sciences : « Les astronomes imaginaient notre Univers comme homogène. Mais la répartition des sens de rotation de 200.000 galaxies spirales semble au contraire montrer une structure définie. Elle suggère aussi que par le passé, notre Univers a pu être animé d'un mouvement de rotation. »

 Dans un univers isotrope et sans structure particulière, nous devrions observer autant de galaxies tournant dans un sens que dans l'autre. Et découvrir qu'il existe une différence d'un peu plus de 2 % entre le nombre de galaxies qui tournent dans le sens horaire et celles qui tournent dans le sens antihoraire, certes une différence infime, mais qui, selon les astronomes, ne peut pas être l'effet d'un hasard.

Le schéma que les chercheurs ont observé correspond par ailleurs à un alignement quadripolaire. Laissant entendre que par le passé, notre Univers dans son ensemble a pu tourner, un peu comme une galaxie géante (sic).

Uniformité, isotropie de l’Univers sont des postulats collectifs qui se sont imposés dès le début des spéculations des scientifiques qui ont entrepris de définir, de caractériser, ce que l’on nomme l’univers. Il y a aussi un principe cosmologique qui postule qu’il n’y a, au sein de l’univers, aucun lieu qui puisse être considéré comme particulier. Il y a aussi le Big Bang, qui dit que notre univers a une origine temporelle. Cette origine a eu (sic) un rôle très utile afin que les cosmologistes posent leur pensée, sur cette origine commune, qui permette de concevoir une évolution, une histoire des propriétés qui soit en phase avec l’histoire des découvertes des propriétés et des objets célestes pour lesquels les scientifiques ont progressivement été capable de leur attribuer de la signification.

Ces conditions associées ont permis qu’un état de l’art de la connaissance de l’univers de la part de la communauté scientifique soit établi et référencé lorsqu’il est question du Modèle Standard de la Cosmologie.

Ce modèle standard ne doit pas être aujourd’hui un carcan. Je suis optimiste mais il faut garder les pieds sur terre car l’inertie intellectuelle est très présente chez les physiciens. Je considère que l’article du 14/05/2020 qui suit est révélateur de cette inertie : ‘l’Ere des Anomalies’ : « Les physiciens des particules sont confrontés à une liste croissante d'« anomalies » — des résultats expérimentaux qui entrent en conflit avec le modèle standard mais ne parviennent pas à le renverser faute de preuves suffisantes. » Dans cet autre Modèle Standard qui est celui des particules élémentaires, l’accumulation conséquente des résultats anormaux par rapport au standard est importante. Pourtant comme l’indique l’auteur de l’article rien n’y fait pour s’émanciper de ce modèle standard car comme j’ai eu plusieurs fois l’occasion de le dire et de l’écrire on continue de penser ces anomalies recensées dans le cadre du modèle standard faute de repères au-delà. Ainsi c’est flagrant à propos des neutrinos et cela dure depuis qu’on leur a attribué une soi-disant masse d’inertie. J’ai toujours précisé qu’il fallait se préoccuper de la physique véhiculée par les neutrinos et non pas des propriétés physiques des neutrinos car c’était rabattre celles-ci dans le cadre du modèle standard. Soyons optimistes, peut-être qu’une pensée nouvelle s’esquisse à propos de ces objets si insaisissables, avec l’hypothèse qu’ils soient plutôt interactifs entre eux-mêmes ainsi ils seraient grégaires et constitueraient dans le cosmos des courants propres d’énergie et de propriétés. Dans ce cas on devrait considérer qu’ils influent sur l’histoire de l’univers avec une certaine autonomie par rapport aux autres constituants de la matière. Si cela est le cas, il faut considérer que l’univers est composé de courants-amas de matières hétérogènes qui n’interagissent pas entre eux et la dynamique de l’univers serait la somme de ces dynamiques.   

Après cette incise concernant le modèle standard des particules, je reviens sur l’idée que le modèle standard de la cosmologie ne doit pas être un carcan mais au contraire, il faut considérer que ce sont les connaissances acquises, de très grande qualité, dans ce cadre qui permettent de conjecturer au-delà de ce cadre. Les quelques articles que j’ai cités ci-dessus, indiquent que les moyens d’observations deviennent de plus en plus performants et en conséquence notre capacité d’appréhender un univers plus étendu est supportable. Ce que nous pouvons appréhender c’est que ce que nous désignons par le mot Univers actuellement n’est en fait qu’une représentation partielle du monde avec une complexité-richesse appauvrie à cause de nos limites intellectuelles actuelles qui ne sont que provisoires. Il ne faut pas brûler les étapes, un au-delà du modèle standard sera une nouvelle étape mais pas un aboutissement. L’au-delà du modèle standard sera aussi un au-delà du Big Bang qui plus spécifiquement n’aura plus de raison de faire partie de l’arsenal des outils, à venir, de nos moyens à concevoir.

En ce qui concerne la différence significative de la constante de Hubble confirmée, il y a deux possibilités de la prendre compte, soit nous considérons que les deux valeurs sont fiables et dans ce cas il faut trouver la cause physique (nouvelle) qui produit l’évolution croissante de cette constante, soit nous considérons qu’il y a une faille significative de notre compréhension de ce que contient en informations le fond diffus cosmologique (FDC). De toutes les façons, en résolvant cette énigme, il y a enrichissement, à la clef, de notre connaissance de propriétés physiques dans l’univers.

Personnellement, j’opte pour la faille de notre compréhension car nous décryptons les informations contenues dans le FDC avec des algorithmes qui intègrent nos connaissances physiques actuelles. En conséquence la nouvelle physique ne peut pas être mise en relief. C’est donc confrontés à la perplexité du défaut de compréhension que les bonnes hypothèses finiront par s’imposer et ce sera la première marche qui conduira à une nouvelle conception de l’univers.

Partager cet article

Repost0
5 mai 2020 2 05 /05 /mai /2020 08:07

 

Vous pensez toujours : Contre-intuitif, Etrange ou encore Enigmatique.

De très nombreux articles considérant la mécanique quantique commence par : « la mécanique quantique décrit un monde étrange et contre-intuitif, énigmatique. » Cela est encore le cas à propos de l’article[1] de Ph. Ball que nous étudierons ci-après en télé séminaire : « La physique quantique dépeint un monde étrange et contre-intuitif. De fait, il ne ressemble en rien à celui dont nous faisons l’expérience au quotidien, au moins mécaniquement parlant. Jusqu’au 20e siècle, tout le monde pensait que les lois de la physique classique formulées par Isaac Newton et d’autres s’appliquent à toutes les échelles. Dans ce cadre, n’importe quel objet a une position et des propriétés bien définies à tous moments. Ce n’est pas le cas. » De même dans l’article p.16 de Klein et Rovelli : « Une efficacité déraisonnable », que nous étudierons aussi : « Si la physique quantique troubla tant, c’est parce qu’elle échappait au cadre d’interprétation de la physique classique. A tout système, la physique classique attache des propriétés qui appartiennent en propre au système et n’attribue pas de rôle fondamental à l’opération de mesure. »

Est-ce que ceux qui évoque la contre-intuitivité et l’étrangeté de la mécanique quantique sont des réactionnaires comme nous le dit S. Weinberg, p.43 de l’article : ‘Un pont entre deux mondes’ : « Mais pour l’heure, la mécanique quantique semble répondre à tous les tests. « Non, nous ne faisons face à aucune crise. Tout le problème est là ! s’exclame Weinberg. Par le passé, nous n’avons cessé de progresser lorsque les théories existantes rencontraient des difficultés. Mais il n’y a rien de tel avec la mécanique quantique. Elle n’est pas en conflit avec les observations. Le problème, c’est qu’elle ne parvient pas à satisfaire les idées philosophiques préconçues et réactionnaires des gens comme moi. »

On peut considérer qu’au début de la mécanique quantique dans les années 1920, les physiciens de l’époque, qui se trouvaient confrontés aux phénomènes physiques à l’échelle de l’infiniment petit, soient sérieusement déboussolés car effectivement leur grille de lecture de l’interprétation classique habituelle ne correspondait plus à ce qu’ils constataient. Pensons à H. Lorentz qui, dans les années 1920, enseignait à ses étudiants, le jeudi matin, que l’électron rayonnait de l’énergie lorsqu’il subissait une accélération positive ou négative et il enseignait, le vendredi matin, que l’électron de l’atome d’hydrogène orbitant autour du noyau se maintenait dans un état stable, donc entre autres conservait le même niveau d’énergie.

En conséquence le découplage entre l’interprétation classique et la bonne interprétation des phénomènes atomiques, quantiques, devait conduire à une rupture intellectuelle violente qui d’ailleurs fut difficilement assumée par les physiciens[2] formés sur les bans de l’université par le paysage maitrisé de la physique classique (voir l’autobiographie de Planck). Mais cent ans après, cela ne devrait plus être ainsi…, sauf si on est réactionnaire comme le dit S. Weinberg.

Cent ans après, A. Bassi a raison : « Certains vous diront que la mécanique quantique nous a appris que le monde est étrange et que nous devons l’accepter. Je m’y refuse. Si une chose est étrange, nous devons faire en sorte de mieux la comprendre. »

Pour mieux la comprendre, qu’est-ce qu’il faut comprendre ? Selon ma conviction, premièrement, il faut intégrer ce qu’affirme Heisenberg : « Le postulat d’une réalité physique existant indépendamment de l’homme n’a pas de signification. » Deuxièmement, il faut admettre le renversement copernicien que propose le jeune Bohr grâce à sa formation intellectuelle influencée par l’existentialisme : « Il faut renoncer à l’idée que le but de la physique soit de trouver comment est faite la nature » et accepter modestement que : « la physique est seulement concernée par ce que l’on peut dire sur la nature ». Ce qui est autrement dit par Heisenberg, d’une façon radicale : « Le seul but de la physique c’est de prévoir correctement les résultats expérimentaux. » ou encore : « Presque tous les progrès de la science ont été payés par un sacrifice (sic), pour presque chaque nouvelle réalisation intellectuelle, les positions et les concepts antérieurs ont dû être révisés. Ainsi, d’une certaine façon, l’accroissement des connaissances (sic) a réduit la prétention du savant à comprendre la nature. »

Pour mieux comprendre l’essence du corpus de la mécanique il nous faut admettre qu’en tant que physicien, observateur, sujet pensant, nous sommes à distance du monde quantique. Avec la physique classique on peut avoir l’illusion que nous sommes dans le monde classique. En effet les données de ce monde que nous recueillons sont observables directement car les sens propres de l’être humain et son intelligence propre ont été façonnés dans un rapport intime avec et contre la Nature à l’échelle que l’on dit classique depuis la nuit du temps. Notre capacité à observer et à inférer a été déterminée par ce fait anthropologique. Je dis bien « a été » car depuis un siècle que le corpus de la mécanique quantique a commencé à être élaboré et continu d’évoluer à cause de problématique plus récente telle que par exemple l’intrication, le monde de l’infiniment petit a commencé sérieusement à être ausculté, en conséquence notre intelligence est déjà marquée par cette pratique.  Cela s’appelle un apprentissage. On sait maintenant qu’au cours d’un apprentissage les circuits neuronaux dans notre cerveau évoluent durablement. Pensons à l’apprentissage de la lecture, du calcul, ou tous autres au cours de la vie. C’est pourquoi quand je lis ou entend des physiciens évoquer encore la contre-intuitivité, l’étrangeté, de la mécanique quantique comme à ses débuts cela me paraît absurde. Cette absurdité est perceptible lorsque l’on a enseigné la mécanique quantique à plusieurs générations d’étudiants. Les générations les plus récentes sont notablement de plus en plus à l’aise avec la théorie quantique. Certes on ne pourra jamais avoir l’illusion d’être dans le monde quantique comme, on peut l’avoir, d’être dans le monde classique mais l’accoutumance de le fréquenter et de le confronter, de se l’approprier intellectuellement même partiellement réduit et réduira l’étrangeté de ce monde. Prenons l’exemple suivant : il est évalué qu’une personne aveugle ‘voit’ l’environnement physique dans lequel il évolue, en faisant la synthèse de ses repères olfactifs, auditifs, sensoriels de la peau, etc… qu’un voyant est incapable d’analyser. (Dans ce cas pour l’aveugle l’aire cérébrale de la vue est active comme pour un voyant).

N. Bohr disait souvent pour accepter la mécanique quantique, il faut préalablement savoir renoncer, renoncer au raisonnement classique. Et ceux qui encore mettent en avant la contre-intuitivité, l’étrangeté, depuis le temps n’ont toujours pas renoncé, ils pensent toujours en réaction comme le dit avec beaucoup de lucidité S. Weinberg. Tant pis pour eux, mais en même temps ils font obstacle. Ils conçoivent en réaction au fait que la réalité physique est ramenée à nos rapports opérationnels avec elle, au-delà de laquelle la science n’a plus rien à connaître. Dans sa formulation même, la théorie quantique ne dit pas comment le monde est, mais comment il répond aux sollicitations. Les concepts physiques tirent leur seule légitimité de leur capacité à « couvrir la situation expérimentale »

Le formalisme de la mécanique quantique est toujours considéré par un grand nombre comme provisoire, malgré son efficacité, car il est considéré comme empirique, pragmatique, imprégné par les probabilités, marqué par l’indéterminisme, et donc il est renversant par rapport à l’idéal classique. Malgré cette conception hérétique, la conquête des applications proprement dues à l’exploitation du corpus de la mécanique quantique sont extraordinaires. Le N° hors-série de ‘Pour la Science’ annonce une ‘nouvelle révolution quantique’ qui a déjà commencé. L’efficacité du formalisme quantique avec ses principes qui l’accompagnent ont fait preuve de leurs valeurs heuristiques au point que l’auteur de l’article : ‘Un pont entre deux mondes’ n’hésite pas à poser la question : « Sommes-nous aveugles à une mécanique quantique qui régnerait à toutes les échelles ? ». C’est exactement ce que je suggère dans l’article du 25/03/2020 : ‘Une nouvelle perspective sur la nature de la science’, qui conclue ainsi : « Ce que je propose ci-dessus est suscité par l’idée que ce qui a été essentiellement fondé par l’école de Copenhague correspond à un état de l’art de la pensée scientifique et bien qu’elle fût énoncée à l’occasion de la découverte du monde physique à l’échelle de l’infiniment petit, elle vaut aussi pour tout scientifique en quête de connaissances physiques fondamentales de la nature à l’échelle macroscopique. Le rôle du sujet pensant est tout aussi déterminant dans les deux cas de figure. » Et puis on pourrait conjecturer sur cette autre concordance que je propose : « N’importe quelle mesure particulière ne capture qu’un fragment du monde quantique[3] » avec : n’importe quelle observation en astrophysique ne concerne qu’un fragment de notre univers. Avec ces deux exemples nous devons prendre en compte que nous sommes bien dans la situation nouvelle que Bohr avait repérée et considérée suffisante pour bouleverser les théories rendant compte du rapport que nous avons avec ce qu'on nomme par commodité « la réalité ». Comprendre le rapport objectif, possible, que nous avons avec la réalité, avec la nature, est essentiel pour interpréter correctement ce que nous nommons par commodité la réalité. Le formalisme de la mécanique quantique de l’école de Copenhague est relatif à l’expression de ce rapport. En astrophysique (très grandes échelles, contrairement à l’échelle classique) nous sommes dans une même situation d’inaccessibilité, en une seule observation en un seul regard (intellectuel), de la totalité de l’univers.

Dans l’article du 25/03/ j’ai utilisé les mêmes concepts et le même formalisme que ceux de Copenhague : « La fonction d’onde de la connaissance globale du Monde… L’état de la connaissance réduite actuelle du monde c’est un Univers… Avec cet état dominant, se superpose d’autres états de connaissance en cours de réduction… » En effet le formalisme de l’école de Copenhague, à coup sûr, n’a pas été prémédité, il a été développé d’une façon pragmatique, empirique, pour satisfaire scientifiquement au coup par coup une situation inédite en rupture avec la physique classique. Tous ceux qui ont pensé que ce pragmatisme avait valeur de provisoire ce sont trompés. Peut-être que ce qui est proposé dans les deux articles de ‘Pour la Science’ : ‘Un pont entre deux mondes’ et ‘Le darwinisme quantique à l’heure des tests’, produira des résultats intéressants mais cela constituera des améliorations effectives dans le même cadre. On doit donc considérer que ce qui est proposé par Copenhague est robuste et représente un état de l’art qui aurait de la valeur au-delà de la mécanique quantique. A mon sens cela est, parce que les deux fondateurs principaux ont réfléchi leurs postulats à partir des idées suivantes universellement justes : « Le postulat d’une réalité physique existant indépendamment de l’homme n’a pas de signification. » et « C’est l’appréciation correcte du rapport que nous avons avec la nature qui permet d’avoir un juste discours de physicien sur la nature. »

Je ne peux pas terminer mon article sans exprimer ma consternation à propos de ce qui est rédigé dans les pages 6 et 7 et qui a vocation à servir de repères pour comprendre la mécanique quantique. Je ne saurais dire si c’est à cause d’un travail superficiel de la part de celui qui était chargé de rédiger ces deux pages ou bien la volonté de vouloir entretenir l’idée que les hypothèses de de Broglie ont toujours de la signification. Ceci est malvenu car cela ne facilite pas l’élucidation d’un vrai questionnement passionnant qui perdure depuis un siècle autour des propriétés quantiques. Ce qui est malvenu c’est premièrement d’engager ce repérage par la dualité onde-corpuscule qui a été postulé par de Broglie qui déclare que la lumière est constituée d’ondes lumineuses et de corpuscules (photons) et ceci a conduit à la notion générale de dualisme entre onde et particule. Cela signifie qu’un objet quantique est concomitamment constitué réellement d’une onde (de matière) et d’un corpuscule. Ces postulats ont conduit à l’élaboration de la physique ondulatoire et non pas à la physique quantique. La physique quantique, c’est-à-dire, celle de l’école de Copenhague postule : onde ou corpuscule cela dépend de l’instrument de mesure que l’on utilise. Ainsi pour la lumière, l’aspect ondulatoire est flagrant avec les fentes de Young (sans moyens de détection) et l’aspect corpusculaire est flagrant avec l’effet photoélectrique. De plus dans ce cadre, il n’y a aucune prétention ontologique, on évoque l’aspect ondulatoire ou l’aspect corpusculaire, cela dépend de l’observateur avec l’instrument de mesure qu’il exploite. Dans le paragraphe : Indéterminisme : la confusion est à son paroxysme car on considère qu’en conséquence de la dualité onde-corpuscule… l’onde associée à une particule est en fait une onde de probabilité (fonction d’onde) (sic). Cette soupe théorique est vraiment néfaste.

Je propose aux lecteurs de lire dans l’article de Klein et Rovelli, p.16 : ‘Une efficacité déraisonnable’ le paragraphe ci-dessous qui est très rigoureux et pédagogique, et donc de s’en tenir à ce qu’ils exposent.

« Dans le cadre de la théorie quantique, un système physique est décrit par un objet mathématique, la fonction d'onde. Celle-ci s’écrit en général, comme la somme de plusieurs fonctions représentant chacune un état particulier affecté d'un certain coefficient. On est alors face à une <superposition> d’états possibles, une situation sans équivalent en physique classique. La théorie stipule alors que connaissant la fonction d’onde, on ne peut en général pas déterminer le résultat d’une mesure, mais seulement calculer les probabilités d’obtenir tel ou tel résultat. Et parmi tous les résultats possibles a priori, un seul est sélectionné, au hasard, par l’opération de mesure. Cette dernière entraîne une « réduction des possibles » qui s’effectue d’un coup et de façon aléatoire.

En ce qui concerne la physique quantique, on peut considérer que le fait le plus notable relatif à cette physique c’est la propriété de l’intrication. Cette propriété fut confirmée en 1982 par A. Aspect, auteur de l’introduction du dossier de Pour la Science qui signale : « J’étais loin d’imaginer cette explosion d’idées d’application autour de l’intrication ! » Or cette propriété n’est toujours pas comprise. Il n’est pas souhaitable, ni possible, que l’engouement pour les applications délaisse la volonté de comprendre les causes de cette propriété observée et confirmée, ces vingt dernières années, dans des configurations très variées au point qu’il n’y a plus d’échappatoire. Soit cette propriété est naturelle, inhérente à la nature, partie prenante de la genèse de l’univers, ce que veulent théoriser certains auteurs notamment l’auteure de l’article : « La matrice de l’espace-temps », soit cette propriété se produit expérimentalement sous certaines conditions et se reproduit moyennant l’exploitation de moyens technologiques identifiés. Pour qu’il y ait intrication, il faut que les parties d’un système quantique aient interagi. Puisqu’il y interaction celle-ci ne peut être instantanée, elle a une durée Δt > 0, aussi petite soit-elle. Mon estimation est de l’ordre de 10-26s. On remarque : « Pour qu’il y ait intrication, il faut que les parties d’un système quantique aient interagi. » Cela signifie qu’un système quantique constitué par intrication reste système quantique qu’elle que soit l’évolution spatio-temporelle des parties le constituant. C’est-à-dire que théoriquement la fonction d’onde (objet mathématique) spécifique du système constitué est indestructible jusqu’à ce qu’il soit procédé à une mesure sur l’une des parties. En ce qui concerne mon hypothèse que l’intrication se constate parce que l’observateur est aveugle vis-à-vis de Δt de l’ordre de 10-26s, cela pourrait être testé avec deux observateurs : l’un dans son laboratoire au repos qui produit l’intrication, l’autre dans un mobile se déplaçant avec une vitesse relative importante et grâce à ce que l’on sait avec la relativité restreinte, pour cet autre, le Δt deviendrait > à la durée du point aveugle de l’observateur et dans ce cas, dans son référentiel, il n’observerait pas d’intrication. Voir article du 29/10/2015 : « L’univers n’est pas si bizarre si… »

 

[1] Dans la revue ‘Pour la Science’, Hors-série, Mai-Juin 2020, p.60 : « Le darwinisme quantique à l’heure des tests »

[2] C’est autour de cette problématique que les physiciens Niels Bohr et Albert Einstein se sont amicalement, mais fermement, opposés l’un à l'autre. Bohr considérait que la physique quantique obligeait à bouleverser les théories rendant compte du rapport que nous avons avec ce qu'on nomme par commodité « la réalité ». Einstein pensait, lui qu’il était prématuré de conclure de la sorte.

[3] ‘Un pont entre deux mondes’

Partager cet article

Repost0
13 avril 2020 1 13 /04 /avril /2020 10:23

La quête d’une nouvelle physique avec le programme de ‘Physique au-delà des Collisionneurs’. (The quest for new physics with the ‘Physics Beyond Collider’ program)

Cet article que j’ai obtenu dans ‘Nature’ le 6/04, nous dit à quel point l’horizon pour une nouvelle physique est bouché tant sur le plan expérimental que théorique et en conséquence tous les indices qui pourraient servir de porte d’entrée vers cette nouvelle physique appelée sont répertoriés et analysés. L’équipe de trois physiciens qui a présenté cet article qui constitue un rapport de synthèse ne s’aventure pas au-delà d’une perspective de prolongement du modèle standard (SM). Il est ancré que l’impasse actuelle ne peut pas être due aux processus d’une accumulation de surestimations et d’extrapolations de concepts exploités dans le cadre de la théorie quantique des champs. Rebrousser chemin semble inenvisageable, on le constate en ce qui concerne les neutrinos qui sont toujours affublés d’attributs puisés dans le vivier, pour eux étriqué, du SM, comme par exemple d’une masse d’inertie alors que selon ma conviction les neutrinos sont les vecteurs d’une physique autre que celle qui contribue à caractériser le SM. Cet article est intéressant car en creux il nous permet d’évaluer tout le chemin qui reste à parcourir.

Je n’ai pas traduit toute la partie de l’article qui indique tous les sites expérimentaux qui permettraient de mener des expériences pour résoudre les inconnues citées ci-après. Ce que je peux vous dire c’est que quelques-unes ont été déjà réalisées et ont donné des résultats négatifs dans les limites des précisions des résultats expérimentaux.

            Présentation

Ces dernières années, l’intérêt pour les méthodes complémentaires pour les collisionneurs à haute-énergie-frontière pour étudier la physique des particules élémentaires et des forces a augmenté. Ce développement est motivé par les résultats négatifs jusqu’à présent des recherches de nouvelles particules avec de fortes masses au Grand collisionneur de hadrons, et par des tentatives théoriques de rendre compte des masses de neutrinos et de résoudre des énigmes cosmologiques telles que la matière noire, l’énergie sombre et l’asymétrie de la matière-antimatière dans l’Univers. Traditionnellement, le CERN a accueilli une multitude de projets d’accélérateur et de non-accélérateur sous la frontière de haute énergie, dans lequel plus d’un millier de physiciens sont actuellement impliqués. L’étude Physics Beyond Colliders (PBC) a été lancée il y a trois ans pour explorer l’avenir de ce domaine. Nous donnons ici un aperçu des diverses propositions de la PBC, allant de l’exploration du secteur obscur aux mesures de précision des processus fortement interactifs. La méthodologie utilisée pour comparer la portée de ces projets — basée sur un ensemble de modèles de référence communs — a suscité l’intérêt pour les communautés tout autant des collisionneurs, des neutrinos, ainsi que des non-accélérateurs et peut fournir un aperçu complet de la façon dont la plage des paramètres pour la physique au-delà du Modèle Standard devrait être explorée dans le contexte mondial.

            Principalement

La physique des particules fondamentales se trouve actuellement dans la position intéressante d’être absolument certaine qu’il doit y avoir une physique au-delà du Modèle Standard actuel (SM), décrivant les particules élémentaires et les forces faibles, électromagnétiques et fortes, tandis qu’en même temps elle fait face au défi qu’il semble extrêmement difficile de trouver cet au-delà. Des preuves convaincantes de la cosmologie suggèrent que 95% de toute la matière et l’énergie dans l’Univers se compose de matière noire (DM) et d’énergie sombre, non décrites au sein du SM, bien que la grande majorité des expériences sur Terre sont en accord avec une précision étonnante avec les prédictions du SM. Il existe deux façons de concilier au-delà de la physique du Modèle standard (Beyond Standard Model : BSM) avec une non-observation dans les expériences actuelles : « les nouvelles particules pourraient être soit très massives, soit très faiblement interactives avec le SM »

Motivations théoriques

Avant sa découverte, la masse boson de Higgs était attendue dans la fourchette autour de 100-1.000 GeV sur la base des considérations de cohérence du SM à des énergies supérieures à 1 TeV (réf. 5). La situation a maintenant fondamentalement changé parce que le SM, avec le boson de Higgs d’environ 125 GeV, ne donne aucune indication claire de l’endroit où la nouvelle physique pourrait être trouvée. La quête de la physique BSM nécessite une vaste gamme de masses de particules et de couplages à explorer. Les collisionneurs à haute énergie tels que le Grand collisionneur de hadrons (LHC) et les machines proposées comme le collisionneur linéaire international, le collisionneur linéaire compact ou le collisionneur circulaire futur, sont cruciaux pour l’observation directe des particules putatives très massives. Des expériences complémentaires à faible énergie mais à haute intensité ou précision, comme nous l’avons vu dans le cadre du programme PBC, recherchent des particules à faible masse et à faible interaction, ou à très haute masse, ces dernières devenant accessibles grâce à leurs effets indirects sur les observables. Bien qu’il n’existe actuellement aucune preuve décisive de déviations de la part du SM dans le cadre d’expériences de haute intensité ou de précision, quelques indices significatifs nécessitent une enquête plus approfondie.

Les énigmes cosmologiques, ainsi que les anomalies actuelles, pourraient s’expliquer par l’existence d’un secteur sombre — de nouvelles « particules cachées » qui ne portent aucune charge de jauge du SM et qui interagissent donc faiblement avec la matière ordinaire, ou/et qui vivent très longtemps. Dans le cadre de l’étude PBC, un ensemble de modèles de référence représentant des extensions prospectées et bien motivées du SM ont été définis. Ces modèles sont basés sur l’idée de portails vers un secteur sombre qui sont les interactions les plus simples entre les particules SM et les nouvelles particules cachées. En particulier, l’étude PBC se concentre sur les modèles suivants.

Photons noirs avec et sans particules DM supplémentaires

Les interactions du SM proviennent de trois groupes de jauge donnant lieu au photon pour l’interaction électromagnétique, les bosons W+ et W- et Z0 pour l’interaction faible et les gluons pour l’interaction forte. Le photon est le transporteur de force le plus simple parce qu’il ne porte pas de charge et ne se couple donc pas à lui-même. Une potentielle extension minimale du SM est donc par le biais d’un « photon sombre » supplémentaire qui ne correspond pas à des particules massives de SM. En conséquence, la seule et potentielle interaction très faible du photon noir avec une particule SM est via un petit mélange avec le photon, résultant en une petite probabilité de conversion du photon noire en un photon. Cette extension, la plus simple du SM, des interactions de jauges par une additionnelle particule semblable-photon (photon-like) a beaucoup d’applications dans la construction du modèle de DM.

Leptons neutres lourds

Tous les fermions chargés du SM existent dans une version gauche et droite (naïvement, la main se réfère au sens de la rotation du spin au regard de la direction du mouvement). Les neutrinos non chargés n’ont été observés que comme particules gauches. Cependant, il semble naturel (sic) pour les neutrinos d’avoir des homologues droits. Semblable aux photons sombres, ces neutrinos droits n’interagiraient que par le biais de petits mélanges avec les neutrinos du SM. Les neutrinos droits peuvent jouer un rôle dans l’explication des petites masses de neutrinos, de la matière noire (DM), et aussi à propos de la domination de la matière sur l’antimatière dans l’Univers.

Nouvelles particules scalaires

D’une manière générale, les particules scalaires, ne portant ni spin ni charge, sont les particules les plus simples imaginables. L’interaction la plus directe de scalaires supplémentaires avec le SM serait par le mélange avec le seul autre scalaire fondamental connu, c’est-à-dire le boson de Higgs. S’ils sont couplés au boson de Higgs, d’autres scalaires pourraient être en mesure de trouver des solutions au problème dit de la hiérarchie, qui fait référence au casse-tête de la raison pour laquelle l’échelle énergétique des interactions faibles est tellement plus petite que celle de la gravité. De nouvelles particules scalaires ont également été discutées en relation avec la DM.

Axions et particules axions-semblables (axion-like)

Les axions et les particules de type axions sont des particules (pseudo-)scalaires. Contrairement aux nouveaux scalaires dont il est question ci-dessus, ils sont spéciaux en ce sens qu’ils sont considérés comme des restes d’une symétrie sous-jacente. Pour cette raison, on s’attend à ce que les axions et les particules axion-like soient légères et que leurs interactions soient fortement supprimées. Des axions ont été proposés pour expliquer la symétrie parité (miroir) de l’interaction forte, démontrée avec une grande précision par le moment du dipôle électrique (EDM) du neutron observé nul. Les particules axions-like sont également de bons portails vers la DM et sont même des candidats DM prometteurs eux-mêmes.

Bien que ces modèles de référence ne constituent pas une liste exhaustive de modèles DM et du secteur obscur, ils fournissent un moyen utile de comparer les sensibilités des différentes expériences et de voir comment ils se complètent les uns les autres. Ils fournissent également une carte des zones cibles prometteuses suggérées par les problèmes ouverts de la physique des particules et fournissent des indices actuels d’anomalies expérimentales.

En plus de la nécessité d’une nouvelle physique, il faut reconnaître que même le SM n’est pas encore entièrement compris. En particulier la théorie des interactions fortes : chromodynamique quantique (QCD)…

Anomalies comme indices potentiels pour la nouvelle physique

Un petit nombre de mesures et d’observations peuvent indiquer par exemple des écarts aux prévisions du SM au niveau de deux à quatre ‘écarts standard’ (σ). Ces indices peuvent être les premiers signes d’une découverte imminente d’une nouvelle physique et fournir une incitation attrayante pour la construction de modèles théoriques. À leur tour, ces modèles théoriques permettent alors de concevoir de nouveaux, et plus significativement, différents tests pour interpréter ces anomalies. Cependant, il est important de noter que la signification usuelle ne couvre généralement que les incertitudes statistiques et les erreurs systématiques connues. Par conséquent, des expériences indépendantes pour mesurer les quantités en question sont souhaitables pour confirmer la véracité des observations anormales. Dans ce qui suit, nous discutons brièvement des indices les plus intrigants.

Anomalies B

La désintégration des B-mésons montrent plusieurs écarts de 2 à 3 σ par rapport aux prévisions du SM. Notamment, dans le modèle SM, on s’attend à ce que le couplage de jauge des différents leptons (e, µ ou τ) soient égaux. Pourtant, les mesures indiquent une violation potentielle de cette universalité attendue. Les extensions appropriées du SM (par exemple, basées sur une théorie effective de champ) permettent une explication sans violer d’autres contraintes expérimentales.

(g - 2) du muon

La valeur du moment du dipôle magnétique du muon peut être calculée et mesurée avec une précision remarquable. Il s’agit donc d’un test de précision classique du SM. La mesure de référence indique une déviation de 3σ à 4σ par rapport aux attentes du SM (notamment les incertitudes théoriques et expérimentales sont de taille similaire). Les explications pourraient provenir de corrections quantiques dues à la faible échelle de l’ordre de 100Gev de particules avec des couplages O(1) ou avec des particules beaucoup plus légères de 10 à 100 Mev avec couplages O(10-3). Un exemple minimal de ce dernier type — un photon noir — fournit un exemple intéressant de l’endroit où le modèle théorique a conduit à un test expérimental. Ce test a conduit à une expérience avec une cible fixe avec des collisionneurs à faible énergie a jugé que le photon noir n’était pas une explication possible. D’autres modèles simples dans ce domaine restent viables. Une nouvelle expérience prend actuellement des données au Fermilab aux États-Unis avec la promesse de réduire l’incertitude expérimentale sur (g - 2) par un facteur de quatre.

Anomalie de Béryllium

Des expériences menées à l’installation d’Atomki en Hongrie ont étudié les paires d’électron-positron émises dans la désintégration des états excités de 8Be et 4He. Dans les deux cas, ils trouvent plus d’événements que prévu à de grands angles entre l’électron et le positron. Une explication potentielle pourrait être un nouveau boson qui est émis du noyau à faible vitesse et se désintègre par la suite dans une paire électron-positron. Dans le référentiel au repos de cette particule, l’angle électron-positron serait de 180 degrés et, en raison de la faible vitesse, l’angle dans le référentiel du laboratoire ne serait que légèrement comprimé. Cela indiquerait une masse du boson de 17 MeV.

Anomalies de refroidissement

Plusieurs systèmes astrophysiques tels que les naines blanches et les étoiles à branche horizontale, ainsi que les restes de supernova, semblent refroidir légèrement plus vite que prévu. Cela pourrait indiquer une perte d’énergie supplémentaire par l’émission de particules légères extrêmement faiblement couplées, (masses inférieures à 100 keV). Si de telles particules sont produites à l’intérieur d’une étoile, elles partent immédiatement. Cela contraste avec, par exemple, les photons qui sont dispersés plusieurs fois sur leur chemin vers la surface, réduisant ainsi la perte d’énergie via cette route. Pour cette raison, des particules de lumière extrêmement faiblement couplées peuvent entraîner une perte d’énergie importante malgré une force d’interaction relativement faible.

Transparence des rayons gamma

Les rayons gamma à haute énergie qui se propagent dans l’Univers perdent de l’énergie par les collisions avec la lumière de fond extragalactique, créant ainsi des paires électron-positron. Les observations constatent qu’il y a plus de photons à haute énergie que prévu, ce qui indique un moyen de contourner ce mécanisme d’épuisement énergétique. Une option est qu’en présence de champs magnétiques, certains photons se transforment en bosons très légers, notamment en particules axions-like. Ceux-ci voyagent alors sans être absorbés par la création de paires et finalement se reconvertissent en photons.

 

 

Partager cet article

Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens