Overblog
Suivre ce blog Administration + Créer mon blog
1 septembre 2018 6 01 /09 /septembre /2018 15:15

Les physiciens du LHC adoptent une approche de la force brute pour la chasse aux particules

« Le collisionneur de particules le plus puissant du monde n'a pas encore permis la mise en évidence d’une nouvelle physique. Maintenant certains physiciens se tournent vers une stratégie différente. »

L’article au titre ci-dessus je l’ai obtenu le 14 Août sur le site de la revue ‘Nature’ et je soumets à votre réflexion ma traduction un peu laborieuse. Je ne prévois pas de commenter l’article parce qu’il est totalement explicite et il renvoie à mon article du 16/01/2016 : ‘Et si notre pensée était mal placée’. Pour mon compte cet article est très déroutant et il pose très sérieusement la question de l’avenir du métier de physicien dans toute son ampleur qu’il soit théoricien ou expérimentateur. Quels seront la fonction et le rôle de ceux qui en toute conscience se situeront en arrière de la ‘Learning Machine’ attendant qu’elle fasse de la physique à leurs places. A quels renoncements (transferts) devront-ils consentir volontairement ou involontairement ? car ce n’est pas qu’une nouvelle technique de recherche qui est proposée. A chacun des lecteurs de s’interroger sur cette problématique et de se faire une opinion sur un sujet qui certainement, maintenant qu’il est posé, sera l’occasion de longs débats.

Ci-dessous la traduction de l’article :  

« Une nouvelle approche controversée de la physique des particules commence à s’imposer au grand collisionneur de hadrons (LHC). Le détecteur Atlas du LHC a officiellement relégué au passé la méthode courante qui correspondait au meilleur espoir pour détecter des phénomènes qui correspondent à un au-delà du modèle standard. Puisque les techniques conventionnelles ont été jusqu’à présent stériles une autre façon d’exploiter les données massives collectées est proposée.

Jusqu'à présent, presque toutes les études au LHC ont impliqué des « recherches ciblées » pour mettre en évidence la signature de théories favorites. La collaboration d'Atlas décrit maintenant sa première recherche « générale » et globale des données du détecteur, dans une pré-impression affichée le mois dernier sur le site d’arXiv, et aussi proposée au Journal de Physique Européen C. l’autre détecteur majeur du LHC : CMS, travaille sur un projet similaire.

« Mon objectif est d'essayer de trouver une façon vraiment nouvelle de chercher de la physique nouvelle » - être piloté par les données plutôt que par la théorie, dit Sascha Caron de l'Université Radboud de Nimègue aux Pays-Bas, qui a contribué à la décision concernant Atlas. Les recherches générales sont de mêmes natures à celle particulière qui consiste à vérifier un texte entier pour y trouver un mot particulier. Ces vastes recherches pourraient fournir leur plein potentiel dans un avenir proche, lorsqu'elles seront combinées à des méthodes de plus en plus sophistiquées d'intelligence artificielle (A.I)

Les chercheurs du LHC espèrent que les méthodes les mèneront à leur prochaine grande découverte, quelque chose qui n'est pas arrivé depuis la détection du boson de Higgs en 2012, qui a mis en place la dernière pièce du modèle standard. Développé dans les années 1960 et 1970, le modèle décrit toutes les particules subatomiques connues, mais les physiciens soupçonnent que l'histoire ne s’arrête pas là - la théorie ne tient pas compte de la matière noire, par exemple. Mais de grandes expériences comme celles réalisées au LHC n'ont pas encore fourni de preuves pour un telle existence. Cela signifie qu'il est important d'essayer de nouvelles choses, y compris des recherches générales, explique Gian Giudice, qui dirige le département de physique théorique du CERN et n'est pas impliqué dans des expériences. "C'est la bonne approche, à ce stade."

Collision

Le LHC provoque la collision de millions de protons par seconde à des énergies colossales pour produire une profusion de particules de désintégration, qui sont enregistrées par des détecteurs tels que Atlas et CMS. Beaucoup de différents types d'interactions de particules peuvent produire les mêmes débris. Par exemple, la désintégration d'un Higgs peut produire une paire de photons, mais le peuvent aussi d'autres processus plus ordinaires. Donc, pour rechercher le Higgs, les physiciens ont d'abord multiplié des simulations pour prédire combien de ces paires d'imposteurs sont prévisibles. Ils ont ensuite compté toutes les paires de photons enregistrées dans le détecteur et les ont comparées à leurs simulations. La différence — un léger excès de paires de photons au sein d'une gamme étroite d'énergie — était la preuve que le Higgs existait.

Atlas et CMS ont exécuté en plus de ces recherches ciblées des centaines d’autres pour rechercher des particules qui ne sont pas prévues dans le modèle standard. Beaucoup de celles-ci ont cherché des saveurs différentes de la supersymétrie, une prolongation théorisée du modèle standard qui inclut les particules hypothétiques, par exemple le neutralino, un candidat pour la matière noire. Mais ces recherches sont jusqu'ici infructueuses.

Cela laisse ouvert la possibilité qu'il y aurait des particules exotiques produisant des signatures que personne n'a pensé jusqu’à présent – quelque chose que des recherches générales ont plus de chance de trouver. Les physiciens n'ont pas encore regardé, par exemple, des événements qui ont produit trois photons au lieu de deux, dit S. Caron. « Nous avons des centaines de personnes qui regardent la désintégration du Higgs et la supersymétrie mais peut-être que nous manquons quelque chose que personne n'a pensé, » dit Arnd Meyer, un membre de CMS à l'Université d'Aix-la-Chapelle en Allemagne.

Alors que les recherches ciblées ne regardent généralement que quelques-uns des nombreux types de produits de désintégration, la dernière étude a examiné plus de 700 types à la fois. L'étude a analysé les données recueillies en 2015, la première année après la mise à niveau du LHC en augmentant l'énergie des collisions des protons dans le collisionneur de 8 téraélectronvolts (TEV) à 13 TEV. Au CMS, Meyer et quelques collaborateurs ont mené une étude de validation de principe, qui n'a pas été publiée, sur un plus petit ensemble de données du run de 8 TEV.

Aucune expérience n'a fourni de déviations significatives jusqu'à présent. Ce n'était pas surprenant, disent les équipes, parce que les ensembles de données étaient relativement petits. Atlas et CMS sont maintenant à la recherche des données collectées en 2016 et 2017, une mine de dizaines de fois plus importante.

Problématique des statistiques

L'approche « a des avantages clairs, mais aussi des lacunes claires », dit Markus Klute, un physicien au Massachusetts Institute of Technology à Cambridge. Klute fait partie de CMS et a travaillé sur les recherches générales au cours des expériences précédentes, mais il n'a pas été directement impliqué dans les études plus récentes. Une limitation est la puissance statistique. Quand une recherche ciblée trouve un résultat positif, il existe des procédures normalisées pour calculer son importance ; cependant quand on jette un grand filet, quelques faux positifs sont amenés à surgir. C'est une des raisons pour lesquelles les recherches générales n'ont pas été favorisées dans le passé : de nombreux physiciens craignaient qu'ils ne mènent trop souvent dans des impasses. Mais les équipes disent qu'elles ont beaucoup investi pour rendre leurs méthodes plus solides. « Je suis excité que cela soit possible dans le futur proche », dit Klute.

La plupart des personnes ressources et décisionnaires des expériences du LHC travaillent encore sur des recherches ciblées, et ceci pourrait ne pas changer de sitôt. « Certaines personnes doutent de l'utilité de telles recherches générales, étant donné que nous avons tant de recherches qui couvrent exhaustivement une grande partie de l'espace des paramètres », explique Tulika Bose, de l'Université de Boston, au Massachusetts, qui aide à coordonner le programme des recherches sur CMS.

De nombreux chercheurs qui travaillent sur des recherches générales disent qu'ils ont finalement envie d'utiliser l'IA pour éliminer complètement les simulations de modèle standard. Les partisans de cette approche espèrent utiliser la technique de ‘la learning machine’ pour trouver des modèles dans les données sans aucun biais théorique. « Nous voulons inverser la stratégie — laisser les données nous dire où chercher par la suite », dit Caron. Les informaticiens poussent également vers ce type de « non supervisé » de ‘la learning machine’ - comparé au type supervisé, dans lequel la machine « apprend » en passant par des données qui ont été marquées précédemment par les humains. » Article dans la revue : Nature 560, 293-294 (2018)

 

         L’annonce suivante du 28/08, pourrait reporter à plus tard les positions radicales de Sascha Caron et les autres et plutôt donner raison à Tulika Bose, mais pour l’instant satisfaisons nous de l’annonce suivante :

« Six ans après sa découverte, le boson de Higgs a enfin été observé en se désintégrant en des particules fondamentales connues sous le nom de : quark Bottom. La découverte, présentée aujourd'hui au CERN par les équipes d’Atlas et de CMS au grand collisionneur de hadrons (LHC), est compatible avec l'hypothèse que le champ quantique omniprésent qui engendre le boson de Higgs attribue également de la masse au Quark Bottom. Les deux équipes ont présenté leurs résultats pour publication aujourd'hui. »

En 2017, ils avaient annoncé qu'ils commençaient à voir l'existence de ces couplages avec les quarks b. Mais, techniquement, le signal observé n'était guère au-dessus de 3 sigmas donc insuffisant pour faire des affirmations solides. Pourtant il est prédit que le mode de désintégration de H par la voie du b est le plus fréquent, de l’ordre de 60%. Avant l'observation du canal de désintégration H en quark et antiquark b, un autre canal de désintégration, avec les quarks et antiquarks t, avait été observé.

Cette découverte reste tout de même une belle performance à porter au crédit du travail complexe et acharné des physiciens et ingénieurs à l'origine de l'aventure du LHC depuis des décennies. Elle a nécessité de modéliser le bruit de fond produit par les myriades de particules générées par chaque collision pour en extraire les rares évènements intéressants (sic) à l'aide de techniques d'analyse des données sophistiquées.

            Les porte-parole des collaborations Atlas et CMS ont fait des déclarations au sujet de ce travail remarquable dans un communiqué du CERN. Ainsi pour Karl Jakobs (Atlas) : « Cette observation constitue une étape marquante dans l'étude du boson de Higgs. Elle montre que les expériences Atlas et CMS sont parvenues à une compréhension approfondie de leurs données, et à une maîtrise des bruits de fond qui dépasse les attentes. Atlas a désormais observé tous les couplages du boson du Higgs aux quarks lourds et aux leptons de troisième génération ainsi que l'ensemble des modes de production principaux. »  En ce qui concerne Joel Butler (CMS) : « Depuis la première observation, dans une seule expérience, de la désintégration du boson de Higgs en leptons tau, il y a un an, CMS, de même que nos collègues d'Atlas, a observé le couplage du boson de Higgs aux fermions les plus massifs : le tau, le quark t, et à présent le quark b. La magnifique performance du LHC, et les techniques modernes d'apprentissage automatique nous ont permis d'aboutir à ce résultat plus tôt que prévu. »

Enfin selon Eckhard Elsen, directeur de la recherche et de l'informatique du Cern : « Les expériences continuent à se concentrer sur la particule de Higgs, qui est souvent considérée comme une porte d'accès à la nouvelle physique. Ces très beaux résultats, obtenus rapidement, montrent l'intérêt de nos projets d'amélioration du LHC visant à augmenter substantiellement la quantité de données. Il apparaît désormais que les méthodes d'analyse atteignent la précision requise pour l'exploration de la totalité du paysage de la physique, y compris, nous l'espérons, la nouvelle physique qui est restée si bien cachée jusqu'à présent. »

            « Les techniques modernes d'apprentissage automatique » est certainement l’expression qui correspond au mieux à « Learning Machine ». On doit remarquer que E. Elsen est directeur de la recherche et de l’informatique, c’est-à-dire que l’on ne peut pas être un chercheur physicien sans être informaticien. Cela ne doit pas être spécifique à la recherche en physique mais ici l’inclusion est inexorablement établie. Que doit-on en penser?

Partager cet article

Repost0
25 août 2018 6 25 /08 /août /2018 11:34

  Young ; Ball ; Damasio ; Buonomano ; arXiv.

Il est vrai que j’ai souvent traité ce sujet dans de nombreux articles, ce ressassement ne m’est pas personnelle, ce sujet interpelle la communauté scientifique depuis qu’il est expérimentalement posé, et comme en son temps Feynman le disait : « Si nous pouvions comprendre ce qui se passe dans cette expérience trompeusement simple, nous pénétrerions au cœur de la théorie quantique — et peut-être que toutes ses énigmes se dissoudront. »

Cette expérience trompeusement simple est celle des fentes d’Young. Le résultat conséquent à cette expérience c’est que nous ne savons toujours pas si nous pouvons considérer un objet quantique comme une onde et une particule ou bien considérer comme une onde ou une particule. N. Bohr, un des plus éminents fondateurs de la mécanique quantique a toujours proclamé que c’était le ‘ou’ qui s’imposait puisque l’apparaître particule ou l’apparaître onde dépendait des conditions de l’observation. Ainsi dans l’effet photoélectrique, le photon est (apparaît) granulaire (particule) tandis qu’avec les fentes d’Young si on est ignorant de la trajectoire réelle du photon il est (apparaît) onde. Et il est expérimentalement confirmé lorsque l’observateur connaît la trajectoire suivie de l’objet quantique, quel qu’il soit, l’objet quantique apparaît particule sinon c’est l’apparaître onde qui s’impose.

Ceux qui optent pour le ‘et’ : d’onde et particule, adhèrent à l'idée alternative proposée par David Bohm dans les années 1950. Dans ce cas, les objets quantiques sont à la fois particule et onde, l’onde en quelque sorte « pilotant » la particule à travers l'espace tout en étant sensible aux influences au-delà de l'emplacement de la particule.

Sur le site de ‘Nature’, le 9 Août, un article de Philip Ball réactive la problématique toujours actuelle de l’impossibilité de trancher entre le ‘et’ et le ‘ou’ avec ce titre explicite : ‘Deux fentes, l’enfer d'une énigme quantique’ à l’occasion de la publication du livre d’Anil Ananthaswamy : ‘Through Two Doors at Once’ ; ‘A Travers deux Portes à la Fois’. Ph. Ball réactive mais prend en compte les résultats expérimentaux très récents qui apportent des éléments nouveaux que j’ai déjà présentés dans l’article du 05/08/2017 et premièrement le 03/07/2017 : « Comment la ruse quantique peut brouiller cause et effet[1] ». Dans cet article, les auteurs nous disent en conclusion : « Nous réalisons maintenant qu’en physique quantique, ce n’est pas exactement ce que vous faites qui compte, mais ce que vous savez (sic) »

A ce niveau du développement de notre raisonnement, je propose de citer directement des extraits de l’article Ball : « Dans certaines versions, la nature semble magiquement discerner nos intentions avant de les promulguer — ou peut-être rétroactivement pour modifier le passé. Dans d'autres, le résultat semble dépendre de ce que nous savons, pas de ce que nous faisons. Dans d'autres encore, nous pouvons déduire quelque chose d'un système sans le regarder. Dans l'ensemble, l'expérience à double fente semble, à nouveau emprunter à Feynman le mot : "Tordu".

A propos de cette affirmation troublante : « le résultat semble dépendre de ce que nous savons », qui est le fruit du résultat d’une expérience solide réalisée par une équipe de chercheurs à Vienne qui m’avait convaincu, quelques jours après je l’avais évoqué avec un éminent scientifique étranger, d’un laboratoire concurrent qui m’avait répliqué : « Cela n’a aucun intérêt, c’est de la com ! ».  Evidemment, je suis resté coi. Je suis extrêmement satisfait de retrouver sous le plume de Ph. Ball l’expression de la valeur de cette remarquable nouveauté qui implique un rôle éminent de l’observateur, car c’est au cœur de ma conception de la physique. Pour de nombreux physiciens ce résultat est troublant, il est totalement à contrecourant de leurs convictions, des fondements de la physique moderne depuis Galilée.

Après cet aparté, je poursuis la citation de Ph. Ball : « Tu peux t'y habituer (puisque cela fait plus d’un siècle que l’on connaît ce résultat). Ce qui est étrange, c'est que le schéma d'interférence reste — accumulant sur de nombreux impacts de particules — même si les particules passent à travers les fentes les unes après les autres. Les particules semblent interférer avec elles-mêmes (sic). Plus étrange, le motif disparaît si nous utilisons un détecteur pour savoir quelle fente la particule emprunte : on retrouve alors un résultat spécifique à celui d’une particule, sans aucune spécificité ondulatoire. Plus étrange que tout, cela reste vrai si nous retardons la mesure jusqu'à ce que la particule ait traversé les fentes (mais avant qu'elle ne frappe l'écran). Et si nous faisons la mesure, puis si nous supprimons le résultat sans le regarder, les interférences réapparaissent. Ce n'est pas l'acte physique de la mesure qui semble faire la différence, mais l’"acte de le remarquer", comme le physicien Carl von Weizsäcker (qui a travaillé en étroite collaboration avec le pionnier de la mécanique quantique Werner Heisenberg) l’a indiqué en 1941.

Ananthaswamy explique que c'est ce qui est si étrange à propos de la mécanique quantique : il peut sembler impossible d'éliminer un rôle décisif de notre intervention consciente dans le résultat des expériences. Ce fait conduit le physicien Eugene Wigner à supposer qu’à un moment donné l'esprit lui-même provoque la « réduction » qui transforme une onde en une particule. »

A juste raison, Ph. Ball précise que si on arrive fondamentalement à décrypter les raisons qui font que l’observateur voit un apparaître ondulatoire ou un apparaître particule (grain d’énergie) selon les instruments d’observation exploités, alors d’autres énigmes de la mécanique quantique seront simultanément résolues. Citons, entre autres : l’intrication, le rôle de la décohérence dans l’émergence de la physique classique à partir des phénomènes quantiques, etc... Ball annonce aussi les nombreux ouvrages publiés et qui vont être publiés d’ici la fin de l’année, entre autres Adam Becker (2018) : ‘What is Real ?’, Jean Bricmont (2017) ‘Quantum Sense and Nonsense’, puis celui à venir de Sean Carroll, et le sien propre (2018) ‘Beyond Weird’.

Puisque cette énigme est posée depuis maintenant un siècle, avec l’événement de la mécanique quantique, cela signifie que les physiciens refusent d’aller puiser plus profondément dans l’arsenal des critères à partir desquels ils commentent et justifient les fondements de leurs résultats. Le premier de ces critères et qui est à leurs yeux intangible, c’est l’objectivité c’est-à-dire la non dépendance de l’observateur. Or la mécanique quantique suggère que l’observateur a une influence sur le résultat comme le rappelle Ph. Ball, en citant des commentaires historiques de certains physiciens. Or accepter un rôle quel qu’il soit à l’observateur qui influencerait le résultat scientifique conduirait à un effondrement de la croyance première de la place de la science physique parmi les autres sciences et conduirait à un chamboulement épistémologique (de type copernicien mais à l’envers) qui est toujours considéré comme inacceptable. C’est pourquoi la conclusion de l’expérience qui conduit à affirmer : « Nous réalisons maintenant qu’en physique quantique, ce n’est pas exactement ce que vous faites qui compte, mais ce que vous savez » est, comme j’ai pu directement l’entendre, maltraitée et d’une certaine façon glissée sous le tapis. Pour moi ce type de résultat était évidemment attendu.

Je viens de lire un livre d’Antonio Damasio : ‘l’Ordre étrange des choses’ : ‘La vie, les sentiments et le fabrique de la culture’ (édit : Odile Jacob : 2017). L’auteur tente, avec ce livre, de rendre compte la dynamique première qui est à la source de la vie la plus élémentaire jusqu’à la plus complexe des humains. Je cite :

P. 238 : « Dans les premiers chapitres du livre, j’ai expliqué que plusieurs aspects importants des réponses culturelles humaines ont été préfigurés par les comportements d’organismes moins complexes… Ils (les comportements sociaux) sont le produit de l’adaptation (naturelle et néanmoins extraordinaire) du processus vital aux injonctions de l’impératif homéostatique, défenseur aveugle des comportements individuels et sociaux les plus avantageux. Mon interprétation des origines biologiques de l’esprit humain créateur de culture met en avant le fait que c’est l’homéostasie qui a provoqué l’émergence de stratégies et de dispositifs comportementaux capables d’assurer le maintien et l’épanouissement de la vie chez les organismes simples et complexes, humains compris… P.239 : Dans les organismes constitués plus tard, après l’émergence des systèmes nerveux, l’esprit a pu faire son apparition, avec, en son sein, les sentiments et les images représentant le monde extérieur et ses relations avec l’organisme. Ces images étaient sous-tendues par la subjectivité, la mémoire et la raison ainsi, plus tard, que par le langage verbal et l’intelligence créatrice. Les instruments et les pratiques qui constituent les cultures et les civilisations (au sens traditionnel du terme) ont émergé par la suite. »

Cette citation de l’auteur que je privilégie, permet en partie de comprendre le cheminement de sa thèse. Je ne peux que recommander de lire cet ouvrage. Je prolonge avec quelques autres citations qui, à mon sens, justifieraient que les physiciens aient la curiosité de savoir ce que d’autres champs scientifiques permettent d’infèrer quant à l’émergence de l’intelligence humaine au sein de la nature. Et que cette intelligence se développe au fur et à mesure qu’elle prend le pas sur la nature en l’investissant et en développant son espace de compréhension et partant en accroissant son espace d’autonomie et de maîtrise à l’égard de celle-ci (soumission de celle-ci : était ce que Descartes préconisait avec force). C’est exactement ce que j’entends depuis que j’évoque l’hypothèse de l’être de la nature et l’être dans la nature ainsi que l’évolution de leur rapport. L’accroissement de l’espace de compréhension de l’intelligence humaine sur la nature, n’est-ce pas le propre de la recherche en science physique ? (Voir article du 23/08/2016 : ‘Décrire comment les humains interagissent avec la nature ? Comment ils évoluent grâce à cette interaction ?’[2])

Quelques autres citations du livre de A. Damasio :

P. 44 : « Les systèmes nerveux ont peu à peu activé un processus de cartographie (sic) du monde qui les entourait ; et l’intérieur de l’organisme était le commencement de ce monde alentour. Ce processus a rendu possible l’émergence de l’esprit – et des sentiments au sein de cet esprit. Cette cartographie était fondée sur diverses capacités sensorielles, qui finirent par inclure l’odorat, le goût, le toucher, l’ouïe et la vue. Comme nous l’expliquerons du chapitre IV au chapitre IX, la construction de l’esprit – et notamment des sentiments – a pour fondement les interactions entre le système nerveux et son organisme. La construction de l’esprit n’est pas une tâche réservée au système nerveux : elle est le fruit d’une coopération entre ces derniers et le reste de leur organisme. Il s’agit là d’une rupture avec la vision traditionnelle du cerveau seul créateur de l’esprit. »

P. 339 : « Les points évoqués, nous amènent à un autre aspect important concernant l’émergence de l’esprit, de la perception des émotions et de la conscience – émergence aux étapes étrangement ordonnées. Cet aspect majeur est toutefois subtil et passe aisément inaperçu. Il est lié à l’idée selon laquelle ni les différentes parties du système nerveux, ni le cerveau dans son ensemble ne peuvent créer ou alimenter à eux seuls les phénomènes mentaux… Pour dire les choses simplement, les cerveaux et les corps sont dans le même bain et produisent l’esprit de manière conjointe. Ce nouvel éclairage de la relation « corps cerveau » permet d’aborder d’innombrables questions philosophiques et psychologiques de manière plus constructive. Ce dualisme a la vie dure : il est né à Athènes, a été érigé en principe par Descartes, a résisté aux féroces assauts de Spinoza et a été intensément exploité par les sciences informatiques. Mais son temps est révolu. »

P. 343 : « Une fois prises en compte, ces émergences étrangement ordonnées nous offrent une nouvelle vue d’ensemble, de plus en plus précise. Pendant environ 3,5 milliards d’années, soit la majorité de l’histoire du vivant[3], de nombreuses espèces d’animaux et de plantes ont développé de multiples capacités permettant de détecter et de répondre aux stimuli du monde extérieur. Elles ont manifesté des comportements sociaux intelligents… Elles ne disposaient que des précurseurs de l’esprit, de la perception des émotions, de la pensée et de la conscience – et non de ces facultés en tant que telles.

 Il ne manquait à ces espèces que la capacité d’élaborer des images des objets et des événements réels survenant à l’extérieur et à l’intérieur de l’organisme. Les conditions nécessaires à l’apparition du monde des images et de l’esprit n’ont été réunies qu’environ un demi-milliard d’années plus tard, et l’esprit humain est encore plus récent : son apparition pourrait remonter à 100 000 à 200 000 ans seulement[4]. »

« Force est de constater que nous pouvons désormais parler des caractéristiques et du fonctionnement des organismes vivants et de leur évolution avec une relative certitude (sic), et que nous pouvons nous accorder sur l’âge approximatif de l’univers (environ 13 milliards d’années). Mais nous ne disposons d’aucune interprétation scientifique satisfaisante quant à l’origine et à la finalité de ce même univers ; d’aucune théorie expliquant l’alpha et l’oméga de notre réalité. Ces lacunes ont valeur d’avertissements. Elles nous rappellent que nos découvertes sont bien modestes et bien incertaines. Elles nous montrent, enfin, à quel point notre ouverture d’esprit doit être grande lorsque nous entreprenons d’explorer l’inconnu. »

Il est possible que le lecteur de cet article à ce niveau de la lecture se demande pourquoi j’associe le commentaire de l’article de Ph. Ball avec le travail de A. Damasio. En premier lieu, je veux préciser que l’impératif homéostatique qui est au cœur de la thèse de Damasio rend compte parfaitement de la dynamique du désir de savoir qui ne peut être assouvi car au-delà, il y a toujours quelque chose à comprendre parce qu’une bonne connaissance acquise ne ferme pas une porte mais elle en ouvre une autre voire plusieurs autres à la fois. C’est pourquoi je considère que les physiciens ont tort de croire qu’ils décryptent le monde réel, ils ne décryptent que le monde tel qu’il nous apparaît provisoirement étant donné nos capacités intellectuelles actuelles. Il est provisoirement un monde de vérités stables, celles que le plus grand nombre de physiciens partagent à un moment donné, jusqu’à ce que des vérités nouvelles s’imposent annulant les anciennes ou bien les englobant. Ainsi en sera-t-il de l’histoire de l’hypothèse du Big-Bang. L’histoire de la connaissance de la nature est et sera toujours devant nous c’est pourquoi nous sommes des êtres vivants habités par l’impératif homéostatique ou quelque chose d’équivalent, de toute façon il n’est pas possible d’ignorer la dynamique qui sans cesse nous propulse vers l’avant.

L’association de l’article de Ball et du livre de Damasio est pour moi totalement approprié et cela est explicite à la lecture de l’article du 05/08/2017 : ‘Appel d’offres’. Dans cet article, je propose une expérience qui permettrait de comprendre la raison pour laquelle nous avons un apparaître ondulatoire ou un apparaître particule suivant les conditions expérimentales et l’état de connaissance de l’observateur. Cette expérience je la propose parce que j’ai la conviction que l’espace-temps est un propre de l’homme, il n’est pas donné dans la nature (contrairement à ce que postule L. Smolin) et toute l’histoire du développement de la physique exclut aussi de pouvoir affirmer que le temps n’existe pas (comme l’affirme C. Rovelli) car cela revient à affirmer que les bonnes lois de la nature sont les lois qui annulent la ‘Présence’ du sujet pensant auteur de ces lois.

Damasio nous explique que dès la genèse la plus profonde du vivant un processus de cartographie s’est mis en place, voir citation de la page 44. Dans la genèse du vivant, l’espace joue un rôle vital, il contribue au développement du vivant, il est inscrit comme le temps[5] dans la texture du vivant, l’espace est comme le temps un composant du substrat du vivant, tous deux contribuent à l’installation de l’intelligence humaine. Quand est évoqué l’aptitude à la cartographie c’est bien de l’étendue spatiale dont il est question, concept qui est le même que celui de l’étendue spatiale qui caractérise une structure galactique, le même quand on mesure l’expansion de l’univers.

Antonio Damasio renforce l’hypothèse qui est à la base de mon projet d’expérience : ‘Appel d’offres’. Evidemment j’ai été très déçu que le site arXiv refuse en Août 2017 mon article puisque le modérateur m’a annoncé qu’il était un site pour physicien sérieux (sic). A bon entendeur salut.

 

[1] Dans le Journal Nature, volume 546, pages 590-592

[2] Dans cet article, j’avais indiqué : « A mon avis cette interaction ne peut pas évidemment être décryptée en temps réel, ni pendant des temps courts. C’est en puisant dans la profondeur des temps très longs qui correspondent à des durées significatives d’évolution jusqu’à l’émergence de l’homme moderne que nous pouvons repérer des évolutions de cette interaction avec la Nature »

[3] Hasard intéressant le 20 Août a été publié un article qui a pour titre : « Une échelle du temps pour l’origine et l’évolution de toute la vie sur terre » qui présente une nouvelle étude menée par des scientifiques de l'Université de Bristol qui ont utilisé une combinaison de données génomiques et fossiles pour expliquer l'histoire de la vie sur terre, de son origine à nos jours. Dans Nature Ecology & Evolution (2018). DOI: 10.1038/s41559-018-0644-x

 

[4] Voir article du 05/01/2018 : « Turing or not Turing ». Réfléchir à ce qu’il y a de commun et complémentaire entre les spéculations de ces deux scientifiques et de divergent. Cela justifie mon souhait que l’échange entre les femmes et les hommes de sciences dans des champs différents soit intense. C’est dans les divergences que se trouvent les sources des progrès de compréhensions.

[5] Voir article du 19/07/2017 en référence avec le livre de Buonomano : ‘Time and Brain’

Partager cet article

Repost0
3 août 2018 5 03 /08 /août /2018 06:18

Quelques nouvelles récentes du ciel

1 - Celles du ciel de notre galaxie : celles-ci sont obtenues grâce à la croissance extraordinaire de la performance des instruments en astrophysique. En l’occurrence, l’instrument, entre autres[1], qui nous permet d’obtenir une connaissance plus assurée de la physique en jeu au cœur de la Voie Lactée s’appelle GRAVITY[2]. Cet instrument est en activité depuis 2016 et il permet l’observation avec une précision inégalée des propriétés physiques que met en jeu le trou noir supermassif, distant de la Terre de 25000 années-lumière, et occupant le centre de notre galaxie. Ces observations sont une réussite technique d'autant plus significative que la communauté scientifique a pu suivre l’évolution de l'étoile S2 ayant une orbite elliptique autour du trou noir supermassif (Sgr A*) passant le 18 Mai 2018 au plus près de ce dernier (périastre), à seulement une distance de 18 heures-lumière soit 120 fois la distance Terre-Soleil, soit encore 1500 fois le rayon de Schwarzschild du trou noir. Dans cette position spécifique S2 parcourt sa trajectoire à presque 2,7 % de la vitesse de la lumière soit 8.000 km/s.

L’objectif de cette observation étant d’évaluer si dans ces conditions extrêmes les prédictions de la loi de la relativité générale sont encore correctes. Plusieurs articles viennent d’être publiés et ils rendent compte d’une confirmation de la validité de la loi lorsque le champ gravitationnel devient de plus en plus intense au fur et à mesure que l’on avoisine Sgr A* qui concentre une masse égale à 4 millions de fois la masse solaire.

Cela fait plus de vingt ans que les astronomes suivent l’évolution de l’étoile S2 sur sa trajectoire autour de notre trou noir supermassif. Lorsque S2 réalisa en 2002 sa précédente approche au plus près du trou noir les télescopes n’étaient pas suffisamment précis pour réaliser les mesures nécessaires. En 2018, au passage au périastre, on a pu constater le décalage gravitationnel vers le rouge. La lumière (La lumière est l'ensemble des ondes électromagnétiques visibles par l'œil humain, c'est-à-dire comprises dans des longueurs d'onde de 380nm (violet) à 780nm (rouge). La lumière est intimement liée...) émise par l'étoile est étirée vers de plus grandes longueurs d'onde (Une onde est la propagation d'une perturbation produisant sur son passage une variation réversible des propriétés physiques locales. Elle...) par l'intense champ gravitationnel généré par le trou noir. Et la variation de longueur (La longueur d’un objet est la distance entre ses deux extrémités les plus éloignées. Lorsque l’objet est filiforme ou en forme de lacet, sa longueur...) d'onde de la lumière issue de S2 est en parfait accord avec celle déduite de la théorie de la relativité générale d'Einstein. Des tests très concluants avaient déjà été réalisés dans le cadre du champ gravitationnel terrestre mais ce test en champ gravitationnel aussi élevé est une première. A propos de ce résultat remarquable, L. Sacco dans Futura Science (26/07) exprime un point de vue que je veux privilégier et que je reprendrai dans un article à venir. De toute façon il est à méditer présentement au pied de la lettre et j’invite les lecteurs à se considérer concernés par ce qui suit car il y là une concentration pertinente de problématiques qui concerne le ciel de la pensée humaine : « La théorie d’Einstein de la relativité générale est plus que centenaire. Bien plus que pour son découvreur, elle témoigne de la mystérieuse capacitée de l'esprit humain à anticiper la structure de la réalité, bien loin de l'univers quotidien qui a accompagné l'évolution du cerveau d'Homo, en se basant sur des mathématiques qu'on n'y trouve pas. Toute confirmation des prédictions de la relativité générale peut être vue comme un triomphe mais également comme un désastre car on attend impatiemment de pouvoir arpenter et comprendre de nouveaux aspects plus profonds et plus vastes du cosmos. Cela serait justement possible si la théorie d'Einstein montrait ses limites. »

Le décalage, observé, vers le rouge d’origine gravitationnel des photons émis par l’étoile S2, laisse penser à une réduction d’énergie de ceux-ci car ils s’extraient avec difficulté de l’intense champ gravitationnel de Sgr A*. Cette explication est en accord avec le fait que la relativité générale met en évidence une interdépendance fondamentale entre matière, espace et temps et en l’occurrence l’écoulement, le battement (tic-tac), du temps ralentit plus le champ de matière est élevé. En conséquence T, la période temporelle du photon s’accroit à cette occasion. Et la longueur d’onde de la lumière λ = CT augmente d’où le décalage vers le rouge.

Une autre confirmation de la relativité générale est attendue : d’ici un an ou deux, il est attendu de constater que la trajectoire de S2 commence à diverger doucement de celle suivie dans le cycle précédent d’il y a 16 ans. Ce phénomène prédit est celui de la précession de Schwarzschild correspondant à un décalage d’une petite valeur de l’axe de rotation de l’orbite de l’étoile. Son équivalent déjà constaté en champ bien plus faible correspond à la fameuse précession relativiste du périhélie de Mercure qui fut la première confirmation (1915) de la validité de la loi de la relativité générale.

De plus, espérons que ce qui nous est annoncé depuis l’an passé, c’est-à-dire une image de l’ombre de Sgr A* soit publiée. Dans ce cas nous espérons obtenir une image qui permettra d’observer les distorsions extrêmes de l’espace-temps au voisinage de la ligne d’horizon des événements, là où le champ gravitationnel est à son acmé dans notre galaxie. Il était prévu qu’un premier résultat soit publié au plus tard en Mai, toutefois nous avons obtenu un message de report de résultat car il semblerait que le dispositif mis en place pour obtenir cette image est difficile à maitriser. Rappelons qu’il s’agit de mettre en réseau de très nombreux télescopes qui se trouvent en activité sur tous les continents afin d’obtenir l’équivalent d’un télescope récepteur de la dimension de la Terre. Souhaitons que d’ici la fin 2018 nous ayons un résultat sinon considérons que le défi posé est encore prématuré.

2 - Des nouvelles récentes du ciel de notre Univers : celles-ci ne nous offrent pas le même enthousiasme car pour ce qui concerne l’étude de l’émergence du ciel de notre univers nous sommes toujours dans l’expectative car une étape vient d’être révolue et la prochaine est encore dans une phase de définition. L’étape révolue est marquée par la dernière publication dans la semaine du 16 juillet des dernières cartes de l’univers précoce obtenues par le satellite Planck.

Le satellite Planck qui a collecté ses données entre 2009 et 2013 est considéré comme l’instrument spatiale (après COBE et WMAP) qui nous a permis d’obtenir les données les plus précises jusqu’à présent. Ainsi l’âge de notre Univers est de 13,8 milliards d’années, sa géométrie est essentiellement euclidienne, et à 95% il est composé de matière noire et d’énergie sombre (sic). Les dernières données confirment que Planck évalue une expansion de notre Univers plus lente de 9% que celle couramment déterminée actuellement grâce à des techniques nouvelles et sur une période de l’évolution de l’univers bien plus récente (les 5 milliards d’années en amont de notre présent).

Les physiciens ont à leur disposition une carte des plus précises de la variation de la température du fond diffus cosmologique (cosmic microwave background : (CMB), fond cosmique micro-onde), ce grand achèvement doit être approfondi pour aller de l’avant.

Pour l’instant aucun projet majeur de continuation de cette étude n’est en vue avec des moyens identiques. Ce qui pourrait conduire à un désastre scientifique car il y a tout un savoir-faire et une capacité d’expertise qui se perdront. La tendance serait plutôt de mettre en œuvre des missions plus petites concentrées sur des mesures plus détaillées d’autres paramètres du CMB, incluant sa polarisation. Avec l’obtention éventuelle de cette donnée, les chercheurs espèrent déduire une signature de l’inflation : cette période très brève au tout début de l’univers qui aurait connu une expansion exponentielle.

Le CMB a certainement encore beaucoup de secrets à nous révéler. Mais avec quels moyens ? L’Europe et les Etats Unis refusent de s’engager financièrement sur de gros projets. Les équipes de chercheurs doivent donc concevoir des projets modestes mais très ciblés sur des quêtes spécifiques d’informations. Les réseaux de télescopes terrestres ont la cote. Des projets de coopération plus amples sont aussi proposés incluant le Japon et/ou l’Inde.

Le CMB a certainement encore beaucoup de secrets à nous révéler est la conviction actuelle de la très grande majorité des physiciens travaillant sur ce sujet. Juste avant le lancement du satellite Planck, la très grande majorité de ces physiciens pensaient qu’ils obtiendraient avec cet instrument un référentiel d’informations parfait et complet permettant de décrire notre Univers qui n’aurait plus de secret pour l’humanité. Heureusement cela n’est pas ainsi, la tâche n’est pas achevée, au contraire nous découvrons qu’il y a encore beaucoup de secrets à dévoiler c’est ce dont nous devons nous satisfaire car cela oblige l’intelligence humaine à se maintenir en éveil. Le ciel de l’Univers et le ciel de l’esprit humain sont dans une interdépendance parfaitement harmonieuse.

 

[1] De nouvelles observations effectuées dans le domaine infrarouge (Le rayonnement infrarouge (IR) est un rayonnement électromagnétique d'une longueur d'onde supérieure à celle de la lumière visible mais...) par les instruments de très grande sensibilité, GRAVITY (2), SINFONI et NACO installés sur le Very Large Télescope de l'ESO (VLT), ont permis aux astronomes de suivre, au cours du mois (Le mois (Du lat. mensis «mois», et anciennement au plur. «menstrues») est une période de temps arbitraire.) de mai 2018, le mouvement de l’étoile baptisée S2.

[2] Le développement de l'instrument GRAVITY résulte d'un partenariat entre l'Institut Max Planck pour  la Physique Extra-terrestre (Allemagne), le LESIA à l'Observatoire de Paris (Paris est une ville française, capitale de la France et le chef-lieu de la région d’Île-de-France. Cette ville est construite sur une boucle de...), PSL / CNRS / Sorbonne (La Sorbonne est un complexe monumental du Quartier latin de Paris. Elle tire son nom du théologien du XIIIe siècle Robert de Sorbon, le fondateur du collège de Sorbonne,...) Université / Université Paris Diderot et l'IPAG à l'Université Grenoble Alpes / CNRS (France), l'Institut Max Planck pour l'Astronomie (Allemagne), l'Université de Cologne (Allemagne), le Centre d'Astrophysique et de la Gravitation (CENTRA, Portugal) et l'ESO.

Partager cet article

Repost0
24 juillet 2018 2 24 /07 /juillet /2018 08:10

Les neutrinos sur de multiples scènes.

Scène I : Interprétation d’un résultat d’expérience controversée. Article du 4/6/2018

            La publication du résultat d’expérience qui s’intitule : Mini Booster Neutrino Experiment (MiniBooNe) au Fermilab (près de Chicago) et qui aurait mis en évidence des neutrinos stériles a immédiatement provoqué des réactions contestant ce résultat. Ce ou ces fameux neutrinos stériles sont théoriquement utiles dans le cadre des modèles standards pour combler les failles au sein de ces modèles. Stériles parce qu’ils n’interagissent pas du tout et sont indétectables, contrairement aux cousins : νe, νµ, ντ, qui interagissent très, très…faiblement mais sont quand même détectables très, très… faiblement. Ces trois cousins, avec trois saveurs distinctes (électronique, muonique, tauique) peuvent nous apparaître dans des saveurs différentes dans les détecteurs appropriés, et il est inféré qu’ils oscillent d’une saveur à une autre. A force d’observations on pense avoir une bonne connaissance de la probabilité de l’oscillation d’une saveur à une autre grâce à une évaluation des ‘angles de mélange’ entre les saveurs.

            Si on observe effectivement des écarts avec ces angles de mélange on pourrait déduire qu’il y a un processus qui perturbe les prévisions théoriques. C’est exactement ce qui fut l’objet de la publication du Fermilab. A l’origine, le faisceau est constitué de νµ qui oscillent en νe suivant une proportion prédite par le modèle standard. Toutefois à la détection, selon l’équipe du Fermilab, le nombre de neutrinos de saveur électronique est significativement plus important. En conséquence, il est considéré que cet excès est dû au fait qu’une certaine proportion de neutrinos muoniques oscillent préalablement en neutrinos stériles avant d’apparaître dans le détecteur en neutrinos électroniques. Ce résultat, s’il était confirmé, ouvrirait la porte à des phénomènes et des objets qui signaleraient un au-delà des modèles standards (des particules élémentaires et celui de la cosmologie) soit une nouvelle physique.

            En fait ce résultat a été rapidement considéré comme douteux par plusieurs équipes de chercheurs de plusieurs autres expériences qui n’ont jamais rien observé de tel. De plus, a priori, si le neutrino stérile existait, il aurait une masse bien plus importante que celle vraisemblable s’il était effectivement inclu dans le processus d’oscillation de ses cousins.

            En résumé le grand scepticisme à l’égard du résultat proclamé est réuni dans l’article du 4/06 de A. Cho qui titre : « Les comptes-rendus sur la résurrection du neutrino stérile seraient grandement exagérés. » Il rappelle toutes les expériences et données qui ne confirment pas l’existence de ce neutrino spécifique ainsi que le résultat déterminé par l’équipe du satellite Planck, publié en 2013, indiquant qu’il n’y a que trois types de neutrinos et pas plus, ceux déjà identifiés à partir de son invention dans les années 1930 par Pauli. Eh oui ! depuis cette époque les progrès de la connaissance sur ces objets sont très lents et la première signature observée attribuée au neutrino électronique date de 1956. Voir mes articles du 14/10/2015 ; du 26/10/2016 ; du 30/10/2016.

Notre connaissance toujours très faible sur les neutrinos s’explique par le fait que la très grande majorité des physiciens s’obstine à étudier, dans le cadre du modèle standard des particules élémentaires : « Les propriétés physiques des neutrinos. », alors que cette majorité devrait étudier ouvertement : « La physique des neutrinos », ceux-ci étant les vecteurs d’une physique avec des propriétés hors ce modèle standard. L’ignorance accumulée et persistante de ces objets présente l’inconvénient majeur de les exploiter à toutes les sauces, ainsi ce 17/07 on peut lire encore sur le site Physicsworld le titre d’un article : ‘Mysterious radio signals could be from new type of neutrino.’ ; ‘Des mystérieux signaux radios pourraient provenir d’un nouveau type de neutrino.’ Quand il y a du mystère, de l’ignorance, les neutrinos sont convoqués.

Scène II : Une expérience voit une solide évidence de l’oscillation d’un antineutrino. Article du 4/06/2018.

            Cette annonce est une première car jusqu’à présent l’oscillation de l’antineutrino muonique en un antineutrino électronique n’avait jamais été observée d’une façon certaine. L’intérêt de savoir si les antineutrinos se comportent de la même façon, ou pas, que les neutrinos, nous permettra peut-être de mettre en évidence des propriétés non encore élucidées au sein de l’univers ainsi que son évolution, notamment pourquoi la matière a gagné sur l’antimatière, une fraction de seconde après le Big Bang, et conséquemment pourquoi nous sommes là.

            Il ne faut pas oublier que nous ne savons toujours pas si les neutrinos sont leurs propres antineutrinos, c’est-à-dire qu’ils seraient des particules de Majorana. Les antineutrinos sont encore plus difficiles à détecter que les neutrinos. Il est pensé que les neutrinos ont une masse au repos mais on est incapables de mesurer directement chacune de leur masse. Toutefois on pense avoir déterminé l’ordre de ces masses. La masse du neutrino tauique > du neutrino muonique > du neutrino électronique. Je doute qu’il soit possible de confirmer ce type de résultat si l’on continue de leur attribuer une masse correspondant à E = mc2 et mi = mg alors que nous sommes dans l’impossibilité d’observer ces objets sur leur ligne de vol, nous sommes incapables de leur attribuer une masse d’inertie, de les accélérer ou de constater une accélération, de les ralentir ou de constater une décélération, nous ne pouvons les deviner que par la signature de leur très, très, faible interaction avec la matière.

                Il semblerait (sic) que certains physiciens soient prêts à admettre que si les neutrinos ont une masse, celle-ci serait d’une nature différente à celle que l’on attribut communément aux autres particules élémentaires (lu dans un article du 09/07). Si c’est le cas je considère que c’est le début d’un éveil. A suivre !

Scène III : Les blazars sources de neutrinos de haute énergie. Nombreux articles à la mi-juillet.

            D’où proviennent les neutrinos de haute et très haute énergie ? L’hypothèse la plus probable est qu’ils sont émis par des objets astrophysiques extrêmement massifs, de plusieurs millions de fois la masse du Soleil. L’observatoire IceCube[1], situé à proximité de la base antarctique Amundsen-Scott, près du pôle Sud, est spécialisé dans la détection de ces neutrinos de très haute énergie. Le 22 septembre 2017, les physiciens travaillant sur cette expérience ont détecté un neutrino d’une énergie supérieure à 290 téraélectronvolts (1012 eV). C’est 20 fois plus que celle atteinte dans les collisions de protons au LHC du Cern ! L’observation conjointe de photons par de nombreux télescopes a permis d’identifier la source de ce neutrino : le blazar TXS 0506+056, situé à plus de 4 milliards d’années-lumière (univers local).

Les blazars sont des galaxies dites actives car elles abritent en leur centre un trou noir supermassif en activité. Une partie de la matière tournant dans un disque d’accrétion autour du trou noir est éjectée le long de l’axe de rotation du trou noir, formant deux jets de particules perpendiculaires au disque. Les blazars sont vraisemblablement la même chose que les quasars, à ceci près que leur jet pointe vers la Terre (une simple question d’angle de vue). Ils rayonnent par ailleurs fortement dans le domaine radio. Les jets contiennent une foule de particules émises à des vitesses relativistes : des photons, des électrons, des positrons, etc. Les blazars ont une activité très variable, sur des échelles de temps qui s’étalent de quelques minutes à plusieurs années. Lors d’un pic d’activité, en période d’éruption, les blazars émettent notamment des photons de haute énergie (au-dessus du gigaélectronvolt 109 eV) – des rayons gamma –, détectés par des télescopes comme Fermi ou Agile (en orbite), ou encore Magic (sur les îles Canaries). Les blazars sont une des sources possibles des neutrinos de haute énergie qui atteignent la Terre.

Cette nouvelle découverte pourrait marquer la fondation de l’astronomie neutrino. La détection met aussi en évidence un exemple puissant d'une autre nouvelle tendance, l'astronomie MultiMessagers, dans laquelle les télescopes et autres instruments ont étudié le signal du Blazard dans toutes les parties du spectre électromagnétique, des rayons gamma aux ondes radio.

Un Blazar produisant des neutrinos pourrait aussi aider à résoudre un mystère séculaire en astronomie : d'où viennent les protons d'énergie extrêmement élevée et autres noyaux qui bombardent occasionnellement la Terre ? Connues sous le nom de rayons cosmiques ultra-haute énergie, ces particules ont un million de fois plus d'énergie que celles accélérées dans nos accélérateurs de particules terrestres, mais ce qui les stimule à de telles énergies colossales est encore inconnue. Parmi les suspects, sont inclus des étoiles à neutrons, des rafales de rayons gamma, des hypernovaes et des trous noirs qui crachent des radiations au centre de certaines galaxies, mais quelle que soit la source, les neutrinos à haute énergie sont un sous-produit probable. Si l'équipe de IceCube a raison, les blazars pourraient être la première source confirmée de ces rayons cosmiques.

Scène IV : Une nouvelle étude prouve qu’Einstein a raison : Le test le plus approfondi à ce jour ne trouve aucune violation de Lorentz dans les neutrinos à haute énergie. Article du 16/07/2018.

L'univers que nous savons présentement étudier est considéré, a priori, comme un univers symétrique, selon l’hypothèse première de la théorie de la relativité restreinte d'Einstein, connue sous le nom de symétrie de Lorentz. Ce principe stipule que tout scientifique doit observer les mêmes lois de la physique, dans n'importe quelle direction, et quel que soit son cadre de référence, tant que cet objet se déplace à une vitesse constante. La symétrie de Lorentz est une symétrie fondamentale de l’espace-temps qui sous-tend et prévaut à la fois au modèle standard de la physique des particules et à la relativité générale.

Par exemple, en raison de la symétrie de Lorentz, cela implique que nous devons observer la même vitesse de la lumière - 300000 Km/seconde - si nous sommes astronautes voyageant à travers l'espace ou molécules se déplaçant dans la circulation sanguine.

Mais pour les objets infiniment petits qui opèrent à des énergies incroyablement élevées, et sur de vastes étendues de l’univers, les mêmes règles de la physique pourraient ne pas s'appliquer. À ces échelles extrêmes, il pourrait exister une violation de la symétrie de Lorentz, ou la violation de Lorentz, dans laquelle un mystérieux champ inconnu distordrait le comportement de ces objets d'une manière que la théorie d’Einstein ne prédirait pas. Alors que la théorie des cordes prévoit une violation de cette symétrie à l’échelle de la gravité quantique. Si cette violation était observée ce serait un indice favorable pour la théorie des cordes.

La chasse à cette violation a été menée, pour trouver des preuves de la violation de Lorentz, dans divers phénomènes, des photons jusqu’à la gravité, sans obtenir de résultats définitifs. Les physiciens croient que si la violation de Lorentz existe, on peut aussi le voir dans les neutrinos, les particules les plus légères connues dans l'univers, qui peuvent parcourir de vastes distances et sont produites par des phénomènes astrophysiques de haute énergie cataclysmique. La moindre confirmation que la violation de Lorentz existerait indiquerait une physique complètement nouvelle qui n’est pas inclus dans la théorie d'Einstein.

Maintenant, les scientifiques du MIT et leurs collègues sur l'expérience IceCube ont conduit la recherche la plus approfondie qui soit de la violation de Lorentz dans les neutrinos. Ils ont analysé deux années de données collectées par l'Observatoire de neutrinos de IceCube. L'équipe a cherché des variations dans l'oscillation normale des neutrinos qui auraient pu être causées par un champ de Lorentz-violation. Selon leur analyse, aucune anomalie de ce type n'a été observée dans les données, qui comprend les neutrinos atmosphériques des plus hautes énergies que toutes les expériences ont jusqu’à présent recueillies.

Le degré de précision du résultat publié est annoncé avec une exactitude de 10-28 ce qui est exceptionnel.

Toutefois, il faut rappeler que nous n’avons aucune preuve observationnelle que les neutrinos oscillent au sens physique du terme. L’hypothèse de l’oscillation de ces objets est selon mon point de vue une façon opportuniste de définir un cadre mathématique qui permet très partiellement de les domestiquer sur le plan intellectuel, mais pas plus. Ainsi dans les équations de ces oscillations, ils ont une masse d’inertie et jusqu’à présent nous sommes toujours incapables d’évaluer leurs masses. Ces trente dernières années, celles que nous avons pensé pouvoir leur attribuer se sont révélées totalement erronées. En fait, chaque fois que nous croyons avoir, enfin, la bonne théorie et les bons paramètres, ces neutrinos nous répondent toujours : « Nous ne sommes pas ce que vous croyez. »

 

[1] En 2010, le plus grand observatoire de neutrinos, IceCube, a été mis en service en Antarctique, succédant à Amanda, situé lui aussi au pôle Sud. Son principe est d’utiliser la glace de la calotte antarctique comme détecteur. En effet, quand un neutrino traverse la Terre, il a une très faible chance d’interagir avec la matière. Il produit alors une particule chargée. La détection est plus facile si cette particule est un muon (un cousin de l’électron plus lourd). Ce muon de haute énergie traverse la glace avec une vitesse supérieure à celle de la lumière dans la glace. Il produit alors un sillage de lumière bleue, nommé rayonnement Tcherenkov (c’est cet effet qui est à l’origine de la lumière bleutée dans le cœur des réacteurs nucléaires). L’observatoire IceCube en lui-même est constitué de modules optiques qui captent ce rayonnement Tcherenkov. Grâce à 86 lignes de 60 détecteurs chacune, enfouis à plus de 1 kilomètre sous la surface, l’observatoire scrute le passage de muons dans 1 kilomètre cube de glace. À partir des signaux enregistrés par les modules optiques, on peut reconstruire la direction de propagation du muon et par extension déduire la direction du neutrino initial. Et ainsi potentiellement déterminer la source des neutrinos.

 

Partager cet article

Repost0
12 juillet 2018 4 12 /07 /juillet /2018 09:03

Quel avenir pour le LHC ?

 

Dans cet article, je donne la priorité à la lecture de l’article de Laurent Sacco du site : Futura Science, du 03/07/2018 qui a pour titre : ‘Les travaux de construction d'un nouveau LHC ont débuté’. Celui-ci produira des faisceaux de protons plus intenses pour des collisions plus riches en évènements rares. Ce LHC à haute luminosité, ou HL-LHC, devrait partir chasser de la nouvelle physique à l'horizon 2025-2026 (sic). D’un certain point de vue cet article indique correctement l’impasse dans laquelle se trouvent les tentatives expérimentales d’enrichir, de prolonger, de dépasser, ce qui constitue le modèle standard de la physique des particules élémentaires (MS). Cet article est aussi illustratif de l’indigence théorique actuelle ou bien de sa fossilisation, analysée dans l’article précédent du 01/07/2018 : « Comment la croyance en la beauté a déclenché une crise de la physique. » que j’ai posté quelques jours avant celui de Sacco.

L. Sacco : « Avec ses détecteurs géants et sa connexion à une grille mondiale d'ordinateurs, le LHC est sans doute l'objet technologique le plus avancé créé par l'humanité. Lorsque ce Grand collisionneur de hadrons est enfin parti à la chasse d’une nouvelle physique, en 2010, les physiciens des hautes énergies étaient très majoritairement optimistes.

Ils s'attendaient à mettre en évidence rapidement des particules supersymétriques, dont certaines devaient être la clé de la nature de la matière noire. Il était même raisonnable d'obtenir tout aussi rapidement des preuves de la validité de la théorie des cordes, que ce soit avec la mise en évidence d'un boson Z' ou, mieux encore, avec la mise en évidence de mini-trous noirs de Hawking s'évaporant en un éclair après leur création.

Il n'en fut rien (sic), mais le LHC a tout de même atteint son but principal initial, à savoir la mise en évidence du fameux boson de Brout-Englert-Higgs (BEH) en 2012. Les chercheurs ont pu également vérifier depuis, avec plus de précisions, certaines prédictions du modèle standard de la physique des hautes énergies et commencer à explorer l'origine des masses des quarks et des leptons formant la matière en montrant que, là aussi, intervenait la physique du boson de BEH via les fameux couplages de Yukawa.

Une théorie standard triomphante, hélas…

Les résultats ont été finalement, jusqu'à présent, à la fois triomphants et désastreux. Lors de l'hommage rendu à Pierre Binétruy, hélas décédé, Jean Iliopoulos a argumenté, avec raison, pour que l'on parle désormais de la théorie standard plutôt que du modèle standard après la découverte du boson de BEH et la précision des mesures confirmant sa validité. C'est donc un triomphe spectaculaire. Mais, pour le moment, c'est aussi potentiellement un désastre car nous n'avons toujours pas la moindre indication d'une nouvelle physique dans les résultats des mesures concernant les produits des collisions de protons au LHC. Pire, le triomphe de la théorie standard pourrait indiquer qu'il est à tout jamais hors de portée de la technologie humaine de mettre en évidence directement cette nouvelle physique car nous ne serons jamais capables de construire des accélérateurs assez puissants pour cela (ils pourraient devoir être de la taille de la Voie lactée).

Tout espoir n'est cependant pas perdu. Il est en effet possible d'améliorer encore la précision de ces mesures mais, pour cela, il faut augmenter le nombre de collisions afin de : « faire grimper la statistique », comme disent les physiciens dans leur jargon. Pour obtenir cette augmentation du nombre de collisions en un temps raisonnable, et pas au bout d'un siècle par exemple, il faut faire augmenter ce que l'on appelle : « la luminosité des faisceaux de protons ».

Il est facile de comprendre pourquoi en comparant la situation à la problématique de la formation d'une bonne image avec un appareil photo. Il est nécessaire de faire entrer rapidement suffisamment de lumière pour éviter un temps de pause trop long et, tout simplement, pour avoir assez de photons afin d'obtenir une image assez détaillée et, ainsi, pouvoir identifier ce qu'elle représente et avoir des détails.

Des faisceaux de protons 5 à 7 fois plus lumineux avec le HL-LHC

C'est pourquoi, depuis des années, les ingénieurs et physiciens du Cern étaient engagés dans la conception d'un LHC à haute luminosité (HL-LHC) permettant de passer d'environ un milliard de collisions proton-proton par seconde à 5, voire 7 milliards de collisions par seconde, ce qui devrait permettre d'accumuler environ 10 fois plus de données entre 2026 et 2036, au moment où le HL-LHC partira à son tour à la chasse à de la nouvelle physique.

Or, le laboratoire européen vient de faire savoir dans un communiqué que les travaux de génie civil pour le HL-LHC avaient commencé. Ceux-ci permettront d'installer dans des tunnels et des halls souterrains de nouveaux équipements cryogéniques et systèmes d'alimentation électrique associés à de nouveaux et nombreux composants de haute technologie tels que des aimants supraconducteurs et des cavités radiofréquences. L'objectif est notamment de se servir d'environ 130 nouveaux aimants pour comprimer les paquets de protons, et, donc, augmenter la luminosité des faisceaux.

Comme l'a dit Fabiola Gianotti, directrice générale du Cern, « le LHC à haute luminosité étendra la portée du LHC au-delà de sa mission initiale, apportant de nouvelles opportunités de découvertes, de mesurer avec plus grande précision les propriétés de particules comme le boson de Higgs et de sonder encore plus profondément les constituants fondamentaux de l'univers ». Espérons qu'il permettra de valider la théorie de la supersymétrie, voire de découvrir que les particules de matière sont en fait composées de rishons.

Ce qu'il faut retenir

  • Augmenter le nombre de collisions par seconde avec des faisceaux de protons permet d'augmenter la production de particules ou de réactions rares, et donc d'étudier celles-ci plus facilement en un temps raisonnable, plus court qu'une vie de chercheur de préférence !
  • Il faut, pour cela, augmenter la luminosité de ces faisceaux comme on augmenterait celle d'un faisceau de lumière pour faire une bonne photographie.
  • Le Cern a entrepris de construire une version améliorée du LHC, le HL-LHC, un LHC à haute luminosité pour chasser de la nouvelle physique qui se cacherait dans ces évènements rares. »

Cet article de Sacco n’élude pas ce qui est grandement décevant depuis la mise en œuvre en 2010 du LHC. Toutefois il participe à la confirmation de la croyance qu’il faut continuer comme avant et ce n’est plus qu’un problème de statistiques (sic). Comme je l’ai déjà indiqué dans l’article du 16/01/2016 : ‘Et si notre pensée était mal placée’, pour recueillir de nouvelles données significatives, il faut que théoriquement notre regard soit déjà bien orienté pour voir dans l’infiniment petit de l’espace-temps des phénomènes possibles, nouveaux, préalablement pensés. Prévoir que la nature nous fasse voir au hasard quelque chose de neuf sans que l’intelligence des physiciens l’ait préalablement potentiellement envisagé relève d’une conception paresseuse, franchement erronée. C’est croire que la physique relève d’un monde réel, finalisé, alors que, selon mon point de vue, la physique relève d’un monde qui ne peut être que préalablement envisagé pour être décrypté au fur et à mesure de l’évolution de nos aptitudes à le penser. La réalité c’est que parmi tous les possibles qui constituent le monde nous ne pouvons accéder à l’intelligence de ceux-ci que par étape. L’étape actuelle de notre intelligence du monde ne doit pas être considérée comme une étape d’aboutissement mais elle doit être considérée comme un tremplin pour accéder à l’intelligence de possibles pas encore décryptés. Aucune étape ne correspond à un savoir acquis par les physiciens qui aurait une quelconque composante universelle.

            L’article suivant publié dans Phys.org et fourni par le CERN comprend un pot- pourri d’arguments qui laisse transparaître qu’il y a de sérieuses inquiétudes dans l’air. Il est traduit par mes soins. Je propose une analyse critique à sa fin.

Article fourni par le CERN le 06/07, de Tim Gershon : ‘Nous avons besoin de parler du Higgs’ :

« Il y a six ans que la découverte du boson de Higgs a été annoncée, en grande fanfare dans les médias du monde, présentée comme un succès couronnant le grand collisionneur de hadrons du CERN (LHC). L'excitation de ces jours semble maintenant un lointain souvenir, remplacée par un sentiment de déception croissant en l'absence depuis de toute découverte majeure.

Bien qu'il y ait des raisons valables de se sentir moins que satisfaits par les résultats nuls de recherches de la physique au-delà du modèle standard (MS), cela ne justifie pas une humeur de découragement. Une préoccupation particulière est que, dans le monde d'aujourd'hui hyperconnecté, des discussions académiques apparemment inoffensives risquent d'évoluer dans une perspective négative dans le domaine de la société élargie. Par exemple, des articles nouveaux et récents dans le ‘Natureled’ sur le LHC : "Echec de détection de nouvelles particules au-delà du Higgs" et dans ‘The Economist’ qui reportait que "La physique fondamentale frustre les physiciens. " Tout aussi inquiétant, la situation en physique des particules est parfois négativement comparée avec celle des ondes gravitationnelles : alors que cette dernière est, à juste titre, annoncée comme le début d'une nouvelle ère d'exploration, la découverte du Higgs est souvent décrit comme la fin d'un long effort pour compléter le MS.

Examinons les choses plus positivement. Le boson de Higgs est un tout nouveau type de particule fondamentale qui permet des tests sans précédent de rupture de symétrie électrofaible. Il nous fournit ainsi un microscope neuf avec lequel sonder l'univers aux plus petites échelles, en analogie avec les perspectives pour les nouveaux télescopes d'onde gravitationnelle qui étudieront les plus grandes échelles. Il est clairement nécessaire de mesurer ses couplages à d'autres particules – en particulier son couplage avec lui-même – et d'explorer les connexions potentielles entre le Higgs et les secteurs cachés ou obscurs. Ces arguments seuls (sic) fournissent une motivation suffisante pour la prochaine génération de collisionneurs, comprenant l’amélioration du LHC avec la haute luminosité et au-delà.

Jusqu'à présent, le boson de Higgs semble être un produit du MS (SM-like), mais une certaine perspective est nécessaire. Il a fallu plus de 40 ans entre la découverte du neutrino à la réalisation qu'il n'est pas sans masse et donc pas un SM-like ; s'attaquer à ce mystère est désormais un élément clé du programme mondial de la physique des particules. En ce qui concerne mon domaine de recherche principal, le quark beauté (b) - qui a atteint son 40e anniversaire l'an dernier - est un autre exemple d'une particule aux données scientifiques longuement établies, et elle fournit maintenant des informations passionnantes de nouveaux phénomènes (voir quarks Beauté test lepton universalité). Un scénario passionnant, si ces déviations par rapport au SM sont confirmées, est que le nouveau paysage physique peut être exploré à travers les microscopes de b et de Higgs. Appelons-le : "Physique des particules multi-messages. "

La façon dont les résultats de nos recherches sont communiqués au public n'a jamais été aussi importante. Nous devons être honnêtes au sujet de l'absence de nouvelle physique que nous espérions tous trouver dans les premières données du LHC, de là à caractériser ceci comme un « échec » est absurde. S’il y a un domaine où le LHC a eu plus de réussite que prévue, c’est celui du remarquable taux de données enregistrées et livrées.  La physique des particules est centrée, après tout, sur l'exploration de l'inconnu ; l'analyse des données du LHC a conduit à des milliers de publications et une multitude de nouvelles connaissances, et il est tout à fait possible qu'il y ait de grandes découvertes en attente d'être faites avec d'autres données et des analyses plus innovantes. Nous ne devrions pas négliger les retours des bénéfices pour la société que le LHC a apportés, les développements technologiques et ses dérivés associées telle que la formation de milliers de jeunes chercheurs hautement qualifiés.

Le niveau d'attente et d’espérance à propos du LHC semble avoir été sans précédent dans l'histoire de la physique. Une autre installation a-t-elle été considérée comme ayant produit des résultats décevants parce qu'une seule découverte gagnante du prix Nobel a été faite dans ses premières années d'opération ? Peut-être cela reflète-t-il que le LHC est tout simplement la bonne machine au bon moment, mais que son temps n'est pas terminé : notre nouveau microscope est mis au point pour courir pendant les deux prochaines décennies et de placer la physique à l'échelle du TeV (1012eV) en tant qu’objectif clairement défini. Plus nous en parlons, plus nous avons de chances de succès à long terme (sic). »

Je veux rappeler qu’aux tout début du fonctionnement du LHC, sur le site même du CERN, il y avait l’annonce publicitaire : on va reproduire l’événement du big-bang, cela fut effacé au bout d’une semaine mais la tromperie était établie. Mettre en avant la formation de milliers de jeunes chercheurs hautement qualifiés n’est pas assurément à mettre au bilan des retours bénéficiaires s’ils sont formés à la théorie qui conduit à l’impasse que nous connaissons aujourd’hui, comme ce fut le cas pour ceux que l’on a, autrefois, canalisé vers la théorie des cordes, (voir le livre de L. Smolin : ‘Rien ne va plus en physique ! L’échec de la théorie des cordes.’)

Comme signalé, il est évident que les retours technologiques dus au LHC et au site du CERN en général sont remarquables et incontestables et la société civile, vous et moi, nous en sommes bénéficiaires.

En fait ce qui est en jeu c’est le financement de la prochaine génération de collisionneurs en Europe, puisqu’il y a un niveau de résultats scientifiques trop faible avec le LHC, pourquoi à l’avenir financer des dispositifs encore plus coûteux alors qu’actuellement il n’y a pas d’arguments tangibles qui justifieraient l’immobilisation de plusieurs milliards d’euros, alors que d’autres programmes scientifiques ont le vent en poupe grâce à la production de résultats très significatifs, originaux, comme cela est le cas, par exemple, dans le domaine de l’astrophysique. 

Partager cet article

Repost0
1 juillet 2018 7 01 /07 /juillet /2018 06:17

Comment la croyance en la beauté a déclenché une crise de la physique.

            Le sujet de l’article que je propose est motivé par celui développé dans le livre de Sabine Hossenfelder : ‘Lost in Math’, ‘Perdu en Math’, auteure physicienne théoricienne au ‘Frankfurt Institute for Advanced Studies in Germany’, qui explore le bourbier (sic) dans lequel la physique théorique se trouve depuis quelques décennies à cause de la prolifération de théories conçues qui privilégient des critères esthétiques. Elle met franchement les pieds dans le plat en posant directement la question suivante : « Pourquoi les lois de la nature se soucient-elles de ce que je trouve beau ? » J’ai déjà abordé ce sujet de la ‘beauté’ a priori (article du 20/03/2018) qui serait naturelle et constituant en conséquence un critère de discrimination des bonnes lois de la nature de celles qui ne rendent pas compte de la réalité naturelle. P. Dirac fut un physicien qui dans les années 1930 a explicité que ce critère lui servait de guide pour sélectionner le bon chemin du développement des bonnes lois mathématiques qui embrassent les bonnes lois de la nature. Effectivement cette croyance a conduit P. Dirac à mettre en évidence sous la pointe de son stylo l’antiélectron : le positron. Résultat remarquable !

            Il serait erroné de qualifier ce résultat comme fruit d’un hasard heureux. A mon avis, il rend compte d’une méthode qui a pleinement sa valeur à l’époque de P. Dirac étant donné l’état de la connaissance des propriétés de la nature. Disons qu’à cette époque, les physiciens théoriciens avaient besoin d’inventer ce type de critère pour poser leur pensée créatrice afin qu’elle puisse se développer. Cela correspond à l’ordre Kantien que j’ai mis en valeur dans l’article précédent du 11/06. L’erreur, c’est de penser que ce type de critère est universel et qu’il vaut définitivement alors qu’il faudrait considérer qu’il est fertile jusqu’à un certain niveau de prospection et de connaissance de certaines lois de la nature. Pour voir plus loin, il faut maintenant cogiter, en dehors de toute pensée routinière et conservatrice, un nouveau critère (paradigme) voire plusieurs.

            Deux physiciens importants ont déjà exprimé leur point de vue critique concernant l’exploitation jusqu’à la corde de l’élégance mathématique et de son pouvoir de prédiction à l’encontre de l’évidence empirique, notamment en ce qui concerne la théorie des cordes supersymétriques et la quête de la théorie du tout. Il s’agit de Lee Smolin avec son livre en 2006 : ‘The trouble with Physics’ et de Peter Voit : ‘Not Even Wrong’.

            De L. Smolin : « ‘Le problème avec la physique, est très critique à l’égard de l’importance accordée à la théorie des cordes qui a écarté des recherches vers des approches prometteuses. Smolin indique que la théorie des cordes souffre de déficiences sérieuses et bénéficie d’un quasi-monopole malsain au sein de la communauté des théoriciens de la physique des particules… »

            La même année en 2006, P. Voit publie un livre dont les conclusions sont semblables à celles de Smolin, à savoir que la théorie des cordes était depuis le début un programme de recherche fondamentalement imparfait.

            De P. Voit : “Depuis les 18 dernières années la théorie des particules a été dominé par une unique approche visant l’unification du modèle standard des interactions et de la gravité quantique. Cette ligne de pensée s’est durcie en une nouvelle orthodoxie postulant une théorie supersymétrique fondamentale inconnue impliquant des cordes et d’autres degrés de liberté à l’échelle de Planck. Il est frappant de constater qu'il n'y a absolument aucune preuve pour cette théorie complexe conjecturée et peu attractive. Le seul argument généralement donné pour justifier cette image du monde est que les théories perturbatives des cordes font apparaître un mode de spin 2 pour une particule sans masse qui serait le graviton et pourrait donc fournir une explication de la gravité. »

            Depuis 2006, il faut reconnaître que cet engouement pour la théorie des cordes a heureusement nettement diminué. La raison est simple : elle n’a pas proposé des possibilités de vérifications de la moindre prédiction et celles-ci s’éloignent au fur et à mesure que la théorie est développée.

            Pourtant, il n’est pas possible de nier que l’exploitation de propriétés de symétrie pour franchir certaines étapes de compréhension de lois de la nature a porté ses fruits. Lorsque Emmy Noether (mathématicienne Allemande (1882-1935)) a démontré en 1915 le théorème mathématique précisant que lorsqu’il y avait transformation symétrique, il y avait concomitamment conservation de certaines grandeurs et puisqu’il n’y a rien de plus confortable que de travailler avec des grandeurs invariantes d’un état physique à un autre on devine que la quête des grandeurs invariantes et/ou des transformations symétriques a guidé les cogitations des théoriciens. Par exemple les invariances/symétries de jauge ont pris appui sur la première propriété conjecturée du modèle standard conduisant à l’électrodynamique quantique dont la grandeur invariante est la charge de l’électron. Rien n’est plus plausible que l’invariance de cette grandeur ! De plus, c’est l’introduction du champ électromagnétique, c’est-à-dire le photon, dans l’expression mathématique des équations de l’électrodynamique qui assure la symétrie dite de jauge.

            A partir de là les physiciens ont considéré qu’il était possible de définir les autres interactions fondamentales identifiées sur des bases conceptuelles semblables, ce qui faciliterait ensuite la mise en œuvre d’un processus théorique visant une expression unifiante de ces interactions. Pour ce faire des hypothèses supplémentaires ont été ajoutées, dans certains cas aux forceps, sans justifications probantes sinon mathématiques, pour rester dans le cadre d’un modèle standard. Souvent il m’est arrivé de juger que la théorie quantique des champs du modèle standard est un mille feuilles de couches d’hypothèses artificielles, ad hoc, très/trop fragile.  

            Ainsi, on peut lire dans certains ouvrages de théorie quantique des champs, sans aucune référence à des résultats expérimentaux, : « Pour que les neutrinos deviennent massifs, il suffit (sic) d’introduire les champs des antineutrinos gauches (ou des neutrinos droits) et d’ajouter les termes… à la densité Lagrangienne[1]. »

            En 2011, le 8/11, j’ai posté un article « Qui se permettra de le dire », et je manifestai ma complète insatisfaction ainsi que l’orthodoxie qui prévaut avec la théorie quantique des champs. S. Hossenfelder se permet de le dire d’une voix tranchante et je suis d’accord avec son questionnement principal : « Pourquoi les lois de la nature se soucient-elles de ce que je trouve beau ? », puisqu’elle explicite clairement : « L’idée de la beauté qu’en ce monde j’adore » (poème de J. du Bellay (1522-1560)) est une projection a priori de la pensée scientifique des physiciens sur la nature. Cela valide que, depuis onze ans, j’assure un enseignement intitulé sous l’expression générique : « Faire de la physique avec ou sans ‘Présence’ » où le ‘je’ ne doit pas être occulté.

            Une des preuves du caractère partiel, partial, que l’auscultation des lois de la nature sur la base de ses propriétés de symétries et de l’occurrence de la brisure de ses symétries sur laquelle a été construit le modèle standard des particules, c’est qu’in fine le modèle standard comprend 19 paramètres libres. La valeur de chacun de ces paramètres est obtenue par l’expérience, par l’observation. Chacune de ces valeurs s’impose et ne peut être justifié par la théorie. Ainsi en est-il, par exemple, de la valeur de la charge électrique fondamentale de l’électron, des constantes de couplage des interactions fondamentales… etc., et tout autant de la constante de Newton. Ainsi on peut lire dans ‘Large Hadron Collider Phénoménology’, édité en 2004, page 109, de J. Ellis : « Si ces 19 paramètres ne sont pas suffisants pour vous consterner, au moins 9 paramètres supplémentaires doivent être introduits pour s’accommoder de l’oscillation des neutrinos : les masses des trois neutrinos, les 3 angles de mélanges, et les 3 phases de violations CP. De plus, il y a beaucoup d’autres paramètres cosmologiques qui doivent êtres cherchés et expliqués, la constante de Newton et l’énergie du vide cosmologique. On voudrait aussi construire une théorie du champ pour modéliser l’inflation et nous avons certainement besoin d’expliquer l’asymétrie baryonique dans l’univers. Donc, il y a plein de recherches en physique au-delà du modèle standard. »

            Si l’on considère qu’il faut transcender (comme je le suggère) l’approche du couple symétrie/brisure pour découvrir des lois plus profondes de la nature que celles mises en évidence jusqu’à présent, peut-être faudra-t-il qu’un cap de nos moyens cognitifs soit franchi si ce n’est déjà le cas. En effet, en écrivant cet article, je découvre celui écrit dans le ‘Dictionnaire d’histoire et philosophie des sciences’, page 894 dans la rubrique : ‘Symétrie’, qui est certes daté (1999) mais intéressant : « Bien des ethnologues ont, pour leur part, observé le rôle symbolique que joue dans les sociétés les rapports symétrie/dissymétrie, et finalement ce couple serait utilisé comme support de sens culturel et symbolique. Ces constats soulèvent la question de savoir s’il existe une donnée irréductible de la conscience, d'origine biologique, qui rende l'être humain sensible aux structures symétriques et, par contraste, aux brisures de symétrie d'une façon qui attire son attention et les lui fasse sélectionner. Il semble bien, en effet, que ces propriétés constituent des moyens cognitifs élémentaires qui permettent de conjuguer des exigences conjointes de permanence et de stabilité d'une part, de capacité de changement et de variabilité de l'autre, nécessaires pour appréhender et catégoriser le réel. La sensibilité à la symétrie - et son utilisation en vue de la signification relèverait alors d'un schème cognitif profond dont l'aptitude serait génétiquement présente chez tous et dont la mobilisation serait épigénétiquement assurée[2], notamment par l'environnement culturel qui lui permettrait de s'exprimer par des modalités diverses. Des travaux récents (Enquist el al., Johnstone, Kirkpatrick et al.) sur la perception animale suggèrent de rapporter une telle sensibilité aux propriétés d'apprentissage de « réseaux de neurones », qui reconnaissent plus aisément un objet symétrique s'il se présente dans les positions différentes du fait de ses invariances. Ces recherches sont encore embryonnaires et leurs premiers résultats restent sujets à larges débats… Par-delà perception sensible et significations associées, la question de la symétrie comme telle et comme source d’invariances a gagné le domaine de l’intelligibilité scientifique… »

Ce tropisme profond à propos de ce qui est symétrique correspond exactement à ce que je caractérise comme une détermination de la pensée humaine qui ne doit pas être considérée comme une limite de celle-ci car l’être humain a évidemment l’aptitude de s’émanciper des déterminations qui l’habitent. Ce processus d’émancipation je l’exprime (dans de nombreux articles) avec le schéma de l’évolution que je privilégie : l’Être de la Nature se fait Être dans la Nature au fur et à mesure qu’il accède à la compréhension des lois de celle-ci. C’est effectivement le rapport de connaissances du sujet pensant avec la nature que je privilégie comme étant la cause essentielle de l’évolution de l’être humain.

Je reviens maintenant au plus près des critiques acerbes avancées par S. Hossenfelder dénonçant l’exploitation unilatérale et abusive des propriétés de symétrie à propos de la physique, qui sont difficilement acceptables par un grand nombre de physiciens qui évoquent notamment la découverte des quarks par Murray Gell-Mann et qui le jour de la réception du prix Nobel déclare : « La beauté des lois basiques de la science de la nature, telle qu’elle se révèle dans l’étude des particules et du cosmos, est l’alliance de la souplesse d’une scie à bec plongeant dans un pur lac Suédois. » L’auteure reconnaît la valeur de ces arguments mais elle remet aussi en cause ceux qui cherchent à briser l'impasse actuelle de la physique en insistant sur le fait que la nature doit être toujours belle. Elle admet que « se plaindre des préjugés esthétiques » ne fera pas disparaître les problèmes intimidant de la physique, et elle plaide pour quelques règles de base. Il s'agit notamment de s'assurer qu'il existe un véritable problème, qui émerge des conflits existants entre théorie et données ; être clair au sujet de ses hypothèses (comme le désir de nature ou de simplicité) ; et en utilisant des preuves empiriques pour choisir les bonnes mathématiques pour la physique à portée de main. Ces preuves empiriques sont ses points de boussole pour nous empêcher de perdre notre chemin dans une jungle mathématique, toutefois aussi belle.

J’ajouterai un autre problème, qui aussi expliquerait le bourbier dans lequel la physique théorique se trouve depuis quelques décennies, c’est celui qui est lié au syndrome de ‘Lucky Luke’ qui tire plus vite que son ombre. Transposé en physique, cela concerne les physiciens qui publient plus vite que leur pensée. C’est la loi de la publication à tous prix qui conduit à cette frénésie et ses conséquences négatives deviennent de plus en plus encombrantes. Ainsi quand fut publié tout récemment le résultat remarquable de la formation des premières étoiles dans l’univers et que cette observation renforcée l’énigme de la température de l’univers à cette époque (180 millions d’années post big bang) simultanément un théoricien publié : moi, moi, j’ai l’explication.

 

 

 

[1] Page 319, Théorie quantique des champs, de J.P. Derendinger, 2001.

[2] Dans ce cas, dans l’article du 05/01/2018 : ‘Turing or not Turing’, la communication de S. Dehaene à propos de la pensée géométrique d’Homo erectus serait appropriée à condition de considérer que la cause première de cette pensée géométrique est une aptitude génétique préalablement présente. Il est vraiment intéressant de pouvoir approfondir ce sujet.

Partager cet article

Repost0
23 juin 2018 6 23 /06 /juin /2018 11:52

Cela s’allume beaucoup plus tôt que prévu.

Premières étoiles

Fin février, un article annonce que des astronomes auraient détecté des signaux caractéristiques correspondant à l’émission de lumière des toutes premières étoiles en activités peu après la naissance de l’univers, c’est-à-dire 180 millions d’années après le big bang. Ces tous premiers astres désignés : étoiles de la « population III »[1], constitueraient, si cela est confirmé, un véritable Graal scientifique.

            Ce qui est aussi remarquable c’est l’instrument de détection employé par l’équipe de Judd Bowman : une petite antenne (EDGES) située dans le désert Australien à l’abri de longueurs d’ondes parasites et sensible à la réception de l’onde radio de l’ordre de 3,8 m correspondant à la longueur d’émission de 21 cm rayonnée, à l’origine de la formation de l’étoile, par l’hydrogène ambiant ionisé (redshift de l’ordre de 20). Ce résultat est obtenu après 12 années d’efforts de recherche.

            Ce qu’il faut retenir avec ce premier résultat c’est qu’il n’est pas en accord avec le modèle théorique de la cosmologie car dans ce cadre, la température du gaz primordiale prédite par ce modèle (6°K) est encore trop élevée pour qu’il y ait accrétion du gaz primordial sous l’effet de l’interaction gravitationnelle. L’observation obtenue par J. Bowman et son équipe nous conduit à inférer qu’à cet âge de l’univers la température est deux fois plus faible soit 3°K. Ainsi, dès lors que le résultat de J. Bowman sera confirmé il faudra que le modèle théorique de la cosmologie soit notablement revisité.

            A la mi-Mai, une observation convergente est publiée. L’article en question annonce avoir détecté des étoiles formées 250 millions d’années après le big bang. L’existence de ces étoiles, annoncée par une équipe japonaise, est certes indirecte mais digne du plus grand intérêt car elles sont inclues dans une galaxie qui aurait 500 millions d’années. Et celle-ci a été observée par le télescope Hubble puis par Alma. Les traces d’oxygène dans la jeune galaxie permettent de dater les premières étoiles comme cela est annoncé.

            Premières galaxies.

La date réelle de la formation des premières galaxies est tout autant très différente de celle qui est théorisée (a priori on prévoit qu’il faut entre 500 millions et 1 milliard d’années pour qu’une galaxie se forme). Après observation, grâce à des télescopes de plus en plus performant, il est maintenant estimé que les plus petites (basiques) galaxies pourraient se former dès 300 millions d’années post big bang. Les premières observées datées rigoureusement, le sont à 550 millions. Grâce à Alma[2], il fut observé des galaxies beaucoup plus massives que prévues et plutôt récentes car datées à 780 millions d’années. Ce résultat a été publié en décembre 2017, (revue Nature), indiquant aussi qu’au sein de ces galaxies le taux de formation de nouvelles étoiles par an est de l’ordre de 2900 masses solaires. Ces galaxies très actives (puisque par comparaison dans notre galaxie, actuellement, il se forme à peu près 1 à 2 étoiles par an) contiennent une masse de gaz (hydrogène et lithium…primordial) estimée à 270 milliards de fois la masse du soleil et une masse de poussière (forgée par les étoiles de la génération précédente) estimée à 3 milliards de fois la masse du soleil. Comme s’exclame un des auteurs de l’article : « C'est une extraordinaire énorme quantité de poussière, compte tenu du jeune âge du système ! »

Premiers amas de galaxies

Des observations récentes de l'Univers lointain ont révélé deux amas de galaxies qui se seraient formés il y a plus de 12 milliards d'années, à une époque où l'on pensait que de telles structures n'avaient pas eu le temps de se créer. De quoi bouleverser les certitudes des astrophysiciens. Ces deux embryons d'amas galactiques, des proto-amas formés respectivement de quatorze et dix galaxies en train de fusionner, ont été repérés quand l'Univers n'était âgé que de 1,4 milliard d'années pour le premier, et I,5 milliard d'années pour le second. Soit nettement plus tôt que prévu puisque jusqu’à présent, les astronomes pensaient, avec le modèle théorique, que ce phénomène se produisait 3000 millions d’années après le big bang. En effet le modèle actuel prévoit que ce type d’amas très massif a besoin de beaucoup plus de temps pour évoluer.

            Nous observons directement que les premières étoiles s’allument beaucoup plus tôt que cela est théorisé. Nous constatons que les galaxies se forment beaucoup plus tôt qu’imaginé par le modèle standard et en plus celles-ci se regroupent pour former les premiers amas en une durée deux fois inférieure à celle théoriquement programmée. Ces constatations ne tarissent pas pour autant les raisons de réviser profondément la conception la plus en cours de l’émergence de l’univers en un big bang qui à partir de cet instant se déploierait et se structurerait.

            Grâce aux moyens d’observations de plus en plus technologiquement sophistiqués qui sont à l’œuvre actuellement et en prévision de ceux dont nous disposerons dans un futur proche, nous découvrons dans l’univers primordial d’autres objets célestes dont les caractéristiques sont phénoménales  et théoriquement totalement imprévisibles, ainsi en est-il des Quasars.

Premiers Quasars

            En décembre 2017, il a été publié le résultat de l’observation d’un trou noir supermassif le plus lointain (publication en décembre 2017), jusqu’à présent jamais observé. Le trou noir est situé au centre d’un quasar[3] très brillant et la lumière émise nous permet de le situer à 690 millions d’années après le big bang. Le trou noir est estimé à 800 millions de fois la masse de notre soleil et les caractéristiques font de ce quasar une anomalie dans l’univers primordial.

            A la mi-mai, des chercheurs australiens ont publié le résultat d’une observation phénoménale, il s’agit d’un quasar qui en son cœur gîte un trou noir dont la taille est estimée être de l’ordre de 20 milliards de masse solaire (sic) et il se situe à un peu plus d’un milliard d’années après le big bang. Chaque deux jours il accrète l’équivalent d’une masse solaire ce qui fait qu’il s’accroît d’un pour cent chaque million d’années.

            Un des découvreurs de cet objet phénoménal précise : « Ces énormes trou noir avec une croissance si rapide sont excessivement rares et nous l’avons cherché pendant de nombreux mois. Le satellite européen Gaia, qui mesure les très petits mouvements des objets célestes nous a beaucoup aidé à trouver ce trou noir supermassif… Nous ne savons pas comment celui-ci a pu grossir autant et si rapidement dans les premiers temps de l’Univers. »

            Toutes ces données que j’ai sélectionnées ci-dessus ont été publiées ces six derniers mois. A priori aucunes ne cadrent avec le modèle théorique standard cosmologique. Toutefois, beaucoup de cosmologistes pensent qu’il est trop tôt pour dire que ce modèle standard est définitivement caduc. En effet, il est encore supposé que ces nouvelles données pourraient provoquer, certes, de très sérieux ajustements sans qu’il soit pour autant obligatoire de l’abandonner comme modèle de référence.

            Le modèle standard a été conçu principalement grâce à l’obtention de la première image de l’univers offerte par le fond diffus cosmologique 380 000 ans après le big bang. Il a été considéré que cette première image contenait toute l’information nécessaire et suffisante pour imaginer et décrire ce qui s’est produit avant la formation de cette image depuis le big bang puis décrire et ajuster en fonction de ce que l’on était en mesure d’observer après 380 000 ans grâce à toute la panoplie de nos instruments.

            Il est certain que cette première image a la valeur d’un vaste filet de connaissances qui nous a permis de saisir et décrypter des informations essentielles qui pendant 30 années ont été exploitées avec le bénéfice que l’on reconnaît mais l’erreur qui coure maintenant c’est de croire que les mailles du filet sont suffisamment serrées pour contenir toute l’information. Disposer d’un modèle de référence constitue un confort intellectuel collectif de premier ordre pour enrichir notre compréhension de l’univers mais il ne doit pas nous aveugler et provoquer une inertie intellectuelle collective.

            Un bel et malheureux exemple de cette certitude aveuglante nous est proposé avec l’article publié le 19/06 par Techno-science : « Le modèle cosmologique le plus simple de nouveau favorisé ? » (En copie ci-dessous). Tout ce que j’ai présenté comme étant autant de nouvelles indications qui pourraient remettre en cause le schéma classique est parfaitement ignoré. L’équipe de Planck continue de travailler sur la même base de données qui a été collectée par le satellite en 2013 et montre qu’elle est imperméable à des bases d’informations plus récentes. Elle ne s’interroge pas sur le fait qu’elle se retrouve en accord avec son premier scénario ni qu’elle puisse tout simplement induire ce scénario parce que sa base est loin d’être exhaustive. Il est remarquable qu’elle évalue en terme de quantités sans prendre en compte la dimension temporelle de la formation des objets célestes qu’elle prend en référence alors que l’on découvre que la chronologie de la formation de chacun de ces niveaux structurels s’avère être une bonne raison de remettre l’ouvrage sur le métier.

Le modèle cosmologique le plus simple de nouveau favorisé ?

En 2013, les résultats de Planck ont mis en évidence pour la première fois un désaccord entre les paramètres cosmologiques déterminés par le fond diffus cosmologique et ceux obtenus en analysant l'abondance des amas de galaxies détectés par Planck. Celui-ci est confirmé lors de la seconde analyse de Planck en 2015 ainsi que par des analyses indépendantes impliquant l'utilisation du lentillage gravitationnel ou d'amas de galaxies observés dans le domaine des rayons X. Des chercheurs ont montré, à la lumière d'une nouvelle analyse, que le fond diffus cosmologique et l'abondance des amas de galaxies observés par Planck convergent vers le modèle cosmologique standard le plus simple, dominé par la matière noire froide et une constante cosmologique.
Le fond diffus cosmologique et l'abondance des amas de galaxies permettent de mesurer les paramètres cosmologiques aussi bien indépendamment qu'en
combinaison. Jusqu'en 2013 et les premiers résultats de Planck, le nombre d'amas de galaxies utilisables pour des analyses cosmologiques était trop faible. Les mesures des paramètres cosmologiques déduites étaient donc entachées de grandes barres d'erreurs et donc peu fiables. En 2013 et grâce à environ 200 amas de galaxies observés par le satellite Planck, une mesure précise des paramètres cosmologique a été possible montrant un désaccord entre les paramètres cosmologiques déterminés par le fond diffus cosmologique et ceux obtenus en analysant l'abondance des amas de galaxies. Il portait notamment sur la mesure de la densité de matière dans l'univers et sa distribution aux très grandes échelles. Ce désaccord a été confirmé lors de la second analyse de Planck en 2015, utilisant près de 500 amas de galaxie, ainsi que par des analyses indépendantes basées sur l'utilisation du lentillage gravitationnel ou d'amas de galaxies observés dans le domaine des rayons X.

Une telle différence ne pouvait avoir que deux origines possibles: soit la
masse des amas observés était fausse d'un facteur deux, une hypothèse irréaliste étant donné l'état de l'art sur la compréhension des amas de galaxies, soit le désaccord était le signe d'un écart au modèle cosmologique le plus simple.


En 2016, Planck a publié de nouveaux résultats d'analyse du fond diffus cosmologique révisant notamment le paramètre cosmologique lié à la formation des premières étoiles dans l'univers. Dans une étude parue dans Astronomy & Astrophysics Journal, une équipe de chercheurs a effectué une re-analyse approfondie. Elle a utilisé ces nouvelles données dans une analyse complète combinant le fond diffus cosmologique, l'abondance des amas mais aussi leur fonction de corrélation angulaire sur tout le ciel. Cette nouvelle étude montre que le désaccord entre le FDC et les amas de galaxies est fortement réduit.
L'équipe a exploré des écarts au modèle cosmologique le plus simple, comme l'ajout de neutrinos massifs ou une composante d'
énergie noire différente de la constante cosmologique. Cette analyse montre qu'aucune de ces deux extensions au modèle cosmologie "standard" ne permet de résoudre le faible désaccord restant, qui doit encore être étudié et expliqué.
Le modèle cosmologique le plus simple avec l'époque de formation des premières étoiles nouvellement déduite de Planck, qui permet un meilleur accord entre le fond diffus cosmologique et l'abondance des amas de galaxies, semble donc favorisé.

 

 

[1] Les étoiles qui se forment à notre époque, dans l’univers local, sont de la « population I »

[2] Alma : Radiotélescope formé d’un réseau pouvant associer jusqu’à 66 antennes amovibles situé au Chili à 5500 mètres d’altitude. Il produit des images interférométriques d’une grande précision dans la gamme des ondes millimétriques.

[3] Un quasar (quasi star) est une galaxie très énergétique avec un noyau actif (AGN : active galactic nucleus ou NAG : noyau actif galactique). Les quasars sont les entités les plus lumineuses de l'univers. Un quasar est la région compacte entourant un trou noir supermassif au centre d'une galaxie massive.

Partager cet article

Repost0
11 juin 2018 1 11 /06 /juin /2018 12:04

Temps Quantique

            Le temps quantique a été évoqué par C. Rovelli, dans son livre : « L’ordre du Temps » (voir articles précédents), p.161 et autres, de la façon suivante : « Je crois que c’est ce temps thermique – et quantique – qui est la variable que nous appelons « temps » dans notre univers réel (sic), dans lequel une variable temps n’existe pas (sic) au niveau fondamental. » Cette phrase est étonnamment alambiquée car le niveau quantique est considéré comme un niveau fondamental, alors si comme il l’affirme il y a un temps quantique, que penser ? De plus il n’est pas approprié d’évoquer : « notre univers réel », scientifiquement on ne peut évoquer que l’univers tel qu’il nous apparaît, étant donné l’état actuel de nos connaissances.

            Analysons maintenant la référence sur laquelle s’appuie Carlo pour éclairer une conception du temps quantique qui participerait aussi à une appellation du temps qui n’existe pas au niveau fondamental :

P.161 : « Alain Connes, très grand mathématicien français, a eu une intuition brillante sur le rôle de l’interaction quantique à la racine du temps.

            Quand une interaction rend concrète la position d’une molécule, l’état de la molécule est altéré. La même chose vaut pour sa vitesse. Si la vitesse est concrétisée avant la position, l’état de la molécule change de façon différente de ce qui se serait produit si les deux événements advenaient dans l’ordre inverse. L’ordre compte (sic). Si je mesure d’abord la position d’un électron, et ensuite sa vitesse, je change son état de façon différente de ce que j’aurais fait en mesurant d’abord sa vitesse et ensuite sa position.

            On appelle ceci la « non-commutativité » des variables quantiques, parce que la position et la vitesse ne « commutent » pas, c’est-à-dire qu’elles ne peuvent pas échanger leur place impunément. La non commutativité est l’un des phénomènes caractéristiques de la mécanique quantique. Elle détermine un ordre, et donc un élément minimal de temporalité, dans la détermination des deux variables physiques. Déterminer une variable physique n’est pas une opération inoffensive, c’est une interaction. L’effet de ces interactions dépend de leur ordre, et cet ordre est une interaction. L’effet de ces interactions dépend de leur ordre, et cet ordre est une forme primitive de l’ordre temporel.

            Que l’effet des interactions dépende de l’ordre de leur succession est peut-être précisément un fondement de l’ordre temporel du monde. C’est l’idée fascinante avancée par Connes : le germe premier de la temporalité dans les transitions quantiques élémentaires réside dans le fait que celles-ci sont naturellement (partiellement) ordonnées.

            Connes a donné une version mathématique raffinée de cette idée : il a montré qu’une sorte de flux temporel est défini implicitement par la non-commutativité des variables physiques. »

            Il y a dans cet exposé ci-dessus une extrapolation qui conduit à de la confusion parce que ce sont les opérations de mesure des variables physiques qui ne commutent pas et on ne peut pas inférer sur la non-commutativité des variables physiques comme cela est affirmé.

            Cette remarque ne correspond pas à une volonté de chipotage mais respecte un des concepts fondamentaux prévalant aux bases non contredites de la physique quantique car à l’échelle de celle-ci l’objet en soi est inaccessible directement à notre connaissance et nous devons intervenir activement (instrumentalement) dans tout acte de connaissance des grandeurs qui caractérisent l’objet. Heisenberg a toujours affirmer que la séparation radicale entre l'«objet» et l'observateur à travers ses appareils de mesure est vraiment illusoire ainsi que parler de l’évolution d’un ensemble quantique entre deux mesures n’a pas de sens. Ainsi, il faut considérer que c’est l’ordre de l’intervention de l’observateur qui n’est pas commutatif puisque la mesure des variables conjuguées exige des dispositifs expérimentaux incompatibles.

Comment est-ce possible de considérer qu’il y aurait a priori de l’ordre dans la nature ? Cet ordre qui nous apparaît ne peut être que provisoire et il n’est que le reflet de la méthode d’investigation humaine qui ne peut être que pragmatique et progressive et évolutive au fur et à mesure des avancées de nos connaissances. Penser que la nature serait intrinsèquement ordonnée révèlerait une sorte d’anthropomorphisme qui parasiterait la liberté intellectuelle essentielle qui anime le désir d’enquête, le désir de savoir. L’être humain cherche à savoir parce qu’il s’interroge : « Parmi tous les possibles qui sont dans la nature quels sont ceux que je peux, avec mon bagage actuel, saisir ? »

            En conséquence à ce stade je considère qu’il n’est pas possible, en évoquant les travaux théoriques d’A Connes, d’inférer du ‘Temps intrinsèque de nature Quantique’. Cette évocation me semble d’autant moins plausible en prenant en compte la philosophie Kantienne qu’ici, avec cette citation, je fais mienne : « C’est nous-mêmes qui introduisons de l’ordre et de la régularité dans les phénomènes, que nous nommons nature, et nous ne pourrions les y trouver, s’ils n’y avaient été mis originairement par nous ou par la nature de notre esprit. » Cette citation, je la fais mienne parce qu’il me paraît évident que les « nous-mêmes qui introduisons… » évoluent avec les nouvelles connaissances mises en lumière. En ce sens en s’enrichissant la « nature de notre esprit » évolue et ce sera, par la suite, sur la base d’un nouvel ordre et d’une nouvelle régularité que la nature sera interrogée.  

            Je souhaite aussi reprendre une partie du livre de C. Rovelli qui cite A. Connes, p.164, à propos de son roman co-écrit : ‘Le théâtre quantique’. Puisqu’il propose un croisement avec ce qui est pensé dans un roman de fiction c’est que cela n’est pas, pour lui, aussi fictif et cet extrait reflèterait une pensée digne d’intérêt dans le livre de Carlo, en tous les cas pourrait nourrir une réflexion.

« Dans le roman de science-fiction d’Alain Connes : Charlotte, l’héroïne, réussit pendant un instant à percevoir intégralement l’information du monde, sans aucun flou.

Charlotte arrive à « voir » directement le monde au-delà du temps : « J’ai eu cette chance inouïe d’expérimenter une perception globale de mon être, non plus à un moment particulier de son existence, mais comme un ‘tout’. J’ai pu comparer sa finitude dans l’espace contre laquelle personne ne s’insurge et sa finitude dans le temps qui nous pose problème. »

            Elle retourne ensuite dans le temps : « J’avais l’impression de perdre toute l’information infinie prodiguée par la scène quantique, et cette seule perte m’entraînait irrésistiblement dans le fleuve du temps. » L’émotion qui en découle est une émotion du temps : « J’ai ressenti cette émergence du temps comme une intrusion, source de confusion mentale, d’angoisse, de peur, de dissociation. »

            On retrouve avec cette citation une antienne ambition du physicien qui est convaincu que son domaine de connaissance a vocation de hisser le ‘sujet pensant’ jusqu’au savoir absolu, universel, jusqu’au savoir englobant le ‘Tout’. L’histoire du développement de la connaissance en physique est jalonnée de ces carrefours où le plus réputé de la classe des physiciens de l’époque annonçait à ses pairs : encore un coup de rein, encore une bonne idée, encore quelques détails à régler et la théorie et les équations qui embrasseront le ‘Tout’ est à notre portée. Il est vrai que les savoirs en science physique émergent suivant un processus d’une rationalité très forte dans le cadre d’un langage mathématique qui pourrait être considéré comme un langage universel. Certes, langage qui a une certaine universalité, exactement celle que les êtres humains sont en mesure de concevoir, mais ce langage n’est absolument pas un don de la nature comme le postule le mythe platonicien. Mythe, dont son essence est d’atteindre aussi, en toute plénitude, l’idéal de la contemplation comme Charlotte en aurait été furtivement témoin : « Charlotte, l’héroïne, réussit pendant un instant à percevoir intégralement l’information du monde, sans aucun flou. » Et le temps serait le grand faucheur qui impose le flou.

Que C. Rovelli fasse appel à cet argument d’appoint, de son ami A. Connes, pour résumer son sujet de recherche et sa pensée n’est pas banal. Voilà pourquoi, je n’ai pas pu me retenir d’écrire cet article aussi spécifique sur le temps quantique parce que nous avons sous les yeux l’annonce que l’émergence du temps est comme une intrusion et source de confusion mentale… Alors que selon mon hypothèse le temps est un propre de l’homme, et il n’y a pas d’autre univers qui soit que celui qui est éclairé par le discours scientifique de l’homme. Dans le futur, il sera intéressant de voir comment des hypothèses aussi parfaitement antipodiques évolueront.

Partager cet article

Repost0
29 mai 2018 2 29 /05 /mai /2018 10:57

            Ignorance rédhibitoire : un non-sens anthropologique 

 

Cet article est encore consacré à l’analyse du livre de C. Rovelli. Lorsque durant un cours récent[1] j’ai précisé : « On constate donc contrairement à ce que nous dit C. Rovelli : « le temps serait la marque de notre ignorance », ce serait plutôt la conquête de la précision de sa mesure qui serait notre atout majeur, notre bistouri, pour conquérir de la connaissance. », un étudiant s’est immédiatement exclamé à juste raison : « Mais vos positions respectives ne sont pas si éloignées ! » Je lui ai fait une réponse à la Normande : « Oui et Non. »

Oui, parce que C. Rovelli indique implicitement que l’être humain, à cause d’une ignorance fatale dont il est porteur, serait fondateur d’un certain temps, mais de celui qui fait illusion. Selon lui, qui fait illusion parce qu’il sait que le temps qui serait vrai, celui du monde physique réel bien compris, n’existe pas. Et, je récuse cette affirmation.

Oui, quand même, parce qu’explicitement je suis convaincu que le ‘temps de la connaissance en physique’ est fondé par le sujet pensant que nous sommes et il n’y a que ce temps-là qui compte.

Donc mon oui, à la Normande, est restrictif. Mais on pourrait aussi considérer qu’il y a une accroche possible de nos points de vue parce qu’il y a d’un côté l’ignorance qui est en jeu et de l’autre côté il y a la conquête de la connaissance qui est en jeu. Si on veut bien considérer que la conquête de la connaissance c’est vaincre l’ignorance on pourrait retenir que cette accroche est quelque peu crédible.

Toutefois l’ignorance qu’évoque Carlo est définitive, elle ne peut pas être levée. C’est dans le chapitre 9 de son livre : « Le temps est ignorance » qu’il expose cette ignorance rédhibitoire. Car selon son point de vue, il y a une frontière intangible entre un monde quantique et un monde macroscopique comme il le définit : « un état macroscopique, c’est-à-dire un mélange d’états microscopiques, ou une vision floue du monde (sic) » ; « dans un système physique élémentaire… dont nous avons une vision floue décrite par des états macroscopiques, un état macroscopique quelconque détermine un temps (sic). » ; « Je répète ce point, car il s’agit d’un point clé : un état macroscopique (qui ignore les détails) singularise une variable particulière, qui a certaines caractéristiques du temps. » Enfin dernière citation, toujours dans le même chapitre : « La temporalité est profondément liée au flou. Le flou est le fait que nous soyons ignorants des détails microscopiques du monde. Le temps de la physique, en définitive, est l’expression de notre ignorance du monde. Le temps est ignorance (sic). »

Annoncer comme le fait Rovelli qu’il y aurait une ignorance humaine fatale qui serait la cause de l’illusion du temps et de son émergence n’est pas acceptable[2] car c’est ignorer l’histoire de l’évolution de la connaissance humaine. Prenons par exemple ce que l’on nommait le chaos avant Poincaré et ce qui constitue maintenant une théorie scientifique du chaos avec son cortège de connaissances nouvelles, extraites du flou chaotique, devenues accessibles tout au long du 20e siècle et depuis largement appliquées.

Pour interpeller Rovelli, je peux citer des exemples bien plus récents avec plusieurs articles du mois de Mars de cette année (voir mon article du 12/05/2018) qui nous annoncent que grâce à des horloges de plus en plus précises nous allons être capables de mesurer des intervalles de temps de l’ordre 10-19s au lieu de 10-16s et ainsi disposer de nouveaux moyens de ‘voir’ le monde quantique, ‘voir’ de la nouvelle physique. L’histoire du développement de la connaissance en physique du sujet pensant ne peut être que l’histoire d’une dynamique qui ne cesse de se renouveler et cette histoire nous montre que nous sommes toujours en mesure de lever le voile du flou et de l’indétermination apparents sur des phénomènes physiques jusqu’alors insaisissables. Cette dynamique fondamentale qui est de nature anthropologique a pour conséquence de sans cesse projeter l’être humain vers le futur et cette flèche du temps implicite n’est pas moindre que celle dite thermique que Rovelli privilégie p. 163 : « Je crois que c’est ce temps thermique – et quantique – qui est la variable que nous appelons « temps » dans notre univers réel, dans lequel une variable temps n’existe pas au niveau fondamental. » Bref l’errance épistémologique de C. Rovelli qui affirme avoir repérer l’ignorance humaine, préalable, définitive, est inappropriée. C’est un non-sens anthropologique.

Comme annoncé ci-dessus je cite un exemple typique de cette réduction en cours de l’ignorance en reprenant un paragraphe de l’article 21/04/2018 de M. Brooks du NewScientist qui relate la conquête en cours d’un savoir nouveau sur l’effet tunnel :

« C’est le but de Aephraim Steinberg, un physicien expérimentateur à l’université de Toronto au Canada. Il a passé des décades à réfléchir à la durée d’événements quantiques tel que l’effet tunnel, dans lequel une particule quantique tel qu’un électron atomique se heurte à une barrière d’énergie qui serait insurmontable pour une particule classique. Dans certains cas, l’électron est libéré de son atome et creuse à travers la barrière, apparaissant instantanément de l’autre côté. Ce n’est pas qu’une idée théorique : cela se produit, et c’est central dans le comment du fonctionnement de l’électronique moderne.

Selon la vision la plus populaire du comment l’effet tunnel se produit, dérivé de la théorie des champs quantiques relativistes, cela a lieu sans la moindre durée temporelle, avec des électrons voyageant plus vite que la lumière. Cela tire la sonnette d’alarme. « Beaucoup d’entre nous sont très prudents à ce sujet - nous ne devrions réellement pas penser à des choses voyageant plus vite que la lumière » selon Steinberg.

 

Effet tunnel dans le temps 

 

Steinberg souligne que la théorie indique que l’atome soumis à l’effet tunnel crée une intrication entre régions de l’espace des 2 côtés de la barrière. Des mesures indépendantes des 2 régions devraient donc faire la lumière sur comment temps, espace et matière sont en relation et si quelque chose « d’instantané » peut réellement avoir lieu. Cela pourrait même révéler quelque chose de plus profond sur la relation d’intrication quantique au temps. «Je pense qu’il y a un lien direct » dit Steinberg.

Son équipe a travaillé méticuleusement à poser la question expérimentalement. L’idée de base est d’avoir des atomes ultra froids, refroidis à un milliardième de degré au-dessus du zéro absolu, creusant un tunnel à travers une barrière formée par les champs électromagnétiques d’un rayon laser qui est étroitement focalisé. « Nous avons commencé à voir les atomes traversant le tunnel » relate Steinberg. « Maintenant nous devons ajouter la mesure de combien de temps ils restent à l’intérieur de la barrière. »

Le problème est qu’il n’y a pas d’horloge standard pouvant le faire - chaque atome doit porter son propre chronomètre. L’équipe travaille présentement à utiliser le spin intrinsèque des atomes, dont l’orientation tourne d’une valeur donnée dans un champ magnétique, comme mesure de la durée pendant laquelle ils ont ressenti le champ magnétique de la barrière. Le spin sera mesuré des 2 côtés de la barrière, et les réponses révèleront le temps mis par l’atome pour la traverser. Il s’agit de briques de technologies toutes connues, il est juste question de les faire travailler toutes ensemble » révèle Steinberg. »

Avec cet exemple nous avons une belle illustration du fait que nous sommes capables de lever le voile sur des phénomènes dont jusqu’à encore peu de temps nous étions obligés d’écrire les équations relatives à l’effet tunnel avec un temps imaginaire qui laisse penser que notre intelligence de l’effet tunnel était floue, inaboutie. Comme l’indique Steinberg nous sommes au bord de pouvoir voir effectivement les atomes traverser le tunnel et de mesurer la durée de la traversée. En conséquence l’effet tunnel devient un effet sans flou vis-à-vis de notre capacité de l’observer et de le décrire. Le recours au temps imaginaire n’est plus de mise et je rappelle que des scientifiques Australiens, en juin 2015, avaient déjà obtenu un résultat qui va dans ce sens mais grâce à une étude au moyen d’une simulation de l’effet tunnel d’un électron (voir article du 17/06/2015). Je considère que cet exemple est une belle illustration nous indiquant que la conquête de mesures de plus en plus précises d’intervalles de temps est une condition pour vaincre un état d’ignorance qui ne peut que s’estomper en éclairant de nouvelles lois physiques. Ceci est loin d’être conforme à l’affirmation de Carlo : « le temps est ignorance », car l’ignorance n’est pas, il n’y a que des états d’ignorance (s) provisoires pour l’être humain.  

J’ai déjà commis un article le 26/09/2015 : ‘Non, on ne pense pas quantique. Pas encore !’ qui précise ma conviction : ô combien l’ignorance, l’incompréhension, ne peuvent être chez l’être humain des états permanents. Ci-dessous des extraits de cet article :

« Etant donné ce que j’ai écrit p.4 dans l’article du 19/08 : ‘Fondamentalement : Renoncer’, je fus alerté lorsque j’ai découvert que le mensuel ‘Science et Vie’ d’octobre annoncé en couverture, d’une façon affirmative et au présent : ‘On pense tous quantique’. Or ce que j’ai exprimé le 19/08 est un futur avec l’idée suivante : ‘Cet encore indique qu’il faut accepter l’idée que le sujet pensant évolue et évoluera et qu’ainsi : ‘penser quantique’ pourra devenir progressivement, quelque peu, plus naturel. Personne ne saurait dire, encore combien de générations (2, 3 ou 1 ou 10 ?), mais en effet on peut être assuré que cette conquête intellectuelle en marche doit avoir en retour une influence sur notre culture scientifique collective et partant induire une intelligibilité de plus en plus affûtée de ce qui est de l’ordre du quantique. Au sens propre du terme, notre bagage intellectuel s’enrichit et la pratique du raisonnement propre à la mécanique quantique dans des domaines de plus en plus variés ne peut que progressivement nous accoutumer et rendre plus naturel une pensée quantique.’ ; « Je reste convaincu que dans la durée nous serons à même de décrypter d’une façon de plus en plus pertinente les propriétés fondamentales de la mécanique quantique et que, au moins, certains de ses postulats pourront être dénoués et deviendront directement explicites, sans pour autant qu’il y ait une cognition quantique qui soit obligatoirement à l’œuvre. Cette évolution est à mettre au compte de notre apprentissage de la mécanique quantique depuis un siècle, des succès de celui-ci, de l’enregistrement et in fine de l’adoption de ses spécificités par ceux qui plus spécifiquement la pensent, de l’accoutumance de plus en plus large de ses applications. Grâce à l’éducation profonde qui est en cours, grâce à l’évolution culturelle technologique, il en résulte et il continuera d’en résulter un enrichissement évolutif de notre cerveau et penser quantique devient et deviendra progressivement, quelque peu, plus naturel. »

 

[1] Que j’assure chaque jeudi de 10h30 à 12h, dans le cadre de l’Université Ouverte de Paris Diderot (Paris 13e) entre le 15/10 et le 15/06 de chaque année universitaire.

[2] Ce type d’affirmation me fait penser à une tentative semblable d’Hervé Zwirn pour avoir prétendument déterminé scientifiquement : ‘les limites de la connaissance’ (édit : o. Jacob), dans un livre datant d’octobre 2000 et qui n’a pas retenu l’attention.

Partager cet article

Repost0
22 mai 2018 2 22 /05 /mai /2018 16:01

Bilan d’étape qui me convient.

            Je propose ce bilan parce qu’il y a la matière. Le fait qu’il me convienne doit attirer votre attention car je risque de privilégier ce qui va dans mon sens. A chacun des lecteurs de garder son esprit critique.

            En premier lieu je propose une traduction partielle d’un article du 14/05/2018 qui fait un bilan objectif mettant fin, après plus de 30 années de recherche obstinée, à la matière noire sous forme de WIMP (l’article complet en anglais est en copie à la fin de celui-ci). Bien sûr, en même temps, surgissent des alternatives mais cela est la manifestation du conservatisme et de l’inertie de la pensée scientifique que l’on rencontre tout au long de l’histoire de cette pensée.

            « Meeting : Les alternatives au WIMP sortent de l’ombre. Revue Physics. Compte rendu des rencontres de Moriond.

            A un meeting annuel de physique dans les Alpes, les WIMPs semblent perdre pied en tant que candidats favoris de la matière noire, faisant de la place pour un tas de nouvelles idées (sic)… Les physiciens sont devenus inquiets puisque leur candidat favori, le WIMP, a encore à faire une apparence, alors qu’il y a une multitude de recherches en cours. A Moriond, en Mars de cette année d’autres candidats de la matière noire ont été placés sous les feux de la rampe, tels que les axions, les trous noirs, les superfluides, et plus encore

            La raison de l’enthousiasme passé pour les WIMPs s’explique parce que ces particules apparaissent dans la théorie sans beaucoup de peaufinage. Les extensions du modèle standard comme celle correspondant à la supersymétrie prédisent une quantité de particules avec interaction faible et une masse dans le spectre de 1 à 100 Gev/c2. Si ces WIMPs sont créés dans le Big Bang, alors en accord avec de simples arguments thermodynamiques leur densité correspondrait à celle qui est déduite des observations astronomiques. Cet appariement obtenu sans effort a été appelé le miracle des WIMPs. Mais maintenant, le miracle n’émet plus qu’une faible lumière. A Moriond les données nouvelles sur les WIMPs sont de l’ordre de l’apologétique… Mais les résultats courants éliminent l’existence de ces particules, en mettant des limites de propriétés de plus en plus étroites sans jamais en accorder l’existence. La chasse va continuer dans les années à venir mais le paradigme des WIMPs a commencé à apparaître comme étant de moins en moins la solution au problème de la matière noire… C’est probablement en 2014 que la confiance concernant la découverte de WIMPs a commencé à marquer le pas. ‘Bien sûr, il y a encore des opportunités de découvertes, mais…’

            A Moriond, il fut donné un aperçu des candidats alternatifs à la matière noire. En tête de liste il y a l’axion. Comme les WIMPs, l’axion est bien justifié par la théorie de la physique des particules, car il pourrait expliquer pourquoi l’interaction forte ne viole pas la symétrie CP, alors que l’interaction faible la viole. L’axion est aussi la cible de recherches dédiées, telle que ADMX. D’autres candidats familiers ‘cheval noir’ qui ont été discutés à Moriond sont les neutrinos et les trous noirs – ces derniers connaissant un boom de popularité avec les observations récentes des ondes gravitationnelles.

            Mais à la conférence les portes étaient ouvertes dans tous les angles, avec de multiples nouvelles idées de matière noire : modèle de matière noire superfluide ; matière noire d'interaction de Planck ; matière noire floue (sic) ; etc… »

            Comme on peut le constater dans ce compte rendu, le concept de matière noire n’a pas disparu mais les échecs de découvertes engagées, depuis plus de trente ans, ciblées sur les WIMPs ont fait long feu. Les propositions nouvelles sont peu significatives et là encore comme on peut le vérifier la théorie quantique des champs ne permet pas d’opérer à des discriminations, dans ce cas de figure on peut constater le caractère ad hoc de cette théorie mille-feuilles.

On ne doit pas oublier que la problématique de la matière noire est directement connectée à la problématique du Big Bang puisque dans ce scénario on ne peut pas expliquer l’hypothèse des grumeaux primordiaux de matière ordinaire sans l’existence des puits de potentiel gravitationnels primordiaux formés par la matière noire. Si les physiciens se libèrent enfin du paradigme du Big Bang, l’hypothèse de la matière noire primordiale spécifique a une raison d’être nettement moindre. J’ai souvent indiqué qu’il faudrait vraiment accepter l’idée que les neutrinos sont les vecteurs d’une physique encore inconnue et dans ce cas des éclairages nouveaux seraient perceptibles. En fait lorsqu’on cessera de considérer notre univers compris actuellement comme un ensemble représentant un Tout, c’est-à-dire comme un ensemble exhaustif, autarcique, clos, c’est-à-dire qu’il serait une chose, tandis que comme nous l’ont indiqué récemment dans un article, S. Hawking et Th. Hertog, l’hypothèse de notre univers d’un multivers et d’un non big bang peut être théoriquement envisagée (voir mon article du 09/05/2018), on acquerra un nouveau souffle de conquête de compréhension de ce que l’on pourra toujours nommer notre univers mais amplement enrichi en dimensions, en contenu de propriétés et de composants.

Selon mon point de vue, l’hypothèse du multivers a la valeur d’une entrevue intellectuelle qui, plus ou moins rapidement, permettra de dépasser des contraintes actuelles que nous attribuons à notre univers et qui limitent notre perception théorique et notre perception concrète trop orientée de celui-ci. Trop orientée parce que nous observons ce que notre pensée nous dicte là où observer et c’est naturel. Pensons à cette situation nouvelle qui s’impose avec l’écart significatif maintenant constaté de la ‘constante’ de Hubble.

C’est exactement avec cette perspective que j’ai choisi de titrer le présent article : Bilan d’étape qui me convient.

Je souhaite aussi proposer un bilan de la lecture du livre de C. Rovelli qui est celui résumé dans l’email que je lui ai fait parvenir et auquel il a répondu : Merci philip, sans plus. Il est ci-joint :

Bonjour Carlo

« En premier lieu, je veux te féliciter pour ton nouveau livre. Bien que nous ayons déjà dialogué sur nos désaccords, je te remercie pour la qualité de ton livre.

            Selon moi, le temps est un propre de l’homme et il ne peut pas y avoir de discours scientifique sans scientifique(s), sans ‘Présence’ du physicien. Notre réalité, notre vérité, c’est cette ‘Présence’ et en conséquence le temps est réel. Il ne nous est pas possible d’inférer au-delà si le temps dit physique est absolument réel ou pas, comme tu l’affirmes, car il ne peut y avoir personne, aucune intelligence, pour pouvoir l’énoncer.

            Affirmer ce qui est réel suppose que nos connaissances (certaines au moins) seraient déjà bornées or elles sont toutes provisoires et appelées à être dépassées par des nouvelles qui les enchâsseront ou les réfuteront, sans que ce processus ne s’arrête (voir à titre d’exemple le dernier article de S. Hawking et Th. Hertog, qu’il soit pertinent ou pas). En ce sens le temps n’est pas la preuve de notre ignorance il est au contraire la trace de la dynamique de la conquête permanente de connaissances du ‘sujet pensant’.

            Tu as dû prendre connaissance des différents articles du 1er trimestre 2018 relatifs à la détermination d’intervalles de temps de plus en plus précis autour de 10-19s ce qui permettra de ‘voir’ (sic) de la nouvelle physique. Ceci est en accord avec mon hypothèse du Temps propre du Sujet (TpS) que je situe autour de 10-25s qui correspond aussi à ce que je nomme le point aveugle de l’intelligence humaine. Ce qui est certain, il est de plus en plus difficile d’obtenir des gains de précision de la mesure d’intervalles de temps cela est expérimentalement asymptotique. On ne peut ignorer le résultat expérimental suivant : depuis 6 ans on ne voit rien de neuf dans CMS et ATLAS. Le dernier objet observé : le Boson de Higgs a une durée de vie de l’ordre de 10-21s. Pourtant, il y a toujours certainement des événements nouveaux dans ces détecteurs mais ils sont de durées trop limitées pour que nous puissions les voir présentement. 

            Je t’ai déjà indiqué que c’est à cause de l’affirmation d’Einstein : « Seules les coïncidences spatio-temporelles sont réelles » que j’ai conçu l’hypothèse du ‘Maintenant’, du ‘Moment Présent’ car pour n’importe lequel des observateurs ces coïncidences ne sont pas observables. Et c’est de là que j’ai inféré le TpS, qui lui est irréductible et invariant dans tous les référentiels. 

            Ma métaphysique est la suivante : Au sein d’une Eternité, parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance de l’Univers. Son horizon c’est le savoir du Tout pour rejoindre l’Eternité.

A+, si tu le souhaites et Amitiés. »

---------------------------------------------

Je sélectionne particulièrement l’idée que Rovelli met en avant dans son livre : les événements (juste un mot pour un temps donné et une localisation à qui quelque chose pourrait arriver), plutôt que particules et champs (sic), sont les constituants du monde… le temps et l’espace eux-mêmes ne sont seulement et réellement que la manifestation des interactions entre les événements et du réseau de causalité qui les relie.

Plus loin dans son livre il indique que les événements se caractérisent par une durée limitée (page 117). Alors question :  Pourquoi Carlo privilégie-t-il les interactions entre les événements pour justifier l’émergence du temps alors qu’il y a la durée qui caractérise les événements ? Pourquoi émet-il un jugement définitif sur le temps et l’espace à ce stade alors que lui-même indique qu’il y a encore de la durée temporelle en jeu avec les événements qui selon lui interagiraient ?

Plutôt que de vouloir juger définitivement de l’existence ou pas du temps, de son émergence ou pas, il y a mieux à faire et concentrons nos efforts pour éclairer ces intervalles de temps et découvrir la physique que cela dévoilera. Déjà le 17/06/2015, j’ai proposé un article : « Décrypter en ‘Présence’ l’effet tunnel » effet sur lequel, il y a encore du nouveau dans l’article de Michael Brooks, du 21/04/2018, dans le NewScientists et qui va dans le même sens de ce que j’ai mis en exergue en 2015. Je cite en résumé : « Aephraim Steinberg, physicien expérimentateur de l’université de Toronto, qui travaille sur la mesure de la durée réelle que met un électron pour franchir une barrière de potentielle, indique qu’il n’y a plus qu’à concevoir la bonne horloge suffisamment précise pour mesurer complètement cette durée de la traversée. Mais il indique que son équipe a déjà commencé à observer effectivement la traversée du tunnel. »

Grâce à ce type de résultat les physiciens remplacent le temps imaginaire qu’ils écrivent dans l’équation de l’effet tunnel traditionnelle par un temps réel. C’est-à-dire qu’ils remplacent l’expression de leur ignorance par l’expression de leur observation, de leur savoir. On constate donc contrairement à ce que nous dit C. Rovelli : « le temps serait la marque de notre ignorance », ce serait la conquête de la précision de sa mesure qui serait plutôt notre atout majeur, notre bistouri, pour conquérir de la connaissance.

Juste pour conclure, je rappelle : « Il n’est pas banal que Serge Haroche ait intitulé son cours du 07/04/2015 : « La passion (sic) de la précision et la mesure du temps. » Il serait intéressant que S. Haroche nous dise pourquoi cette passion ? Est-ce que la précision et la mesure du temps est motivée par une intuition profondément humaine qui nous conduirait jusqu’à la proximité de la plus pure palpitation existentielle ? »

Meetings: WIMP Alternatives Come Out of the Shadows

May 14, 2018• Physics 11, 48

At an annual physics meeting in the Alps, WIMPs appeared to lose their foothold as the favored dark matter candidate, making room for a slew of new ideas.

The Rencontres de Moriond (Moriond Conferences) have been a fixture of European high-energy physics for over half a century. These meetings—typically held at an Alpine ski resort—have been the site of many big announcements, such as the first public talk on the top quark discovery in 1995 and important Higgs updates in 2013. One day, perhaps, a dark matter detection will headline at Moriond. For now, physicists wait. But they’ve gotten a bit anxious, as their shoo-in candidate, the WIMP, has yet to make an appearance—despite several ongoing searches. At this year’s Moriond, held this past March in La Thuile, Italy, some of the limelight passed to other dark matter candidates, such as axions, black holes, superfluids, and more.

Dark matter theory is no longer dominated by WIMPs.

WIMPs, or weakly interacting massive particles, have been a popular topic over the years at Moriond, according to meeting organizer Jacques Dumarchez from the Laboratory of Nuclear Physics and High Energy (LPNHE) in France. The reason for this enthusiasm is that WIMPs fall out of theory without much tweaking. Extensions of the standard model, like supersymmetry, predict a host of particles with weak interactions and a mass in the 1 to 100GeV∕c2 range. If WIMPs like this were created in the big bang, then, according to simple thermodynamic arguments, their density would match the expectations for dark matter based on astronomical observations. This seemingly effortless matching has been called the WIMP miracle.

But these days, the miracle has less of a halo around it. At this year’s Moriond, updates from direct and indirect searches for WIMPs sounded almost apologetic. Alessandro Manfredini of the Weizmann Institute of Science in Israel told his listeners to “keep calm… and fingers crossed,” as he gave the latest news from Xenon 1T, a one-ton dark matter detector at Italy’s Gran Sasso laboratory. He showed that the experiment has now reached record-breaking sensitivity, so that if a 50GeV∕c2 WIMP exists, the next data release could reveal ten events. But, like other WIMP searches, the current results rule the particles out—by putting tighter limits on their properties—rather than rule them in. The hunt will continue for years to come, but the WIMP paradigm has “started to look less as the obvious solution to the dark matter problem,” Dumarchez said.

When did WIMP confidence start to deflate? Tim Tait from the University of California, Irvine, described the change as gradual. “It is hard to say exactly when it began, but I think it was becoming noticeable around 2014 or so,” Tait said. That’s when the null results from dark matter searches began closing the favored parameter space for the WIMP model. “Of course, there is still a good opportunity for those searches to discover WIMPs,” he said.

At Moriond, Tait gave an overview of dark matter candidates, in which he discussed WIMPs but devoted much of his time to the dazzling variety of other dark matter theories. Chief among these is the axion. Like the WIMP, it is well-motivated from particle physics theory, as it may explain why strong interactions do not violate CP symmetry, while weak interactions do. The axion is also the target of several dedicated searches, such as ADMX. Other familiar “dark horse” candidates discussed at Moriond were neutrinos and black holes—with the latter seeing a boost in popularity after recent gravitational-wave observations.

But at the conference, the doors seemed open to all comers, with several new dark matter ideas taking the stage. One of the talks was by Justin Khoury from the University of Pennsylvania in Philadelphia, who advocates a superfluid model of dark matter. The main assumption here is that dark matter has strong self-interactions that cause it to cool and condense in the centers of galaxies. The resulting superfluid could help explain certain anomalies in observed galactic velocity profiles.

Martin Sloth from the University of Southern Denmark takes a very different approach. Rather than having strong interactions, his so-called Planckian interacting dark matter has zero interactions beyond gravity, but it makes up for its lack of interactions with an enormous mass (around 1028eV∕c2). At the opposite end of the mass spectrum is fuzzy dark matter, weighing in at 10−22eV∕c2. These ethereal particles could explain an apparent lack of small galaxies. But they could also run into constraints from observed absorption in the intergalactic medium, explained Eric Armengaud from France’s Atomic Energy Commission (CEA) in Saclay.

Although WIMPs continue to be the odds-on favorite, the field has certainly expanded—with light and heavy masses, weak and strong interactions, and seemingly everything in between. Sloth compared the current situation without a WIMP detection to a Wimbledon tournament without Roger Federer: “Everybody is signing up, thinking that they now have a chance.”

But can theorists make compelling arguments for these alternatives, as they did for WIMPs? David Kaplan from Johns Hopkins University, Maryland, believes that theoretical backing will not be a problem. In fact, he commented that the community has been too fixated on WIMPs (and the miracle) for the last 30 years. He warned his compatriots to not make the same mistake again: “I don’t want the next 30 years to be just axions.”

Michael Schirber is a Corresponding Editor for Physics based in Lyon, France.

Partager cet article

Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens