Overblog
Suivre ce blog Administration + Créer mon blog
13 avril 2020 1 13 /04 /avril /2020 10:23

La quête d’une nouvelle physique avec le programme de ‘Physique au-delà des Collisionneurs’. (The quest for new physics with the ‘Physics Beyond Collider’ program)

Cet article que j’ai obtenu dans ‘Nature’ le 6/04, nous dit à quel point l’horizon pour une nouvelle physique est bouché tant sur le plan expérimental que théorique et en conséquence tous les indices qui pourraient servir de porte d’entrée vers cette nouvelle physique appelée sont répertoriés et analysés. L’équipe de trois physiciens qui a présenté cet article qui constitue un rapport de synthèse ne s’aventure pas au-delà d’une perspective de prolongement du modèle standard (SM). Il est ancré que l’impasse actuelle ne peut pas être due aux processus d’une accumulation de surestimations et d’extrapolations de concepts exploités dans le cadre de la théorie quantique des champs. Rebrousser chemin semble inenvisageable, on le constate en ce qui concerne les neutrinos qui sont toujours affublés d’attributs puisés dans le vivier, pour eux étriqué, du SM, comme par exemple d’une masse d’inertie alors que selon ma conviction les neutrinos sont les vecteurs d’une physique autre que celle qui contribue à caractériser le SM. Cet article est intéressant car en creux il nous permet d’évaluer tout le chemin qui reste à parcourir.

Je n’ai pas traduit toute la partie de l’article qui indique tous les sites expérimentaux qui permettraient de mener des expériences pour résoudre les inconnues citées ci-après. Ce que je peux vous dire c’est que quelques-unes ont été déjà réalisées et ont donné des résultats négatifs dans les limites des précisions des résultats expérimentaux.

            Présentation

Ces dernières années, l’intérêt pour les méthodes complémentaires pour les collisionneurs à haute-énergie-frontière pour étudier la physique des particules élémentaires et des forces a augmenté. Ce développement est motivé par les résultats négatifs jusqu’à présent des recherches de nouvelles particules avec de fortes masses au Grand collisionneur de hadrons, et par des tentatives théoriques de rendre compte des masses de neutrinos et de résoudre des énigmes cosmologiques telles que la matière noire, l’énergie sombre et l’asymétrie de la matière-antimatière dans l’Univers. Traditionnellement, le CERN a accueilli une multitude de projets d’accélérateur et de non-accélérateur sous la frontière de haute énergie, dans lequel plus d’un millier de physiciens sont actuellement impliqués. L’étude Physics Beyond Colliders (PBC) a été lancée il y a trois ans pour explorer l’avenir de ce domaine. Nous donnons ici un aperçu des diverses propositions de la PBC, allant de l’exploration du secteur obscur aux mesures de précision des processus fortement interactifs. La méthodologie utilisée pour comparer la portée de ces projets — basée sur un ensemble de modèles de référence communs — a suscité l’intérêt pour les communautés tout autant des collisionneurs, des neutrinos, ainsi que des non-accélérateurs et peut fournir un aperçu complet de la façon dont la plage des paramètres pour la physique au-delà du Modèle Standard devrait être explorée dans le contexte mondial.

            Principalement

La physique des particules fondamentales se trouve actuellement dans la position intéressante d’être absolument certaine qu’il doit y avoir une physique au-delà du Modèle Standard actuel (SM), décrivant les particules élémentaires et les forces faibles, électromagnétiques et fortes, tandis qu’en même temps elle fait face au défi qu’il semble extrêmement difficile de trouver cet au-delà. Des preuves convaincantes de la cosmologie suggèrent que 95% de toute la matière et l’énergie dans l’Univers se compose de matière noire (DM) et d’énergie sombre, non décrites au sein du SM, bien que la grande majorité des expériences sur Terre sont en accord avec une précision étonnante avec les prédictions du SM. Il existe deux façons de concilier au-delà de la physique du Modèle standard (Beyond Standard Model : BSM) avec une non-observation dans les expériences actuelles : « les nouvelles particules pourraient être soit très massives, soit très faiblement interactives avec le SM »

Motivations théoriques

Avant sa découverte, la masse boson de Higgs était attendue dans la fourchette autour de 100-1.000 GeV sur la base des considérations de cohérence du SM à des énergies supérieures à 1 TeV (réf. 5). La situation a maintenant fondamentalement changé parce que le SM, avec le boson de Higgs d’environ 125 GeV, ne donne aucune indication claire de l’endroit où la nouvelle physique pourrait être trouvée. La quête de la physique BSM nécessite une vaste gamme de masses de particules et de couplages à explorer. Les collisionneurs à haute énergie tels que le Grand collisionneur de hadrons (LHC) et les machines proposées comme le collisionneur linéaire international, le collisionneur linéaire compact ou le collisionneur circulaire futur, sont cruciaux pour l’observation directe des particules putatives très massives. Des expériences complémentaires à faible énergie mais à haute intensité ou précision, comme nous l’avons vu dans le cadre du programme PBC, recherchent des particules à faible masse et à faible interaction, ou à très haute masse, ces dernières devenant accessibles grâce à leurs effets indirects sur les observables. Bien qu’il n’existe actuellement aucune preuve décisive de déviations de la part du SM dans le cadre d’expériences de haute intensité ou de précision, quelques indices significatifs nécessitent une enquête plus approfondie.

Les énigmes cosmologiques, ainsi que les anomalies actuelles, pourraient s’expliquer par l’existence d’un secteur sombre — de nouvelles « particules cachées » qui ne portent aucune charge de jauge du SM et qui interagissent donc faiblement avec la matière ordinaire, ou/et qui vivent très longtemps. Dans le cadre de l’étude PBC, un ensemble de modèles de référence représentant des extensions prospectées et bien motivées du SM ont été définis. Ces modèles sont basés sur l’idée de portails vers un secteur sombre qui sont les interactions les plus simples entre les particules SM et les nouvelles particules cachées. En particulier, l’étude PBC se concentre sur les modèles suivants.

Photons noirs avec et sans particules DM supplémentaires

Les interactions du SM proviennent de trois groupes de jauge donnant lieu au photon pour l’interaction électromagnétique, les bosons W+ et W- et Z0 pour l’interaction faible et les gluons pour l’interaction forte. Le photon est le transporteur de force le plus simple parce qu’il ne porte pas de charge et ne se couple donc pas à lui-même. Une potentielle extension minimale du SM est donc par le biais d’un « photon sombre » supplémentaire qui ne correspond pas à des particules massives de SM. En conséquence, la seule et potentielle interaction très faible du photon noir avec une particule SM est via un petit mélange avec le photon, résultant en une petite probabilité de conversion du photon noire en un photon. Cette extension, la plus simple du SM, des interactions de jauges par une additionnelle particule semblable-photon (photon-like) a beaucoup d’applications dans la construction du modèle de DM.

Leptons neutres lourds

Tous les fermions chargés du SM existent dans une version gauche et droite (naïvement, la main se réfère au sens de la rotation du spin au regard de la direction du mouvement). Les neutrinos non chargés n’ont été observés que comme particules gauches. Cependant, il semble naturel (sic) pour les neutrinos d’avoir des homologues droits. Semblable aux photons sombres, ces neutrinos droits n’interagiraient que par le biais de petits mélanges avec les neutrinos du SM. Les neutrinos droits peuvent jouer un rôle dans l’explication des petites masses de neutrinos, de la matière noire (DM), et aussi à propos de la domination de la matière sur l’antimatière dans l’Univers.

Nouvelles particules scalaires

D’une manière générale, les particules scalaires, ne portant ni spin ni charge, sont les particules les plus simples imaginables. L’interaction la plus directe de scalaires supplémentaires avec le SM serait par le mélange avec le seul autre scalaire fondamental connu, c’est-à-dire le boson de Higgs. S’ils sont couplés au boson de Higgs, d’autres scalaires pourraient être en mesure de trouver des solutions au problème dit de la hiérarchie, qui fait référence au casse-tête de la raison pour laquelle l’échelle énergétique des interactions faibles est tellement plus petite que celle de la gravité. De nouvelles particules scalaires ont également été discutées en relation avec la DM.

Axions et particules axions-semblables (axion-like)

Les axions et les particules de type axions sont des particules (pseudo-)scalaires. Contrairement aux nouveaux scalaires dont il est question ci-dessus, ils sont spéciaux en ce sens qu’ils sont considérés comme des restes d’une symétrie sous-jacente. Pour cette raison, on s’attend à ce que les axions et les particules axion-like soient légères et que leurs interactions soient fortement supprimées. Des axions ont été proposés pour expliquer la symétrie parité (miroir) de l’interaction forte, démontrée avec une grande précision par le moment du dipôle électrique (EDM) du neutron observé nul. Les particules axions-like sont également de bons portails vers la DM et sont même des candidats DM prometteurs eux-mêmes.

Bien que ces modèles de référence ne constituent pas une liste exhaustive de modèles DM et du secteur obscur, ils fournissent un moyen utile de comparer les sensibilités des différentes expériences et de voir comment ils se complètent les uns les autres. Ils fournissent également une carte des zones cibles prometteuses suggérées par les problèmes ouverts de la physique des particules et fournissent des indices actuels d’anomalies expérimentales.

En plus de la nécessité d’une nouvelle physique, il faut reconnaître que même le SM n’est pas encore entièrement compris. En particulier la théorie des interactions fortes : chromodynamique quantique (QCD)…

Anomalies comme indices potentiels pour la nouvelle physique

Un petit nombre de mesures et d’observations peuvent indiquer par exemple des écarts aux prévisions du SM au niveau de deux à quatre ‘écarts standard’ (σ). Ces indices peuvent être les premiers signes d’une découverte imminente d’une nouvelle physique et fournir une incitation attrayante pour la construction de modèles théoriques. À leur tour, ces modèles théoriques permettent alors de concevoir de nouveaux, et plus significativement, différents tests pour interpréter ces anomalies. Cependant, il est important de noter que la signification usuelle ne couvre généralement que les incertitudes statistiques et les erreurs systématiques connues. Par conséquent, des expériences indépendantes pour mesurer les quantités en question sont souhaitables pour confirmer la véracité des observations anormales. Dans ce qui suit, nous discutons brièvement des indices les plus intrigants.

Anomalies B

La désintégration des B-mésons montrent plusieurs écarts de 2 à 3 σ par rapport aux prévisions du SM. Notamment, dans le modèle SM, on s’attend à ce que le couplage de jauge des différents leptons (e, µ ou τ) soient égaux. Pourtant, les mesures indiquent une violation potentielle de cette universalité attendue. Les extensions appropriées du SM (par exemple, basées sur une théorie effective de champ) permettent une explication sans violer d’autres contraintes expérimentales.

(g - 2) du muon

La valeur du moment du dipôle magnétique du muon peut être calculée et mesurée avec une précision remarquable. Il s’agit donc d’un test de précision classique du SM. La mesure de référence indique une déviation de 3σ à 4σ par rapport aux attentes du SM (notamment les incertitudes théoriques et expérimentales sont de taille similaire). Les explications pourraient provenir de corrections quantiques dues à la faible échelle de l’ordre de 100Gev de particules avec des couplages O(1) ou avec des particules beaucoup plus légères de 10 à 100 Mev avec couplages O(10-3). Un exemple minimal de ce dernier type — un photon noir — fournit un exemple intéressant de l’endroit où le modèle théorique a conduit à un test expérimental. Ce test a conduit à une expérience avec une cible fixe avec des collisionneurs à faible énergie a jugé que le photon noir n’était pas une explication possible. D’autres modèles simples dans ce domaine restent viables. Une nouvelle expérience prend actuellement des données au Fermilab aux États-Unis avec la promesse de réduire l’incertitude expérimentale sur (g - 2) par un facteur de quatre.

Anomalie de Béryllium

Des expériences menées à l’installation d’Atomki en Hongrie ont étudié les paires d’électron-positron émises dans la désintégration des états excités de 8Be et 4He. Dans les deux cas, ils trouvent plus d’événements que prévu à de grands angles entre l’électron et le positron. Une explication potentielle pourrait être un nouveau boson qui est émis du noyau à faible vitesse et se désintègre par la suite dans une paire électron-positron. Dans le référentiel au repos de cette particule, l’angle électron-positron serait de 180 degrés et, en raison de la faible vitesse, l’angle dans le référentiel du laboratoire ne serait que légèrement comprimé. Cela indiquerait une masse du boson de 17 MeV.

Anomalies de refroidissement

Plusieurs systèmes astrophysiques tels que les naines blanches et les étoiles à branche horizontale, ainsi que les restes de supernova, semblent refroidir légèrement plus vite que prévu. Cela pourrait indiquer une perte d’énergie supplémentaire par l’émission de particules légères extrêmement faiblement couplées, (masses inférieures à 100 keV). Si de telles particules sont produites à l’intérieur d’une étoile, elles partent immédiatement. Cela contraste avec, par exemple, les photons qui sont dispersés plusieurs fois sur leur chemin vers la surface, réduisant ainsi la perte d’énergie via cette route. Pour cette raison, des particules de lumière extrêmement faiblement couplées peuvent entraîner une perte d’énergie importante malgré une force d’interaction relativement faible.

Transparence des rayons gamma

Les rayons gamma à haute énergie qui se propagent dans l’Univers perdent de l’énergie par les collisions avec la lumière de fond extragalactique, créant ainsi des paires électron-positron. Les observations constatent qu’il y a plus de photons à haute énergie que prévu, ce qui indique un moyen de contourner ce mécanisme d’épuisement énergétique. Une option est qu’en présence de champs magnétiques, certains photons se transforment en bosons très légers, notamment en particules axions-like. Ceux-ci voyagent alors sans être absorbés par la création de paires et finalement se reconvertissent en photons.

 

 

Partager cet article
Repost0
3 avril 2020 5 03 /04 /avril /2020 07:09

D’autres émancipations à venir.

Avec la continuation de la lecture du livre de Hossenfelder, je rencontre le paragraphe suivant que je cite en totalité car il me rend un très grand service pour rendre compte de ce que je cite régulièrement dans mes articles à propos du rôle et du poids des « Déterminations ». L’exemple très approprié proposé par Hossenfelder indique une détermination spécifique, assez facile à identifier, mais non des moindres qui est liée à la culture scientifique d’une époque que j’ai évoquée à nouveau, à plusieurs niveaux, dans le précédent article où j’ai finalement considéré que probablement, grâce à un processus d’intériorisation intellectuelle, un tabou se lève en ce qui concerne le multivers et en conséquence la fonction d’onde de la connaissance globale est en cours de réduction sur un état de connaissance comprenant le/les multivers.

L’émancipation de la dissonance (p.145-146)

« Je ne peux pas dire que je sois fan de la musique dodécaphonique. Mais je dois également admette que je n'ai pas passé beaucoup de temps à en écouter. Ce n'est pas le cas du critique musical Anthony Tommasini. Dans une vidéo réalisée pour le New York Times en 2007, il parle de << l'émancipation de la dissonance >> dans les compositions d'Arnold Schoenberg, l'inventeur de la musique dodécaphonique. L'innovation de Schoenberg remonte aux années 1920 et a joui d'une brève popularité auprès des musiciens professionnels dans les années 1970, sans jamais connaître un succès public.

<< Schoenberg serait blessé si vous considériez sa musique comme dissonante de façon sévère, péjorative, négative, raconte Tommasini. Il pensait, quant à lui, qu'il favorisait une vie pleine, riche et complexe. [...] Par exemple, voici un morceau, pour piano, tiré de l'Opus 19 qui est très dissonant, mais aussi délicat et superbe. >> Il en joue quelques mesures, puis cite un autre exemple. « Il est possible d'harmoniser [ce thème] en do majeur, démontre-t-il, manifestement insatisfait, ce qui est si ennuyeux en comparaison de ce que fait [Schoenberg]. » Il revient à l'original dodécaphonique. « Ah » soupire-t-il, et il plaque un nouvel accord dissonant. Moi, j'ai juste l'impression qu'un chat est en train de marcher sur le clavier.

Mais il est fort possible que si j'écoutais de la musique dodécaphonique assez souvent, je finirais par ne plus entendre une cacophonie, et que je commencerais à la trouver << délicate >> et « émancipatrice >> tout comme Tommasini. Voss et Clarke ont montré que la musique exerce un attrait en partie universel, qui se reflète dans les récurrences qu'ils ont découvertes, indépendantes du style. D'autres chercheurs ont conclu que cet attrait était notamment dû à notre éducation, qui façonne nos réactions aux accords consonants et dissonants. Mais nous accordons aussi une grande valeur à la nouveauté. Et les professionnels qui gagnent leur vie en vendant de nouvelles idées ne ratent jamais l'occasion de rompre avec l'ennui de ce qui est familier.

En science aussi, notre perception de la beauté et de la simplicité est en partie universelle et en partie due à notre éducation. Et exactement comme en musique, ce que nous considérons comme prévisible et en même temps surprenant dans les sciences dépend de notre familiarité avec le domaine. Au fil de nos travaux, nous augmentons notre tolérance à la nouveauté.

Effectivement, plus j'en apprends sur le multivers, plus je le trouve intéressant. Je peux voir que c'est un changement étonnamment simple, et pourtant d'une grande portée, dans la façon que nous avons de comprendre notre propre importance (ou son absence) dans le monde. Peut-être Tegmark a-t-il raison, peut-être suis-je simplement affligée d'un biais émotionnel vis-à-vis de ce qui n’est qu’une conclusion logique. Le multivers est véritablement une émancipation des mathématiques, qui favorise l'apparition d'une vie riche et complexe. Un point de vue d’autant plus convaincant quand un Prix Nobel l'appui de tout son poids. »

Ma différence avec Hossenfelder c’est que sa conversion toute progressive est suscitée par le poids évolutif des significations mathématiques tandis que ma conviction est forgée en étudiant et analysant l’histoire de la connaissance en science physique du sujet pensant. Il est certain qu’au-delà des interviews ‘d’éminents’ scientifiques relatés dans son livre, il y a en contrepoint ses réflexions et ses analyses personnelles qui sont très pertinentes et qui contribuent aussi à l’intérêt de lire ce livre. En ce qui concerne la dimension de l’universel que l’on peut apprécier tout autant en musique qu’en physique, je me souviens de mon étonnement lorsque pour la première fois on a voulu m’enseigner la loi de Newton comme une loi universelle. En première année d’université le professeur m’a répondu : « C’est comme ça et je n’y peux rien. » Ceci m’a conforté dans l’idée que cette dimension de l’universalité était une croyance, symptôme d’une ignorance. Je signale, toutefois, que cette loi est forte car une publication du 17/03/2020 dans ‘Nature’ annonce que la loi de la gravitation de Newton vaut encore lorsque que des objets sont à distance de 52 micromètres : « Even at short range, Newton’s law still rules. »

Selon ma conception, il y a des déterminations encore plus profondes comme celles qui font obstacle à ce que nous puissions penser quantique. Comme je l’indique, ces déterminations qui affectent le sujet pensant seront levées progressivement. C’est une affaire d’évolution cérébrale qui génèrera une révolution culturelle. Il y a d’autres déterminations difficiles à identifier car les physiciens refusent, entre autres, de prendre en compte le « Là » d’où une pensée structurée par la nécessité liée à la survie à commencer à habiter les grands ancêtres d’Homo Sapiens. Il est possible de situer cet avènement il y a environ 2000.000 d’années. Et la conception de l’espace-temps, et ce qui vient avec, qui nous habite actuellement et qui intellectuellement nous détermine, prend racine à cette époque. Cette conception est liée au déplacement d’un lieu à un autre, durant une journée solaire, pas à pas, d’un corps pesant.

Il est intéressant de signaler qu’un non physicien mais un neuroscientifique de grande envergure a conjecturé au milieu d’une passivité totale qui depuis perdure et qui indique la pauvreté de la capacité à dialoguer de la part de la communauté scientifique au niveau proposé par S. Dehaene. Voir article du 5/01/2018, ‘Turing or not Turing’ :

« Je vous cite ci-dessous un extrait d’un article de ‘La Recherche’, (Octobre 2017) dans lequel S. Dehaene livre un entretien :

« La pensée géométrique est assez ancienne. Il est très intrigant de voir que, il y a 1.6 à 1.8 millions d'années les hommes, façonnaient déjà des objets aux propriétés mathématiques élaborées, notamment des pierres en forme de sphère, comme s'ils possédaient la notion d'équidistance à un point. On connaît également des dizaines de milliers de bifaces, ces outils pourvus de deux plans de symétrie orthogonaux : ils ont le même degré d'ancienneté, et leur perfection géométrique démontre une recherche délibérée de la géométrie, au-delà de la simple utilité fonctionnelle. Dès lors, je me demande si la capacité de représentation symbolique et récursive n’est pas apparue, dans un premier temps, indépendamment du langage, avant tout comme un système de représentation rationnelle du monde.

Le cerveau d'Homo erectus avait peut-être déjà atteint la compétence d'une machine de Turing universelle (sic), capable de représenter toutes les structures logiques ou mathématiques possibles. Peut-être est-ce une illusion, mais pour l'instant, notre espèce a réussi à comprendre l'organisation des structures du monde à toutes les échelles de l'Univers. Dans un deuxième temps, il y a environ 100.000 ans, on observe une explosion culturelle qui suggère un langage, une communication... On peut donc se demander s'il n’y a pas d'abord la mise en place d'un système de représentations mentales enchâssées, puis l'apparition d'une capacité à communiquer ces représentations. »

Je propose de modifier les propos de S. Dehaene lorsqu’il fait référence au terme « monde » par « notre monde », ensuite je pense qu’avant tout, c’est l’utilité fonctionnelle impérative qui précède la rencontre avec une certaine perfection géométrique.

 

Partager cet article
Repost0
25 mars 2020 3 25 /03 /mars /2020 10:42

Une nouvelle perspective sur la nature de la science est envisageable

Cet article est organisé sous forme de dialogue avec S. Weinberg, ensuite avec H. Zwirn, puis je tenterai une synthèse.

Les propos de Weinberg, je les puise dans le livre : ‘Lost in Maths’ version française du livre en anglais de Sabine Hossenfelder : ‘La beauté laide’ ou encore : ‘Comment la beauté égare la physique’, voir articles du 20/03/2018 et du 01/07/2018.

S. Weinberg né le 3 mai 1933 à New York, est un physicien américain. Il est le principal instigateur, avec Abdus Salam et Sheldon Glashow, de la théorie de l'interaction électrofaible, ce qui lui a valu de partager le prix Nobel de physique de 1979. Weinberg a travaillé sur de nombreux sujets, notamment ce qui concerne les théories d'unification (dont la théorie des supercordes), l'astrophysique et la chromodynamique quantique.

 Aujourd’hui, il est un grand témoin des problèmes historiquement posés par la mécanique quantique et S. Hossenfelder lui pose la question : « Je voulais vous demander votre avis sur les fondations de la mécanique quantique. Vous avez écrit dans votre livre qu’il est difficile de changer quoi que ce soit dans la mécanique quantique sans la compromettre dans son ensemble. »

S. Weinberg, p154 : « Oui, c’est vrai, mais nous n’avons pas de théorie vraiment satisfaisante de la mécanique quantique…Personnellement, j’en viens à la conclusion qu’il n’existe aucune interprétation de la mécanique quantique qui ne présente de graves défauts. Cet avis ne fait pas l’unanimité. En fait beaucoup de physiciens se satisfont de leur propre interprétation. Selon moi, nous devrions prendre au sérieux la possibilité que l’on découvre une autre théorie plus satisfaisante, dont la mécanique quantique n’est qu’une bonne approximation. »

Ci-après, je commente ce que nous dit Weinberg. Il nous indique qu’à propos de la mécanique quantique (M.Q.) c’est le problème de son interprétation qui se pose et non pas ses axiomes ni son formalisme. Selon moi, on ne trouvera pas une autre théorie plus satisfaisante mais c’est l’évolution de nos capacités intellectuelles au contact de la théorie actuelle que progressivement nous décryptons et décrypterons la MQ. N’oublions pas que nous sommes des êtres vivants dont nos sens, ceux qui nous permettent de concevoir du sens physique à notre échelle, sont formatés par nos rapports macroscopiques, classiques, avec la nature. En conséquence nous n’aurons jamais un rapport direct avec la nature microscopique ce n’est que par l’investissement intellectuel que ce monde naturel deviendra de plus en plus familier. L’évolution est lente mais nous intériorisons et intérioriserons de plus en plus aisément les phénomènes quantiques. Nous ne savons pas encore penser quantique (voir article du 26/09/2015 : ‘Non, on ne pense pas quantique. Pas encore !) mais l’évolution est patente[1]. Je cite : « Quand des jeunes rejoignent mon groupe, déclare Anton Zeilinger, on voit qu’ils cherchent leur chemin à tâtons dans le noir et qu’ils ne le trouvent pas intuitivement. Mais au bout d’un moment, deux ou trois mois, ils trouvent leur rythme, et ils développent cette compréhension intuitive de la MQ, et c’est vraiment très intéressant à observer. C’est comme apprendre à faire du vélo. » C’est exactement ce que j’ai observé dans mon activité d’enseignement il y a quelques années et je n’ai pas oublié ma grande difficulté de réception de la MQ quand j’étais étudiant. En contraste avec ce point de vue actuel de A. Zeilinger et celui ci-après de Freeman Dyson[2] exprimé concrètement en 1958 on évalue déjà une vraie différence : « Il ne s’agit pas de comprendre la mécanique quantique, mais de sauter le pas : accepter l’idée qu’il n’y a rien à comprendre, et apprendre à se servir du formalisme mathématique pour trouver des résultats en accord avec les faits expérimentaux. Et il ajoute qu’avec le temps, les étudiants acceptent avec une résistance décroissante d’être brisés (sic) pour consentir à cette attitude. »

En résumé nous devons considérer que les fondements de la MQ avec son formalisme mathématique définissent une scène, un contexte radicalement inédit, dans lequel l’intelligence scientifique se met à l’épreuve pour conquérir de nouveau espace de compréhension de la Nature à l’échelle quantique. C’est une évolution cérébrale de Sapiens qui est en place.

Reprenons ce que nous dit S. W. p.154-155 : « Il est très difficile de faire mieux que la MQ. Bien qu’elle ne soit pas incohérente, elle présente plusieurs caractéristiques qui nous paraissent repoussantes. Ce n’est pas le fait qu’elle contienne des probabilités. C’est le genre de probabilités qu’elle contient. » Il s’explique : « Si vous avez une théorie qui dit que les particules se déplacent et qu’il y a une certaine probabilité qu’elles aillent ici ou là, ou encore ailleurs, je peux l’admettre. Ce que je n’aime pas, dans la mécanique quantique, c’est qu’elle formalise le calcul de probabilité que les humains obtiennent quand ils procèdent à certaines interventions dans la nature que nous appelons des expériences. Or, une théorie ne devrait pas se référer aux êtres humains dans ses postulats. »

Ci-après, je commente : Avec ce type de remarque S.W. exprime, à mon sens, cet idéalisme regrettable des physiciens à l’égard du réalisme. Selon la conception majoritaire : une bonne théorie est une théorie qui n’aurait pas de source, elle serait dans l’univers sans aucune attache, elle aurait été ‘vue’ et elle serait libre de toutes déterminations. Comme je l’ai indiqué dans l’article précédent du 24/02 les résultats d’une théorie sont conformes à leur(s) paradigmes. Plus le paradigme est pertinent, puissant, précurseur, plus les résultats constituent des avancées significatives et toujours conformes. Or, avec la mécanique quantique, il n’y eut pas de paradigme préalable comme ce fut le cas avec celui de la RG et exprimé par A. Einstein. C’est par la force des choses et donc la voie empirique et pragmatique, le fait expérimental, que le formalisme de la MQ a été installé. La MQ, dans son principe n’a pas été pensée préalablement. Par exemple le caractère discret des grandeurs physiques en quantique s’est imposé aux physiciens de l’époque avec violence, il suffit de relire l’autobiographie de Max Planck et de se souvenir des tourments vécus par L. Boltzmann (1844-1906), jusqu’à son suicide. L’avènement de la mécanique quantique a provoqué un choc conceptuel a priori inacceptable puisque les fondements de la physique classique, après trois siècles de développement avec de très grand succès, étaient radicalement remis en cause.

S.W. p.155 : « Il serait souhaitable de pouvoir comprendre des choses macroscopiques, comme les appareils expérimentaux et les êtres humains selon les termes de la théorie sous-jacente. Il n’est pas souhaitable de les voir intégrés au niveau des axiomes de la théorie. »

Avec ces deux phrases S.W. exprime toute la négation de la mécanique quantique, puisque les êtres humains et en l’occurrence les appareils expérimentaux sont les moyens incontournables pour décrypter les phénomènes quantiques. La MQ est une science de l’observateur, pas d’observateur tel qu’il est, pas de mécanique quantique et je prétends que si on élimine effectivement l’intelligence humaine, alors il n’y a plus d’espace-temps car il en est le fondateur et le vecteur. La mécanique quantique est une science qui ne peut pas être en amont des capacités actuelles de l’observateur, ni de ce qu’il est. Pour l’instant l’observateur ne peut pas directement s’intégrer dans la scène de la M.Q., il ne peut être que distancié, distance qui s’atténue et s’atténuera grâce à l’apprentissage cérébrale qui est évidemment engagé. C’est pourquoi, je m’autorise à évoquer l’idée que la mécanique quantique représente actuellement un terrain particulièrement favorable à l’évolution intellectuelle humaine. En même temps, il ne faut pas sous-estimer l’inertie intellectuelle toujours très significative, voire encore majoritaire dans la communauté scientifique, concrètement exprimé par S.W. Et il y a encore d’autres obstacles qui s’opposent au plein saisissement de la perspective que je propose grâce à la mécanique quantique. A ce titre, je cite François Lurçat qui écrit dans son livre (2003) : ‘De la science à l’ignorance.’ : « Dans le débat entre Bohr et Einstein, qui se prolonge de nos jours entre leurs partisans respectifs, les deux protagonistes sont en vérité du même côté dans un débat beaucoup plus fondamental. Einstein veut sauver les fondements métaphysiques de la physique classique, tandis que Bohr veut les dépasser en les englobant dans une nouvelle synthèse ; mais ils font appel, tous deux, à la raison. Deux conceptions de l’intelligibilité s’opposent, mais précisément il s’agit, pour l’un comme pour l’autre, de comprendre. En revanche pour Dyson en 1958, et pour bien des savants jusqu’à nos jours, le but n’est plus l’intelligibilité mais simplement l’accord entre les résultats des calculs et ceux des expériences, gage de l’efficacité pratique. On comprend ainsi que les physiciens parlent désormais plus souvent de modèles que de théories : ce changement de vocabulaire exprime de manière voilée le renoncement à comprendre, et donc en définitive le remplacement de la science par une technique aveugle. » Je ne suis pas aussi pessimiste que F. Lurçat mais ce qu’il dit est effectivement présent. Exemple : avec la propriété de l’intrication qu’on ne comprend pas du tout, les applications dans les télécoms sont déjà très importantes et comme cela marche, effectivement la volonté de comprendre est de plus en plus minorée.

Maintenant, je propose d’analyser certains arguments, toujours sur la MQ, d’Hervé Zwirn qui sont développés dans le N° de ‘Pour la science’ de ce mois de Mars. Le titre de l’article est : « L’observateur, un défi pour la physique quantique » ; H. Zwirn est directeur de recherche au CNRS, physicien et épistémologue à l’IHPST à Paris et au centre de mathématiques et de leurs applications à l’ENS de Paris Saclay.

Le but d’H. Zwirn avec cet article est de proposer une explication alternative à la problématique de la mesure en quantique. En rappelant que la première explication et la plus ancienne fut établie par Bohr et Heisenberg et elle est désignée : « Interprétation de Copenhague », ensuite il y eut l’hypothèse de von Neumann et Wigner qui attribuèrent un rôle à la conscience de l’observateur responsable de la réduction du paquet d’ondes ; plus tard dans les années 1956 : H. Everett a proposé la duplication du monde en autant de mondes et d’observateurs différents qu’il existe de résultats possibles pour la mesure effectuée, c’est la « théorie des mondes multiples ». Il y eut d’autres interprétations dont celle de de Broglie-Bohm. L’explication alternative originale de Zwirn, s’intitule le « solipsisme convivial », qui s’abstient du principe de réduction du paquet d’ondes, mais qui ne suppose nullement que l’Univers se multiple en plusieurs versions à chaque mesure. Je conseille de lire directement l’article pour intérioriser cette proposition que personnellement je n’envisage pas d’adopter.

Je cite p.28 : « Le mécanisme de décohérence n'élimine donc nullement le rôle de l’observateur, puisqu’il explique comment apparaît le monde à un observateur dont les moyens sont limités, et non pas comment apparaît réellement le monde en l’absence d’un observateur.

En fait, il paraît logiquement inévitable que, sauf à modifier le cadre de la mécanique quantique usuelle, il soit impossible de définir rigoureusement et de façon strictement objective ce qu'est une mesure. L’observateur doit être pris en compte d'une manière ou d'une autre, et il semble que ce ne soit qu'au moment où un observateur prend connaissance du résultat que celui-ci se détermine.

Cela ne devrait pas paraître si choquant, après tout, la science n’est rien d’autre qu’une description du monde tel qu’ultimement il nous apparaît. Le fait que la mécanique classique qui décrit le monde macroscopique soit compatible avec l’hypothèse que le monde est « réellement » tel qu’il nous apparaît n’est pas une preuve que cela soit encore vrai dans les domaines étrangers à notre expérience quotidienne. »

Ce que je cite de l’auteur ci-dessus correspond complètement à la façon dont je reçois la mécanique quantique et je l’ai exprimé sous toutes les coutures dans de nombreux articles. Il est satisfaisant de rencontrer une conception aussi convergente. Toutefois, je pense que Zwirn est trop sibyllin quand il écrit : « il semble que ce ne soit qu'au moment où un observateur prend connaissance du résultat que celui-ci se détermine », en effet il existe une expérience qui autorise les physiciens à indiquer que dans des opérations de mesure spécifique : « Ce qui compte en quantique, ce n’est pas ce que l’on fait, mais ce que l’observateur sait. » Certes, cette expérience unique doit être dupliquée par d’autres équipes pour que son résultat soit confirmé ou éventuellement infirmé. Mais Zwirn aurait dû la citer comme je l’ai fait il y a plus de deux ans (03/07/2017 : ‘Comment la ruse quantique peut brouiller cause et effet’) pour que chacun se fasse une idée propre. C’est encore là une démonstration de l’inertie intellectuelle qui est en jeu car beaucoup de physiciens sont rebutés à l’idée d’admettre la conclusion de cette expérience. Effectivement si cette conclusion est confirmée il faudra penser le rapport entre le physicien et les faits naturels qu’il étudie d’une façon renversée. Personnellement je serais pleinement satisfait que ce paradigme en germe soit confirmé, puisque je l’appelle, et en conséquence de nouvelles avancées de la connaissance en physique seront dans notre horizon.

Je cite encore, p.31 : « Il faut renoncer à penser que le monde est directement conforme à ce que nous en percevons et que nous le percevons tous de la même façon. »

Je propose de rebondir sur le terme conforme car quelques jours avant que ne soit publié l’article de Zwirn, moi-même j’avais posté sur le blog, le 24/02, l’article : « La dynamique de l’espace-temps est conforme au paradigme d’Einstein. » Avec ces deux affirmations nous attribuons un rôle déterminant au sujet pensant et maintenant il faut expliciter ce rôle dans le développement de la connaissance scientifique en physique. C’est ce que j’ai commencé à entreprendre le 24/02 en écrivant ce qui suit :

« En ce qui concerne le ‘comment la Nature fonctionne’, je pense qu’il ne faut pas sous-estimer l’hypothèse que globalement la Nature ne fonctionne pas, mais le physicien lui prête par projection du ‘fonctionnement’. Ce qui correspond à une compréhension partielle obtenue par le physicien et il y a effectivement résonnance, accroche, avec ce qui est, certes, d’une façon réduite dans la Nature mais il faut la considérer comme une étape pour se hisser vers une compréhension plus multiple, plus complète. Selon mon entendement la Nature doit être comprise comme un état qui comprend tous les ‘fonctionnements’ possibles ».

La fonction d’onde de la connaissance globale du Monde, c’est l’éternité. Peu importe si Sapiens ou le produit de son évolution sera en mesure de l’atteindre. L’état de la connaissance réduite actuelle du monde c’est un Univers, conçu par les scientifiques avec ses compétences intellectuelles et ses moyens technologiques. Avec cet état dominant, se superpose d’autres états de connaissance en cours de réduction : je pense aux deux hypothèses suivantes qui sont celles du multivers et des mondes multiples d’Everett. La théorie du multivers est suggérée dans le cadre et dans le prolongement de la relativité générale, c’est-à-dire que la R.G. ne contrevient pas à cette hypothèse et elle élémine l’impasse de l’interprétation Anthropique, bien sûr qu’elle est sujet à controverse : « L. Susskind estime qu’il est enthousiasmant de penser que l’univers est peut-être beaucoup plus grand, plus riche, plus divers que nous ne l’avons jamais cru ; B. Carr explique que la notion d’un multivers ouvre une nouvelle perspective sur la nature de la science, et il n’est pas étonnant que cela cause un inconfort intellectuel ; G. Ellis relativise en disant : d’un côté nous avons M. Rees qui dit que l’univers ne s’arrête pas à notre horizon visuel, et donc, en un sens, c’est un multivers. Et je suis évidemment d’accord ; Et un peu plus loin, vous avez l’inflation chaotique d’A. Linde, avec son nombre infini d’univers-bulles et encore avec le paysage de la théorie des cordes, où la physique est différente dans chaque bulle… »

Dans le champ de la pensée scientifique, il n’est plus tabou de concevoir le multivers d’une façon ou d’une autre. L’esprit scientifique s’ouvre, saisit des indices. La fonction d’onde de la connaissance globale du Monde est en cours de réduction sur un ‘état de connaissance’ qui englobe le précédent et qui aura peut-être la même ampleur que celui à propos de la reconnaissance de l’existence de l’atome au XIXe siècle. Quant à la thèse des mondes multiples d’Everett, elle est conçue pour déverrouiller la problématique de la mesure. Il y a une accoutumance à cette thèse de la part d’une minorité de physicien, certes, mais elle fait évoluer la pensée scientifique comme dans le cas précédent. Ce qui est peut-être significatif c’est que ces deux extrapolations sont le fruit des deux théories jusqu’alors déclarées incompatibles, ceci peut être un sujet de méditation !  

Ce que je propose ci-dessus est suscité par l’idée que ce qui a été essentiellement fondé par l’école de Copenhague correspond à un état de l’art de la pensée scientifique et bien qu’elle fût énoncée à l’occasion de la découverte du monde physique à l’échelle de l’infiniment petit, elle vaut aussi pour tout scientifique en quête de connaissances physiques fondamentales de la nature à l’échelle macroscopique. Le rôle du sujet pensant est tout aussi déterminant dans les deux cas de figure. C’est ce que je déclame depuis un certain temps : « Au sein d’une éternité, parmi tous les possibles, Anthropos ne cesse de creuser sa connaissance de l’univers ! »

 

[1] Dans le livre de Sabine Hossenfelder (S.H.), p.169 : « L’intuition peut découler de l’expérience, or la mécanique quantique est une théorie relativement jeune (sic). Les générations futures la trouveront peut-être plus intuitive.

[2] Freeman J. Dyson, né le 15 décembre 1923 à Crowthorne dans le Berkshire (Royaume-Uni) et mort le 28 février 2020 à Princeton (New Jersey)1, est un physicien théoricien et mathématicien britanno-américain. Il contribua notamment aux fondements de l'électrodynamique quantique en 1948. Il a également fait de nombreuses contributions à la physique des solides, l’astronomie et l’ingénierie nucléaire. On lui doit plusieurs concepts qui portent son nom, tels que la transformée de Dyson, l'arbre de Dyson, la série de Dyson et la sphère de Dyson.

 

Partager cet article
Repost0
24 février 2020 1 24 /02 /février /2020 18:08

La dynamique de l’espace-temps est conforme au paradigme d’Einstein.

            En 1918, trois ans après la publication de la loi de la Relativité Générale (RG) par Einstein, deux mathématiciens autrichiens avaient compris qu’en plus d’une conception élastique de l’espace-temps qu’elle mettait en évidence à cause de l’interaction avec la matière, elle incluait aussi une propriété de fluidité toujours sous l’action de la matière. Les deux mathématiciens sont Lense et Thirring et ils nous ont légué l’effet Lense-Thirring qui a été scientifiquement constaté seulement en 2011 grâce au satellite Gravity Probe B lancé en 2004. Cet effet est faible, mais effectivement observable. Il rend compte de l’effet d’entraînement de l’espace-temps qui environne un objet massif en rotation. C’est-à-dire que le référentiel spatio-temporel que nous définissons pour mesurer le mouvement de rotation de l’objet massif évolue concomitamment dans le même sens de la rotation.

Cette propriété est maintenant confirmée par un article du 30/01/2020 dans Phys.org, avec le titre : « Les astronomes sont les témoins de l’entraînement de l’espace-temps en observant une danse cosmique stellaire depuis 20 ans. » En effet, sur cette durée ils ont suivi la trajectoire d’une étoile à neutrons autour d’une naine blanche. La naine blanche dénommée PSR J1141-6545 entraîne l’espace-temps avec une force 100 millions de fois plus importante que le ferait la terre et de plus elle tourne sur elle-même très rapidement. Et pour rendre compte de l’orbite spécifique observée de l’étoile à neutrons sous son emprise gravitationnelle il est nécessaire d’inférer que c’est l’entraînement du référentiel spatio-temporel qui explique les différents signaux particuliers émis par l’étoile à neutrons durant cette vingtaine d’années.

L’équipe qui a observé cette danse cosmique présente une accumulation de données qui justifie cette interprétation. A l’occasion, elle commente : « Cela indique que la Relativité Générale est vivante et bien portante, exposant encore une autre de ses nombreuses prédictions. »

            Je partage le point de vue enthousiaste de l’équipe mais je crois qu’il est bon de placer cet enthousiasme à une bonne distance. A. Einstein a fondé la RG sur la base du paradigme suivant : « Les bonnes lois de la physique, celles qui, selon lui, rendent compte du monde réel, sont celles qui sont indépendantes de tout observateur. Ce principe est illustré par l’exploitation de la covariance générale (ou invariance générale, ou encore principe d’indifférence) pour fonder sa loi de la RG » Or si le référentiel spatio-temporel en question était observé immobile cela signifierait qu’il serait attaché à l’observateur et il y aurait incohérence. C’est-à-dire que l’effet Lense-Thirring est précisément conforme au paradigme fondamental de A. Einstein, mais pas plus. Cela nous indique que ce paradigme a une très grande valeur heuristique à l’échelle de validité de la RG mais il ne nous dit pas ce qui est réellement, définitivement, loi absolue de/dans la nature[1]. Il est possible de prédire qu’un nouveau paradigme (à formuler) permettra d’embrasser plus largement phénomènes et propriétés de la nature et de les comprendre différemment. Evidemment ce nouveau paradigme inclura ce que celui d’Einstein aura permis de mettre partiellement en évidence et il permettra une avancée significative de la relation d’intelligibilité, de compréhension, entre l’être humain et la Nature (monde extérieur).  

            Présentement, il est vraiment approprié de réfléchir à la nature des composantes espace et temps. Celles-ci sont définies par le physicien, elles émanent et sont représentatives de notre sensibilité. Elles sont les résultantes de notre perception empirique du mouvement autant physique que biologique. En physique elles sont toujours matière à controverse, il y en a qui disent que le champ gravitationnel efface le recours à un champ spatio-temporel et lorsque les mathématiciens s’emparent d’une interprétation de la R.G, on peut lire ce qui suit : « En physique théorique, la covariance générale (ou invariance générale) est l'invariance de la forme des lois physiques dans toute transformation de coordonnées différentiable. Le principe qui sous-tend cette notion est qu'il n'existe a priori aucune coordonnée dans la Nature, ce sont seulement des artifices mathématiques utilisés pour la décrire, et qui ne devraient donc jouer aucun rôle dans l'expression des lois fondamentales de la physique. En d'autres termes, selon le principe qui sous-tend la notion de covariance générale, les lois physiques ne portent pas a priori directement sur la Nature mais sur une variété différentielle abstraite (sic). Une loi physique qui est covariante générale prend la même forme mathématique dans n'importe quel système de coordonnées et s'exprime généralement en termes de champs tensoriels. Les théories de l'électrodynamique formulées au début du XXᵉ siècle en sont des exemples. »

            Cette conception épurée, abstraite, désincarne les scénarios propres du physicien comme celui des auteurs de l’article dont je fais référence : pendant vingt ans nous avons observé une danse cosmique stellaire. La clairvoyance des physiciens à l’égard de cette problématique est faible. Récemment, le 16/01/2020, le physicien de l’université de Genève Nicolas Gisin a publié un article dans ‘Nature’ dans lequel il exprimait son inquiétude et son désaccord sur le fait que le langage mathématique façonne (trop) notre compréhension du temps en physique : « Mathematical languages shape our understanding of time in physics ». Dans un article du 19/07/2017 j’ai posté à propos de ce sujet : « Votre, Notre, cerveau est une machine du temps », ainsi que le 06/08/2017 : « Appel d’offres » dans lequel j’affirmais explicitement que l’espace-temps est un propre de l’homme.

Le paradigme einsteinien fut porté par son auteur dans le domaine de la physique quantique naissante et il fut un opposant de grande envergure face à l’avènement de la fondation pragmatique de la mécanique quantique de l’école Copenhague qui privilégie une physique où l’observateur a un rôle essentiel. Einstein a développé vainement l’idée que la mécanique quantique était incomplète et que des variables cachées devaient être recherchées. Le paroxysme de cette opposition est connu avec l’expression d’Einstein : en physique il ne peut pas y avoir d’action fantôme (spooky action), parce que son réalisme commande que qu’elles que soient les situations physiques et expérimentales deux objets doivent être toujours discernables dans l’espace-temps. Pour l’école de Copenhague, il n’y a aucune action fantôme avec la propriété de l’intrication car, quand celle-ci est observée à l’origine de sa constitution, la fonction d’onde des objets intriqués est clairement définie et elle l’est ainsi tant qu’il n’y a pas de mesure sur les objets intriqués sur leur ligne de vol. Ce qui est étonnant, c’est qu’au bout du compte pour une grande majorité de physiciens c’est l’expression : ‘action fantôme’ qui fait sens et la problématique de l’observateur, de l’observation, est laissée de côté. C’est la raison pour laquelle on rencontre dans des publications des considérations vraiment troublantes. Voir la fin de l’article du 27/01/2020. Ainsi des chercheurs ont essayé de calculer la quantité de corrélations que deux tels objets ou systèmes peuvent manifester à travers l’espace quand ils sont intriqués. Comme si pas à pas l’intrication se propageait sur leur ligne de vol respective, la nature étant actrice et non pas l’observateur. Voici une remarquable confusion générée par le principe de réalité en mécanique quantique. Je recite cette idée aberrante exprimée par un physicien qui commente : « La Nature est dans un certain sens fondamentalement fini ». En effet, elle nous instruit sur un état de réflexion qui a perdu ses repères essentiels et nous sommes exposés à des divagations regrettables. La Nature n’est pas une chose que l’on pourrait encadrer ! Pas plus que nous le sommes ! Lorsqu’on évoque la Nature, je préfère effectivement que ce soit de la façon dont N. Gisin aborde ce sujet comme je l’ai évoqué dans l’article du 23/08/2016 : « Finalement, la physique – et la science en générale – est l’activité humaine qui a comme but de décrire et de comprendre comment la Nature fonctionne. Pour cette raison on a besoin de décrire comment les humains interagissent avec la nature, comment on questionne la nature. » Voir aussi mon article du 18/03/2015 : « Comprendre la physique comme science de l’interface de l’être l’humain et de la Nature »

En ce qui concerne le ‘comment la Nature fonctionne’, je pense qu’il ne faut pas sous-estimer l’hypothèse que globalement la Nature ne fonctionne pas, mais le physicien lui prête par projection du ‘fonctionnement’. Ce qui correspond à une compréhension partielle obtenue par le physicien et il y a effectivement résonnance, accroche, avec ce qui est, certes, d’une façon réduite, dans la Nature mais il faut la considérer comme une étape pour se hisser vers une compréhension plus multiple, plus complète. Selon mon entendement la Nature doit être comprise comme un état qui comprend tous les ‘fonctionnements’ possibles. A cet égard, je suggère de méditer à propos de la constatation profonde et remarquable de Carole Fritz, directrice de l’équipe scientifique de la grotte Chauvet, exprimée dans la ‘Recherche’ de Février 2020 : « Il y a cependant une vraie différence : la production de Sapiens est unique. C’est le seul groupe (d’Hominines) qui est capable de se projeter dans des représentations artistiques[2] complexes comme ce peut être le cas en Europe à Chauvet (36000 ans). Ce qui révèle une maturité cognitive acquise très tôt. Mais, pour moi, il n’est pas question ici de modernité. C’est un nouveau système social qui se met en place. »

La capacité de projection est exactement ce que je désigne, souvent dans mes articles, comme une détermination chez le ‘sujet pensant’ que nous sommes. Ce que Carole Fritz affirme, me confirme dans l’idée que paléoanthropologues et physiciens devraient coopérer comme j’ai pu le proposer dans l’article du 21/07/2015 : ‘La seconde naissance de l’homme’.

 

 

[1] Il faut se souvenir que de sérieux doutes ont commencé à être instillés dans l’esprit de nombreux physiciens du modèle standard de la physique des particules élémentaires lorsqu’il a été découvert que la masse du boson de Higgs était si conforme à la prévision théorique.

[2] Acceptons l’idée que l’activité du physicien est une activité artistique particulière de représentations, le pinceau et les couleurs qu’il exploite lui sont proposés par les mathématiques. Cette activité artistique du physicien montre la diversification et l’évolution cognitive extraordinaires de Sapiens depuis 36000 ans. Je pense que ce fil directeur est pertinent.

Partager cet article
Repost0
27 janvier 2020 1 27 /01 /janvier /2020 16:21

Aux chevets de...

En premier lieu au chevet du Modèle Standard de la physique des particules élémentaires, chevet tel qu’il est présenté, dans la revue ‘Cern Courier’ du 10/01/2020, par John Ellis dans un interview, lequel est introduit en ces termes : « John Ellis réfléchit sur 50 ans passés à travailler à l'avant-garde de la physique théorique des hautes énergies et si le domaine est enfin mûr pour un changement de paradigme. » Je confirme qu’Ellis est très bien placé pour évoquer cette période car il fut un de ceux qui en tant que théoricien a poussé jusqu’à l’extrême… la logique mathématique du Lagrangien du Modèle Standard.

            Je cite ci-dessous le dernier paragraphe de cet interview traduit par mes soins ainsi que sa version originale :

« Les ondes gravitationnelles vont nous en dire beaucoup sur l'astrophysique, mais il n'est pas si évident de savoir si elles nous en diront sur la gravité quantique (sic). Le boson de Higgs, quant à lui, nous dit que nous avons une théorie qui fonctionne fantastiquement bien, mais laisse de nombreux mystères - tels que la matière noire, l'origine de la matière, les masses des neutrinos, l'inflation cosmologique, etc - toujours présents. Il s'agit d'un mélange de problèmes théoriques, phénoménologiques et expérimentaux suggérant la vie au-delà du Modèle Standard (SM). Mais nous n'avons pas de panneaux indicateurs clairs (sic) aujourd'hui. Les chats théoriques errent dans toutes les directions, et c'est bien, parce que peut-être l'un des chats trouvera quelque chose d'intéressant. Mais il y a encore un dialogue en cours entre la théorie et l'expérimentation, et c'est un dialogue qui est peut-être moins un monologue qu'il ne l'était lors de la montée du SM et de la relativité générale. Les problèmes auxquels nous sommes confrontés pour aller au-delà des paradigmes actuels en physique fondamentale sont les plus difficiles auxquels nous ayons encore été confrontés, et nous allons avoir besoin de tout le dialogue que nous pouvons rassembler entre théoriciens, expérimentateurs, astrophysiciens et cosmologistes. »

« Gravitational waves are going to tell us a lot about astrophysics, but whether they will tell us about quantum gravity is not so obvious. The Higgs boson, meanwhile, tells us that we have a theory that works fantastically well but leaves many mysteries – such as dark matter, the origin of matter, neutrino masses, cosmological inflation, etc – still standing. These are a mixture of theoretical, phenomenological and experimental problems suggesting life beyond the SM. But we don’t have any clear signposts today. The theoretical cats are wandering off in all directions, and that’s good because maybe one of the cats will find something interesting. But there is still a dialogue going on between theory and experiment, and it’s a dialogue that is maybe less of a monologue than it was during the rise of the SM and general relativity. The problems we face in going beyond the current paradigms in fundamental physics are the hardest we’ve faced yet, and we are going to need all the dialogue we can muster between theorists, experimentalists, astrophysicists and cosmologists.”

J’ai passé une grande partie du mois de Décembre et de Janvier à être au chevet du Modèle Standard de la Cosmologie au cours de mes séminaires car des résultats récents, concentrés rien que sur l’année 2019, obligent à s’interroger sur les limites de la validité de celui-ci.

Le premier résultat qui bouscule très sérieusement est relatif à l’obtention de 2 valeurs distinctes de la constante de Hubble, l’une correspondant à l’univers primordial : 68 km/s/Mpc et l’autre 74km/s/Mpc correspondant à l’univers actuel. Tout a été vérifié, recalculé, et en juillet les impétrants concernés par ce sujet se sont réunis pour constater que contrairement à toute prévision théorique ces deux valeurs différentes sont effectives et ne peuvent être imputées ni à des erreurs de mesure ni à des erreurs de calcul (voir article du 05/12/2019). La constante de Hubble exprime la valeur du taux (vitesse) d’expansion de l’univers, cette constante fait partie de l’architecture centrale du Modèle Standard. En conséquence ces deux valeurs obtenues à des moments franchement distincts de l’évolution de notre univers met à mal l’idée d’une unique architecture de celui-ci.

Le deuxième résultat récent qui est troublant est relié à l’annonce publiée le 04/11/2019 par une équipe de physiciens, ayant repris les données recueillies par le satellite Planck et depuis republiées en 2018 avec des résultats améliorés, qui découvrent que contrairement à ce qui est admis couramment notre univers ne serait pas Euclidien[1] (plat) mais sphérique (fermé). Si cela était confirmé ce serait la fin de ce qui adviendrait comme une légende. Et ce n’est pas bon pour le Modèle Standard.

Le troisième résultat qui est, dans la durée, de plus en plus étayé, a comme perspective de remettre en cause l’énergie sombre. En effet l’auteur de la publication du 4/11/2019 : Subir Sarkar affirme que l’accélération de la vitesse de l’expansion de l’univers, telle qu’elle est considérée est un artéfact. En s’appuyant sur les travaux de plusieurs équipes d’astrophysiciens, il est en mesure d’affirmer que les 75 Supernovae type1a (SN1a) qui ont été la référence pour officialiser scientifiquement l’énergie sombre en 1998 ne peuvent pas constituer un échantillon de référence et les 750 qu’il étudie actuellement infirment cette hypothèse. Selon les travaux de l’équipe de S. Sarkar, l’accélération observée en 1998 est une accélération au sein de l’univers local dans un volume significatif mais ne concernerait pas du tout l’univers dans son ensemble. Si ce résultat devenait officiel, ce serait 68% de ce qui compose l’univers actuellement qui serait gommé. Facile d’imaginer la révolution que cela engendrerait.

Enfin le dernier article du 6/01/2020 a un titre explicite : « De nouveaux éléments de preuve montrent que l'hypothèse clé faite dans la découverte de l'énergie sombre est erronée. », alors qu’il relate une étude très différente qui est basée sur le questionnement de la validité de l’hypothèse que les SN1a peuvent être considérées comme des chandelles standards. La réponse est : « hypothèse non valide » Si par ce biais là il y a aussi erreur majeure, le tremblement sera encore amplifié.

Faisons un retour aux propos de John Ellis, qui fait une liste partielle des mystères scientifiques qui ont été générés ces cinquante dernières années : « Mais laisse de nombreux mystères - tels que la matière noire, l'origine de la matière, les masses des neutrinos, l'inflation cosmologique, etc - toujours présents. » et qui conclut son propos par : « Les problèmes auxquels nous sommes confrontés pour aller au-delà des paradigmes actuels en physique fondamentale sont les plus difficiles auxquels nous ayons encore été confrontés, et nous allons avoir besoin de tout le dialogue que nous pouvons rassembler entre théoriciens, expérimentateurs, astrophysiciens et cosmologistes. »

Premièrement, je considère que la longueur de la liste des mystères est directement corrélée au nombre d’extrapolations abusives voire superficielles et opportunistes de certains développements théoriques (voir mes articles sur les neutrinos dès le début de la création de mon blog) et l’accumulation ainsi que l’enchevêtrement des mystères affaiblissent maintenant notre capacité de discernement des vraies failles des Modèles Standards. A la fin du XIXème siècle la situation de crise en physique était centrée sur un seul sujet, celui de la vitesse de la lumière, après les résultats de A. Michelson et E. Morley obtenus en 1887. Il fallut attendre qu’en 1905 A. Einstein invente l’authentique paradigme de la relativité de l’espace et du temps qui permette de résoudre le mystère tenace de la vitesse de la lumière qui s’est imposée comme constante universelle. Et on sait comment par la suite la bobine s’est déroulée.

Depuis qu’il y a eu l’illusion d’une perspective d’une ‘Théorie du Tout’ qui a engendré une marche forcée d’annonces théoriques mais sans lendemain, cet horizon continue, malgré tout, d’être toujours scruté. Le savoir absolu, finalisant, comme, sur une période, l’a caressé S. Hawking doit être définitivement considéré comme une chimère. En physique, il n’y a pas de moment du Graal. Notre ligne directrice la plus fertile est celle qui est engendrée par une dynamique d’évolutions de nos connaissances qui conforte et/ou rectifient les précédentes. Cette escalade est, par elle-même, à coup sûr motivante. Creuser l’inconnu pour que la lumière de l’intelligence de Sapiens atteignent toujours de nouveaux recoins de l’univers est source d’une énergie intellectuelle suffisante en soi.

Je propose que l’on médite sur l’article du 16/01/2020, dans ‘Nature’, ayant pour titre : « Combien la physique quantique est effrayante ? La réponse pourrait être incalculable. » ; « How ‘spooky’ is quantum physics ? The answer could be incalculable. » Dans l’article de synthèse de Castelvecchi, il est précisé que des physiciens ont tenté d’évaluer jusqu’à quel degré ‘l’action fantôme à distance’ (spooky action) continue d’être un pis-aller pour rendre de la propriété de l’intrication. Rappelons que cette expression recouvre, depuis Einstein, l’incapacité d’expliquer rationnellement la propriété de l’intrication.

Le questionnement actuel sur cette énigme est le suivant : jusqu’où cette apparente coordination miraculeuse de la nature entre deux objets distants s’impose ? Des physiciens théoriciens munis d’outils mathématiques pures et algorithmiques ont cherché à répondre à la question en repoussant dans ces ultimes retranchements les données de l’énigme et la réponse à la question est : « Inconnaissable » Avec ce résultat (publié dans un article de 165 pages) on constate que ces physiciens ont gratté l’os de la connaissance jusqu’au stade où celle-ci devient rédhibitoirement impossible. Ce résultat du savoir inconnaissable est clairement annoncé depuis 1931 par K. Gödel, son théorème de l’incomplétude nous informe qu’aucune théorie mathématique formelle ne peut s’autojustifier avec ses moyens propres et il est impossible de montrer la validité ou la fausseté à l’intérieur de la théorie en question pas plus que sa cohérence. Etant dans l’impossibilité d’expliquer l’intrication avec des arguments physiques vouloir la décrire par le biais de la logique mathématique constitue une alternative vraiment acceptable. Mais il se trouve que l’incomplétude décelée en mathématique depuis 1931 et depuis jamais contredite (au contraire) rejaillit sur la physique et ce n’est pas surprenant. Surtout sur cette affaire de la ‘spooky action

A l’origine de ce sujet traité aujourd’hui, il se trouve un article de 1976 de A. Connes, utilisant le langage des opérateurs, article dans lequel il demande si des systèmes quantiques avec une infinité de variables mesurables peuvent être approximés par un nombre fini. La réponse des auteurs d’aujourd’hui est : Non. Il est impossible de calculer la quantité de corrélations que deux tels systèmes peuvent manifester à travers l’espace quand ils sont intriqués. Un des physiciens commente ce résultat, qui le surprend, en osant affirmer : « La Nature est dans un certain sens fondamentalement finie (sic). » Je considère qu’il est vraiment inquiétant qu’un physicien puisse dire des choses aussi étriquées et je n’exagère pas en pensant que c’est inquiétant d’être équipé de telles œillères. (Voir article du 22/07/2019). Bref en aucun cas, la Nature ne peut être considérée comme une chose.  

Tout ce que je viens de relater ne peut être qualifié de négatif ou pessimiste, l’essentiel étant de trouver la bonne direction, en écartant tous les faux amis relatifs au savoir complet et suffisant qui nous permettraient comme l’avait prétendu S. Hawking : ‘Occuper la place de Dieu.’ De toute façon, n’ayons pas la mémoire courte car K. Gödel, depuis 1931, a, pour nous, écarté toute ambition parasite à la connaissance éclairante.

Il se trouve que le hasard puisse coordonner étonnamment les choses puisqu’aujourd’hui même, dans le site ‘Techno-Science’ est publié l’article suivant : « Une expérience sur le phénomène quantique "fantôme" pourrait résoudre un mystère de la physique » Cet article nous indique l’écart des préoccupations entre les physiciens théoriciens et expérimentateurs, ceux-ci cherchant surtout à appliquer bien qu’il y ait une faille extraordinaire de la connaissance. Dans ces conditions, est-ce que l’on peut construire quelque chose de solide dans la durée ? En lisant l’article ci-dessous en copie on mesure la portée de l’aventure. On n’oublie pas de prendre en considération le fait que c’est avec la propriété de l’intrication, que pour la première fois, les physiciens sont confrontés à une énigme si tenace tout au moins dans la durée.

action fantôme  intrication quantique  information quantique  téléportation quantique 

Publié par Redbran le 27/01/2020 à 08:002

Des chercheurs ont réussi à montrer l'une des caractéristiques les plus complexes de la mécanique quantique à une plus grande échelle. Leur étude pourrait ouvrir la voie à des technologies révolutionnaires telles que les ordinateurs quantiques et de nouveaux types de capteurs.
Pendant des décennies, les scientifiques ont essayé de prouver que l'une des propriétés les plus étranges de la
mécanique quantique n'était pas uniquement une singularité mathématique, mais une caractéristique réelle du monde physique. Ce phénomène, qu'Albert Einstein a nommé "action fantôme à distance", connu également sous le nom d'"intrication quantique", se réfère aux systèmes qui ne peuvent pas être décrits séparément les uns des autres, quelle que soit la distance entre eux.


L'intrication a déjà été démontrée dans des systèmes à échelle microscopique impliquant les photons, les ions, les spins d'électrons, et les dispositifs micro-ondes et électromagnétiques. Mais une équipe de chercheurs partiellement soutenue par le projet HOT financé par l'UE a démontré que l'intrication peut se produire et être détectée à une plus grande échelle. L'étude est cruciale car l'intrication est considérée comme une ressource clé pour de nombreuses technologies quantiques potentiellement transformatrices, y compris l'informatique quantique et la transmission d'informations.

Les conclusions de l'étude ont été récemment publiées dans la revue "Nature". Comme l'expliquent les membres de l'équipe, leur étude "élargit qualitativement la gamme des systèmes physiques intriqués et a des incidences sur le traitement de l'information quantique, les mesures de précision et les tests des limites de la mécanique quantique".

Objets "massifs"

Selon le communiqué de presse publié par l'Université Aalto en Finlande, les chercheurs ont réussi, par des mesures en laboratoire, à amener deux objets distincts et en mouvement – presque visibles à l'œil nu – dans un état d'intrication quantique où ils s'influencent mutuellement. Il a été ajouté dans le communiqué de presse que: "Les objets utilisés pour l'expérience étaient deux membranes de tambour vibrantes fabriquées à partir d'aluminium métallique sur une puce de silicium. Les membranes de tambour sont vraiment massives par rapport à l'échelle atomique: leur diamètre est proche de la largeur d'un cheveu humain fin."

Cité dans le même communiqué de presse, le professeur Mika Sillanpää du département de physique appliquée de l'Université Aalto, a déclaré: "Les éléments vibrants interagissent via un circuit micro-ondes supraconducteur. Les champs électromagnétiques dans le circuit dévient toute perturbation
thermique, ne laissant que les vibrations mécaniques quantiques."

L'équipe a éliminé toute forme de perturbations environnementales, ce qui a permis de mener l'expérience à une température proche du zéro absolu, à - 273 °C. Les chercheurs ont découvert que leur approche a entraîné des états d'intrication d'une longue durée, allant parfois jusqu'à une demi-heure. Ils ont ajouté que l'étude ouvre la voie à une manipulation plus précise des propriétés des objets à grande échelle. À terme, cette particularité pourrait être utilisée pour fabriquer de nouveaux types de routeurs et de capteurs.

La téléportation, dans un autre sens que celui présenté par la science-fiction

L'équipe compte également utiliser la téléportation quantique pour transmettre les vibrations entre les deux membranes de tambour. Selon le Dr Caspar Ockeloen-Korppi, l'un des membres de l'équipe cité dans le communiqué de presse, "Nous sommes encore assez loin de Star Trek".

Résumant l'étude dans l'édition britannique de "The Conversation", le Dr Matt Woolley, l'un des chercheurs, a expliqué que l'expérience "est peut-être l'approche la plus proche de la réalisation littérale de la célèbre expérience de pensée d'Einstein, Podolsky et Rosen qui ont étudié pour la première fois en 1935 le phénomène qui allait par la suite être connu sous le nom d'intrication". Einstein a conçu un paradoxe ayant pour but de montrer que la théorie quantique était incomplète, comme il l'a expliqué dans un article écrit avec Boris Podolsky et Nathan Rosen, et qui a été publié dans la revue "Physical Review".

 

 

[1] Euclidien : c’est-à-dire, si on prend une coupe transverse de notre univers correspondant au même instant de son évolution il en résulte que tous ces points forment un plan parfait. Ceci est la conséquence de l’inflation primordiale postulée par Andreï Linde.

Partager cet article
Repost0
5 décembre 2019 4 05 /12 /décembre /2019 18:48

Pas de nouveaux épicycles S.V.P.

Le risque de nouveaux épicycles existe-t-il ? Oui, il existe le risque d’une errance théorique contemporaine en ce qui concerne la conception et la représentation de notre cosmos. Ptolémée (100-168) savant grec, astronome, astrologue, qui vécut à Alexandrie, avait conçu un modèle géocentrique du mouvement des planètes correspondant aux observations possibles à cette époque et aussi fortement déterminé par la croyance de l’époque, à savoir que la terre (le genre humain) était au centre du monde. A force d’épicycles il définissait les trajectoires des planètes autour de la planète terre. Ce modèle totalement arrangé tînt bon puisqu’il fallut attendre que les progrès des instruments d’observation ainsi que la théorie élaborée par Nicolas Copernic puis perfectionnée par Johannes Kepler entraînent son abandon pas moins de 14 siècles après. Mais ce fut à grand peine : le système héliocentrique de Copernic (1543), appuyé par Galilée (1630) fut rejeté par l’Église catholique et Galilée fût contraint de renier officiellement ses théories en 1633.

Cet exemple appartient à l’histoire, aujourd’hui les astrophysiciens et les cosmologistes ne sont absolument pas contraints, ni intellectuellement déterminés, par les croyances d’une semblable nature et leurs capacités de représentations à partir de leurs observations peuvent être maintenant d’une qualité sans communes mesures. Pourtant il faut prendre en compte sérieusement le risque, à cause d’une inertie de la pensée collective des physiciens, que les fractures actuelles du modèle standard de la cosmologie provoquées par les résultats inattendus des récentes observations soient comblées aux moyens d’artefacts.

Pour expliciter cette inquiétude, prenons l’exemple significatif des deux valeurs mesurées de la constante de Hubble. Ce n’est que depuis le mois de juillet que l’on peut attribuer valablement deux valeurs à la constante de Hubble après que finalement fut acceptée cette situation scientifique au cours d’un symposium, du 15 au 17 juillet, au Kavli Institute for Theorotical Physics (KITP) (E.U.), réunissant les spécialistes les plus aguerris sur ce sujet. Ce symposium avait pour unique sujet : ‘Tensions entre l’univers précoce et l’univers tardif’ ; ‘Tensions between the Early and the Late Universe’.

La cause de ces tensions c’est que pour la première fois depuis 1920, il faut admettre que la constante de Hubble[1], qui indique la vitesse d’expansion de l’univers, a deux valeurs, l’une correspondant à son évaluation pendant la période primordiale de l’univers, calculée, de multiple fois, avec une très haute précision par l’équipe du satellite Planck et égale à 68 km/s/Mpc. L’autre correspond à son évaluation durant les 5 à 6 milliards d’années en arrière de notre époque et égale à 74 km/s/Mpc. Cette deuxième valeur a été annoncée pour la première fois en juin 2016. Les mesures ont été depuis plusieurs fois renouvelées avec des méthodes différentes. L’écart est significatif et à Kavli, les physiciens ont accepté le fait que cet écart ne pouvait pas être la conséquence d’erreurs systématiques des mesures.

Selon les spécialistes réunis à Kavli, c’est durant la période comprise entre le découplage[2] situé 380 000 ans après le big bang et la recombinaison[3] que se situe une faille dans le modèle standard de la cosmologie et il s’agit donc de combler une lacune car comme il a été rappelé tout au long du symposium, il n’est pas considéré qu’il y ait matière à devoir reconsidérer le modèle standard. Par un vote, il a été indiqué qu’il y avait un ‘problème’ à résoudre dans le cadre du modèle standard mais il n’y avait pas vraiment crise au-delà de ce sujet spécifique.

Il y a de quoi s’inquiéter quand on découvre la pauvreté des propositions théoriques qui viseraient à combler la faille et à établir la jonction entre les deux valeurs du taux d’expansion de l’univers. La première proposition consiste à introduire un champ scalaire qui automatiquement (miraculeusement) aurait toutes les propriétés dynamiques opportunes qui assurerait la jonction entre les deux vitesses d’expansions. L’autre proposition consiste à attribuer un rôle aux neutrinos qui auraient à cette occasion des propriétés nouvelles avec la condition que le fameux quatrième : dit neutrino stérile[4], entre à nouveau en scène.

Je n’insiste pas plus pour confirmer la crainte que nous soyons dans une période conceptuelle équivalente à celle de Ptolémée. A mon sens cette situation perdurera tant que nous n’aurons pas mis en avant un nouveau paradigme en ce qui concerne notre perception du monde physique car ce n’est pas avec des réajustements comme ci-dessus énumérés que nous atteindrons de vrais progrès. Abandonner le concept de big bang pourrait libérer l’intelligence collective et favoriser des idées plus fertiles. Ce qu’il est bon de rappeler c’est que les équations de la relativité générale ne sont pas en cause jusqu’à présent dans le questionnement nécessaire à l’égard du modèle standard de la cosmologie. Bref elles ne sont pas la cause des failles constatées.

            Je peux encore affirmer que la relativité générale n’est pas la cause d’une nouvelle discordance sérieuse à propos du modèle standard qui est révélée, pour la première fois ces 15 dernières années, dans un article du 18/11 dans ‘Nature’. Sur ce sujet il faut encore utiliser le conditionnel mais cette discordance est décelée en exploitant les dernières données toujours plus précises fournies en 2018 par l’équipe (du satellite) Planck. Ces données exploitées par une équipe extérieure, a conduit celle-ci à publier un article dans lequel elle déclare avoir mesuré une amplitude d’effet gravitationnel accrue, dans le spectre de puissance du fond diffus cosmique micro-ondes, comparée à celle prédite par le modèle standard actuel. Cela indiquerait que notre Univers serait fermé puisqu’au lieu d’un univers euclidien (plan : toutes tranches d’univers est un plan) avec une courbure nulle ce serait une courbure positive, sphérique, qui dominerait dans l’univers aux grandes échelles. Dans ce cas la lumière suivrait une trajectoire courbe sphérique au lieu d’être linéaire comme cela est actuellement considéré.

Si ce premier article était confirmé nous serions confrontés à des discordances plus élevées que généralement estimées pour la plupart des observables cosmologiques locales, y compris les oscillations baryoniques acoustiques. « L'hypothèse d'un Univers plat pourrait donc masquer une crise cosmologique où les propriétés observées disparates de l'Univers semblent être mutuellement incompatibles. Des mesures futures sont nécessaires pour déterminer si les discordances observées sont dues à des erreurs systématiques non détectées, à une nouvelle physique ou simplement à une fluctuation statistique. »

Je cite l’auteure de l’article de phys.org du 13/11 : « Avant tout, nous devons revoir la pierre angulaire fondamentale de la cosmologie c.-à-d. la théorie de l’inflation cosmologique. Inflation qui décrit les premiers instants après le Big Bang, prédisant une période d’expansion exponentielle de l’univers primordial. Avec cette hypothèse de l’inflation, il est justifié que l’univers soit plat. Si l’univers est sphérique, l’inflation doit être remise en cause… Pour le moment, l’évidence physique des trois piliers de la cosmologie : matière noire, énergie noire et inflation proviennent exclusivement de la cosmologie. Leur existence respective supposée peut expliquer plusieurs observations astrophysiques. Mais concrètement rien n’est observé pour confirmation dans le modèle standard des particules physiques qui gouverne l’univers aux plus petites échelles pas plus que dans la théorie de la R.G. qui opère aux grandes échelles. Au lieu de cela, ces substances et ce mécanisme appartiennent au domaine de la physique inconnue. Personne n’a jusqu’à présent observé de la matière noire, de l’énergie noire ou l’inflation en laboratoire ou ailleurs… Bref nous devons repenser le puzzle de l’univers d’une façon différente. »

Cette obligation de repenser d’une façon radicale, notre représentation actuelle de l’univers ainsi que ses paramètres attachés, est très prononcée au regard d’un autre article du 27/11 émis par l’université d’Oxford dans phys.org. Cet article au titre : ‘Evidence de l’anisotropie de l’accélération cosmique’ ; ‘Evidence for anisotropy of cosmic acceleration’, rend compte que l’accélération de l’expansion de l’univers résulte d’un effet local jusqu’à présent sous-estimé par les astrophysiciens et en conséquence pour les signataires de l’article « l’énergie noire est un pur artéfact » (sic). Cette annonce est depuis plusieurs années de mieux en mieux étayée par l’équipe menée par Subir Sarkar de Oxford et Jacques Colin de l’IAP à Paris et autres chercheurs de l’institut Niels Bohr à Copenhague.

L’équipe s’appuie sur les observations engrangées de 740[5] supernovas Type 1a pour montrer que cette accélération est un effet relativement local : elle est dirigée le long d’une direction suivant laquelle nous semblons nous déplacer en prenant pour référence le fond diffus cosmologique. Tandis que la raison physique de cette accélération est inconnue, elle ne peut pas être attribuée à l’énergie noire comme prédite car elle provoquerait une accélération dans toutes les directions. S. Sarkar explique : « Le modèle standard de la cosmologie repose sur la supposition que l’univers est isotrope autour de tous les observateurs. Ce principe cosmologique est une extension du principe copernicien : nommément nous ne sommes pas des observateurs privilégiés. Ceci permet d’importantes simplifications dans la construction mathématique du modèle cosmologique exploitant la théorie de la R.G. d’Einstein. Cependant, quand les données des observations sont interprétées dans ce cadre nous obtenons la conclusion étonnante qu’à peu près 70% de l’univers est constitué de la constante cosmologique d’Einstein ou plus généralement, ‘d’énergie noire’. »

Avec l’analyse des données de ces 740 SN il se trouve que l’accélération inférée présente une anisotropie dipolaire dans la même direction suivant laquelle nous nous déplaçons localement avec un niveau de confiance satisfaisant alors qu’en contraste toute accélération isotrope qui serait attribuée à l’énergie noire est obtenue avec un niveau de confiance bien plus faible. Il apparaît donc que l’accélération est un artéfact, consécutif au flux de notre mouvement local, en conséquence l’énergie noire ne peut pas être évoquée comme étant la cause.

Contrairement à l’exemple de la faille répertoriée de la valeur de la constante Hubble, le point de vue de l’équipe de Sarkar n’a toujours pas beaucoup d’échos, la remise en cause est tellement profonde qu’il faudra que l’équipe apporte des preuves irrémédiables. Il n’est pas impossible que cela se produise car à mon sens l’hypothèse de l’énergie noire est fragile de naissance. Il faut considérer que l’hypothèse de chandelles standards n’est pas, non plus, assurée. Enfin pourquoi l’énergie noire dominerait l’univers depuis seulement 6 à 8 milliards d’années alors qu’elle est considérée comme négligeable durant l’univers des premiers temps en particulier 380 000 ans après le Big Bang au moment du découplage et pourquoi donc le fond diffus cosmologique serait insensible à l’hypothétique énergie noire ?

Comme le rappelle à juste raison S. Sarkar, le principe cosmologique affirmé qui nous autorise à considérer que nous serions des observateurs non privilégiés donc universels doit être sans cesse médité dans le sens qu’il ne peut pas être acquis une bonne fois pour toutes. Comme tous les principes qui ne sont pas démontrables a priori mais acceptés grâce à leurs valeurs heuristiques, il doit être sans cesse vérifié que l’on n’exploite pas ce principe abusivement. Personnellement, je pense que plus on va progresser dans la connaissance du cosmos, plus l’exploitation de ce principe sera délicate voire impossible à revendiquer car la ‘Présence’ de l’observateur, du sujet pensant, finira par être immanquablement associée aux paramètres de l’observation dans le cosmos. Si l’avertissement de Sarkar s’avérait être justifié alors ce serait une première et dans une certaine mesure cela remettrait en cause la R.G. car la recherche d’Einstein a toujours été guidée par une pensée réaliste affirmant que les bonnes équations physiques sont celles qui sont indépendantes de la ‘Présence’ du physicien qu’il soit observateur et/ou théoricien.

 

[1] Une valeur de 70 km/s/Mpc pour la constante de Hubble signifie qu'une galaxie située à 1 mégaparsec (environ 3,26 millions d'années-lumière) de l'observateur s'éloigne du fait de l'expansion de l'univers (et donc hors effet d'un mouvement propre de l'objet, négligeable à très grande distance) à une vitesse d'environ 70 km/s. Une galaxie située à 10 Mpc s'éloigne à une vitesse de 700 km/s, etc

[2] Relate le fait qu’à la température de 3000°K de l’univers, les photons du rayonnement thermique et la matière baryonique se découple, chacun de ces ingrédients n’entrent plus systématiquement en collisions et ils deviennent progressivement mutuellement transparent l’un par rapport à l’autre.

[3] Processus par lequel, grâce au refroidissement continu de l’univers à cause de son expansion, les électrons perdent de l’énergie cinétique et l’interaction électromagnétique favorise de plus en plus la combinaison entre les protons et les électrons pour constituer des atomes d’hydrogène essentiellement, plus un peu d’hélium et du lithium. Cela correspond à la formation de la période sombre de l’univers.

[4] Celui-ci souvent arbitrairement introduit, pour d’autres besoins, a été déclaré à plusieurs occasions découvert et autant de fois il a été annulé par d’autres équipes de chercheurs quelques mois après.

[5] L’affirmation scientifique de la découverte de l’accélération de l’expansion de l’univers a été publiée en 1998 sur la base des observations de seulement 60 de ces supernovas. Cette découverte a été, à mon avis, (trop) rapidement gratifiée par un prix Nobel en 2011.

Partager cet article
Repost0
26 octobre 2019 6 26 /10 /octobre /2019 10:20

La R.G. encore toujours performante.

Lorsque j’ai proposé le 14/05, l’article : « Chemin escarpé menant à un au-delà de la Relativité Générale », j’ai indiqué qu’il nous faudra préalablement identifier la frontière des phénomènes physiques qui ne peuvent plus être correctement décrits par la loi d’Einstein.

Je propose de rapporter dans le présent article des résultats physiques qui confirment que la R.G est toujours performante pour prédire et rendre compte des phénomènes observés qui mettent en jeu des champs gravitationnelles de grande intensité. Nous avons maintenant à notre disposition un grand nombre d’instruments d’observations très performants qui nous permettent de voir loin dans notre cosmos et de voir avec de plus en plus de précision et donc la mise à l’épreuve de la validité de la Relativité Générale est très consistante.

Récemment, c’est-à-dire en Mai 2018, une étoile : SO-2 a atteint le point de sa trajectoire dont sa distance au trou noir de notre galaxie, nommé : Sagittarius A* (Sgr A*), est la plus réduite. Ce point de moindre distance s’appelle le périhélie et la masse de Sgr A* est estimée à 4 millions de fois la masse de notre soleil (MƟ). C’est donc en Août de cette année que sont publiés les articles rendant compte des observations obtenues 15 mois plus tôt, car il y a obligatoirement beaucoup de traitements des signaux obtenus sur les télescopes pour que scientifiquement des résultats de grandes valeurs soient publiés. Ainsi sur le site Phys.org, sur ce sujet, on peut lire l’article : « La théorie de la relativité générale d’Einstein est remise en question, mais elle est toujours valable jusqu’à présent. » ou encore sur le site de Physicsworld : « La théorie de la relativité générale d'Einstein testée par une étoile qui orbite autour d'un trou noir. »

La trajectoire de l’étoile SO-2 est suivie depuis 25 ans, sa trajectoire est nettement képlérienne donc très elliptique et elle boucle son orbite en 15,5 années. Lorsqu’elle est au niveau de son périhélie sa vitesse de déplacement est maximum, de l’ordre de 25 millions de km/h, sa distance est minimale et est de 20 milliards de km soit 120 fois la distance terre-soleil[1].

L’équipe de l’astrophysicienne Andréa Ghez de l’Université de Californie est une des deux équipes à avoir suivi l’évolution de SO-2 depuis plus de 20 ans. Les observations des deux équipes conduisent à déclarer que les prédictions de la théorie de la relativité sont à nouveau spectaculairement vérifiées et un des piliers de la théorie relativiste de la gravitation, soit l’égalité entre masse grave et masse d’inertie, est également encore vérifié.

Lorsque l’étoile SO-2 s’approche du périhélie de sa trajectoire une combinaison de deux effets relativistes est observée. En premier lieu un effet Doppler, pour nous observateurs sur terre, provoquant un important décalage spectral vers le bleu de la lumière émise par l’étoile quand celle-ci s’approche de nous et un décalage vers le rouge quand celle-ci s’éloigne de nous. A cela est observé un décalage vers le rouge supplémentaire de la lumière dû au champ gravitationnel intense de Sgr A* et qui est une belle illustration de l’interdépendance Espace-Temps-Matière (énergie). Ces deux traits d’union indiquent que l’espace-temps est modifié au voisinage de la matière (énergie puisque E=mC2), tout comme l’espace-temps modifié, modifie la trajectoire de la matière (énergie) instantanément. Cette réalité physique jusqu’à présent confirmée explique la raison pour laquelle du point de vue mathématique les équations de la relativité générale sont impossibles à traiter d’une façon globale. Ce qui est certain c’est que le tempo du temps, de nos horloges, ralentit lorsque le champ gravitationnel s’accroit (lorsque la quantité de matière (énergie) s’accroit).

L’observation du suivi de la trajectoire de SO-2 est encore intense car maintenant qu’elle a entrepris une trajectoire complète en 15,5 années, il s’agit d’observer si la nouvelle trajectoire sera identique à la précédente ou si elle sera légèrement différente à cause d’un effet de précession relativiste comme la R.G le prédit. A priori, nous aurons des résultats sur cette prédiction d’ici la fin de cette année. A priori, il n’y a pas de doute sur l’observation de cet effet, puisque déjà observé à propos de Mercure qui se trouve être la planète du système solaire la plus proche du soleil. Ce qui est attendu, c’est de connaître l’ampleur de cette précession et de vérifier si elle est en accord avec les prédictions théoriques de la R.G.

Grâce à des télescopes encore plus performants l’équipe de A. Gehz s’intéresse à suivre l’évolution d’une autre étoile identifiée : SO-102 qui a une orbite plus réduite de 11,5 années et son passage au plus près de Sgr A* sera d’une plus grande proximité avec en conséquence des effets gravitationnels plus intenses. Ce sera donc une opportunité de vérifier si la R.G dysfonctionne au-delà de cette nouvelle valeur supérieure du champ gravitationnel.

Il y a un autre domaine où la Relativité Générale a une valeur prédictive particulièrement élevée c’est celui de la collision des trous noirs avec la détection des premières ondes gravitationnelles en 2015, cent ans après qu’elles furent, dès cette époque, concrètement théoriquement déductibles des équations d’Einstein. Actuellement les interféromètres Ligo et Virgo ont enregistré une quarantaine de ces collisions dont certaines sont aussi entre étoiles à neutrons et peut-être quelques unités entre trou noir avec étoile à neutrons.

Ce que l’on peut affirmer aujourd’hui, c’est que sans la référence de la Relativité Générale on n’aurait pas engagé des recherches instrumentales aussi sophistiquées pour tenter de détecter des ondes spatio-temporelles. Tous les résultats obtenus et qui font sens actuellement résultent de sélections d’ondes gravitationnelles effectives grâce à des calibres préalablement conçus par l’intermédiaire des équations de la R.G. Ceci étant dit, il nous faut prendre du recul. Il est donc approprié de déclarer que toutes les observations sont compatibles (sic) avec la relativité générale et les prédictions pour les trous noirs, mais il n’est pas possible d’être plus affirmatif. La raison en est que nous sommes pris dans le tropisme des équations de la R. G. car c’est le seul outil théorique prédictif dont nous disposons. Il n’est pas impossible que les collisions des trous noirs, des étoiles à neutrons et trous noirs avec étoiles à neutrons, soient beaucoup plus riches en informations véhiculées par les ondes gravitationnelles que celles spécifiques sélectionnées au moyen des calibres déterminés par la R.G. On ne pourra accorder de la signification aux informations qui sont véhiculées et qui seraient au-delà de la R.G. qu’à force d’une accumulation d’observations. A partir de cette situation on sera peut-être en mesure de distinguer ce qui est théoriquement inclus dans les prévisions de la R.G. de ce qui ne peut pas être considéré comme inclus.

Nous sommes actuellement pleinement dans cette étape scientifique et sans vouloir anticiper abusivement, il n’est pas interdit d’ouvrir le questionnement suivant : pourquoi avec les quatre collisions entre étoiles à neutrons détectées depuis le début d’avril de cette année, aucun rayonnement électromagnétique n’a été observé contrairement à la collision de même nature observée en 2017 ? Est-ce que la vitesse de propagation des ondes gravitationnelles est identique à celle des ondes électromagnétiques comme cela fut postulé par Einstein ? Est-ce tout simplement un problème de carence d’observation ?

L'évènement observé en 2017 avait soulevé un enthousiasme certain chez les astrophysiciens grâce à la richesse des informations obtenues à la fois par la détection des ondes gravitationnelles et des ondes électromagnétiques sur une gamme de longueur d’onde significative. Les réponses aux questions posées sont à l’ordre du jour.

Il y a peu, le 08/09, un article a été publié dans ‘Techno-Sciences’ avec le titre suivant : « L’émission radio d’un pôle magnétique d’étoile à neutrons révélée par la relativité générale. » Là encore, ce résultat a été obtenu grâce à la croyance solide du pouvoir prédictif de la R.G. puisqu’il a fallu 14 années d’observations pour confirmer ce résultat annoncé par les équations. Je cite l’article :

« En utilisant les données des radiotélescopes d'Arecibo et de Nançay collectées depuis 14 ans, une équipe scientifique dirigée par un chercheur de l'Observatoire de Paris a pu reconstruire le faisceau d'émission radio du pulsar J1906+0746 grâce à la précession relativiste de son axe de rotation. Ces résultats permettent l'étude de l'émission radio au-dessus du pôle magnétique d'un pulsar, tester la théorie de la relativité générale d'Einstein et ont des conséquences sur le taux de coalescence des étoiles à neutrons. Ces résultats sont publiés dans le magazine Science du 6 septembre 2019.


Les pulsars sont des étoiles à neutrons en rotation rapide qui concentrent 1,4 fois la masse du Soleil - ou plus ! - dans une sphère de 20 km de diamètre. Ils possèdent un champ magnétique extrêmement fort et émettent un faisceau d'ondes radio au-dessus de chacun de leurs deux pôles magnétiques.
Tel un phare au bord de la mer, l'émission des pulsars est perçue sur Terre comme des impulsions avec une régularité qui rivalise la précision des meilleures horloges atomiques. Ces objets massifs et compacts sont ainsi utilisés par les astronomes comme des horloges cosmiques pour tester la théorie de la relativité générale :d'Einstein.
La théorie d'Einstein prédit que l'
espace-temps est déformé par des objets massifs comme les pulsars. Une des prédictions de cette théorie est la précession de l'axe de rotation d'un pulsar lorsqu'il appartient à un système à deux astres. Cette précession est un lent changement d'orientation de son axe à la façon d'une toupie en fin de lancer. Cet effet est dû au mauvais alignement entre l'axe de rotation du pulsar et le moment angulaire total du système causé par une supernova. Cette précession fait varier la géométrie d'observation du pulsar qui peut être étudiée grâce aux impulsions radio reçues.

PSR J1906+0746 est situé proche du plan de la Voie Lactée à une distance d'environ 20 000 années lumières dans la direction de la constellation de l'Aigle. Ce pulsar tourne sur lui-même en 144 ms et orbite autour d'une autre étoile à neutrons en 4 heures. Les chercheurs observent ce pulsar depuis 2012 avec le radiotélescope d'Arecibo à Porto Rico (Etats-Unis). Pour compléter l'étude, l'équipe a aussi réanalysé des archives du radiotélescope d'Arecibo et celles du radiotélescope de Nançay situé dans le Cher. Au total, les observations couvrent une période allant de juillet 2005 à juin 2018.

 
L'équipe a pu déterminer que l'émission radio détectée entre 2005 et 2016 provenait des deux pôles magnétiques du pulsar, quand les deux faisceaux radios illuminaient la Terre. En 2016, l'émission radio en provenance de l'un des deux pôles ne fut plus détectée et depuis, seule l'émission radio provenant du deuxième
pôle sud reste détectable.

 
En utilisant une théorie datant de 1969 qui prédit que la polarisation de l'émission radio renseigne sur l'orientation géométrique du pulsar, l'équipe a pu valider ce modèle et mesurer la précession de l'axe de rotation du pulsar avec une incertitude de 5%. Ce résultat est en parfait accord avec la prédiction de la relativité générale d'Einstein.


L'étude permet aussi de prédire la disparition et réapparition de l'émission provenant des deux pôles magnétiques du pulsar. L'émission provenant du dernier pôle visible devrait disparaitre de notre ligne de visée vers 2028 et réapparaitre entre 2070 et 2090. L'émission du premier pôle devrait réapparaitre entre 2085 et 2105.


Ces observations rendent aussi possible des avancées sur la compréhension de l'émission radio des pulsars grâce à l'observation des propriétés d'émission radio au-dessus d'un pôle magnétique. La reconstruction du faisceau d'émission radio permet finalement de déterminer la fraction du ciel qui est illuminée par ce pulsar. Ce paramètre affecte le nombre estimé de systèmes à deux étoiles à neutrons dans notre Galaxie et donc le taux de coalescence de ces systèmes. »

 

            Tous ces résultats que je privilégie sont obtenus avec l’exploitation conjointe de la métrique de Schwarzschild (1873-1916) qui introduit une symétrie sphérique en privilégiant les objets célestes sphériques sources de gravitation, tels les étoiles et les trous noirs. D’un point de vue mathématique cette symétrie sphérique simplifie remarquablement les équations d’Einstein et favorise leur traitement.

            Lorsqu’il est interrogé la validité de la R.G, par exemple à propos du problème posé par le fait que nous ayons actuellement trois valeurs de la constante de Hubble mesurées, il faut prendre en compte l’hypothèse qu’aux grandes échelles c’est la métrique de Robertson-Walker qui est exploitée car elle prend en compte le critère de l’homogénéité de l’univers et son isotropie aux grandes échelles et donc une symétrie de translation est exploitée ce qui simplifie d’une autre façon les équations de la R.G[2] ainsi que leur traitement. Il faut certainement réfléchir à cet aspect du problème.

            Pour terminer cet article je veux rendre compte d’une nouvelle confirmation des équations d’Einstein avec un article, du 11/09 dans Phys.org, avec le titre suivant : « Les scientifiques détectent pour la première fois le tintement d'un trou noir nouveau-né. »

            « Si la théorie de la relativité générale d'Albert Einstein est vraie, alors le trou noir, né de la collision cosmique de deux trous noirs massifs, devrait lui-même « tinter » dans la foulée, produisant des ondes gravitationnelles un peu comme une cloche frappée émet des ondes sonores. Einstein a prédit que le tintement particulier ainsi que la décomposition de ces ondes gravitationnelles devraient être une signature directe de la masse et du spin du trou noir nouvellement formé. »

            Cette prédiction a été mise à l’épreuve par l’exploitation du signal de la collision des 2 trous noirs enregistré le 14 septembre 2014 (GW150914). Cette étude réalisée au sein de l’Institut pour la recherche en astrophysique du MIT a abouti à vérifier remarquablement la validité de cette prédiction. En effet, les chercheurs ont été en mesure d’extraire le ‘sous-signal[3] correspondant au tintement du trou noir nouveau-né résultant de la collision, ce qui en dit long sur la finesse et les intelligences, aujourd’hui mobilisées, pour extraire de l’information si subtile. Cela en dit long aussi sur la confiance placée à l’égard des prolongements de la validité de la R.G car il a fallu 5 ans de traitement du signal original pour publier un résultat d’une aussi grande qualité.

            En plus grâce à ces travaux les chercheurs confirment que les trous sont ‘sans cheveux’, ce qui veut dire que les trous noirs sont totalement caractérisés, pour nous observateurs, par leur masse, leur spin et leur charge électrique éventuelle qui sont des grandeurs intrinsèques.

            Et ce n’est pas fini…

 

[1] Nous-mêmes dans notre système solaire nous sommes à 26.000 années-lumière de Sgr A*, soit 26×1016km, qui s’énonce : 10 millions de fois 1 milliard de km.

[2] Dans ce cas nous obtenons les équations de Friedmann-Lemaitre-Robertson-Walker (FLRW) au sein desquelles on peut extraire une valeur unique de la constante de Hubble.

[3] Correspondant aux quelques dernières millisecondes du signal, qui suivent immédiatement le pic du ‘chirp’.

Partager cet article
Repost0
7 octobre 2019 1 07 /10 /octobre /2019 15:24

Recherchons activement la Gravité Quantique

Dorénavant il est admis que la théorie physique qui intégrera la gravité quantique comme étant partie prenante de son corpus, sera adoubée par l’ensemble de la communauté scientifique des physiciens. Il est aussi vraisemblable que cette gravité quantique servira de socle à l’envol du phœnix d’une nouvelle physique.

La théorie des cordes n’offre quasiment plus cette perspective et la gravité quantique à boucles est supportée par une équipe de physiciens convaincus mais ne provoque pas d’adhésions au-delà.

Dans les deux articles précédents, j’ai rendu compte, par l’intermédiaire des travaux de Sean Carroll, l’espérance de fixer, une bonne fois pour toute, la mécanique quantique comme étant la théorie idoine qui englobe l’ensemble des propriétés physiques dans l’univers. Le prix à payer est d’adhérer à la thèse de Hugh Everett des mondes multiples.

            J’ai sous les yeux un article de Lee Smolin (dans le NewScientist du 24/08/2019) avec le titre : ‘Au-delà de l’Etrangeté’, qui, de plus, cite les physiciens dissidents de la mécanique quantique, et non des moindres[1], pour justifier ses arguments affirmant qu’il faut en finir avec l’étrangeté d’une mécanique quantique irréaliste. Voir articles sur le même auteur du 27/04/2019 : ‘Un réaliste s’empare de la mécanique quantique et la conteste’ et du 7/05/2019 : ‘Notes de lecture du livre de Smolin’

            Contrairement à l’appréciation de S. Carroll, L. Smolin considère que la mécanique quantique doit être dépassée voire abandonnée car : « Elle ne nous dit pas ce qui se passe en réalité. » Pour lui, le principe de superposition des états des objets quantiques qui ne sont pas contraints d’être à un endroit dans l’espace à un moment du temps est définitivement étrange et inacceptable. A cela s’ajoute la problématique de la mesure, avec la réduction de la fonction d’onde : « Une défaillance fondamentale à notre compréhension. » Et puis les mystères ne s’arrêtent pas là puisqu’avec la propriété de l’intrication le principe de localité est violé. En effet dans le contexte de l’intrication il apparaît que des objets quantiques peuvent s’influencer instantanément quelques soient leurs distances d’éloignement (sans que pour autant la vitesse de la lumière, vitesse limite de propagation d’une information, ne soit violée). Voir article du : 22/11/2014 : ‘Intrication’, et du 02/11/2012 : ‘Synthèse : un Monde en ‘Présence’’. Il est vrai que c’est à cause de cette étrange propriété que A. Einstein au tout début des années 1930 rejeta la mécanique quantique considérant que c’était une théorie incomplète, erronée, et définitivement, il s’opposa à ses fondements : fruits des travaux de l’école de Copenhague. Les préventions et assertions d’Einstein n’ont jamais été expérimentalement justifiées. Mais Smolin propose que la mécanique quantique soit soumise à l’épreuve d’une théorie de la gravité quantique pour lever les mystères de celle-ci.  

Pour commencer, L. Smolin propose de nettoyer radicalement l’ardoise, revenir aux premiers principes de la théorie quantique et de la relativité générale, décider ce qui est nécessaire et ce qui est ouvert au questionnement et voir quels seraient les nouveaux principes dont nous avons besoin. Ceci étant fait, alors une description alternative de la physique deviendra possible, en expliquant les choses non en termes d’objets situés dans un espace préexistant, comme nous le faisons maintenant, mais en termes d’événements et de leurs relations.

            Cet effort doit s’engager avec quelques hypothèses basiques à propos de l’espace et du temps. Premièrement, l’histoire de l’univers consiste en événements ainsi que de leurs relations entre eux. Deuxièmement, le temps : dans le sens de la causalité, il est le processus par lequel les futurs événements sont produits par des événements présents, ceci est fondamental. Troisièmement, le temps est irréversible : la causalité interdit le retour en arrière et une fois qu’un événement est survenu, il ne peut pas être le produit de rien survenu. Quatrièmement, l’espace émerge de cette description : des événements sont la cause d’autres événements, créant ainsi un réseau de relations causales. La géométrie de l’espace-temps émerge comme le gros grain et l’approximative description de ce réseau. Voir article du 05/11/2016 : ‘L’espace et le temps ne sont pas donnés dans la nature, la lumière l’est

            La cinquième hypothèse c’est que l’énergie et l’impulsion sont des grandeurs fondamentales de l’univers et ces grandeurs sont conservées au cours des processus causaux.

            A ce stade des propositions de L. Smolin, je souhaite indiquer que ces hypothèses basiques ont déjà été identifiées et analysées dès les années 1930 notamment par une jeune philosophe (Kantienne) et mathématicienne allemande, Grete Hermann, qui a développé un dialogue très riche sur ces sujets avec, entre autres, W. Heisenberg, C. F. von Weizsäker. Donc, je suis au regret d’indiquer que ce que nous propose L. Smolin n’est pas neuf et son positionnement intellectuel n’offre pas, à mes yeux, un espace nouveau de réflexions.

            Ceci étant dit, je cite la sixième hypothèse de l’auteur : c’est une version du principe holographique conjecturé par ‘t Hooft en 1993. Ce principe dit : lorsqu’une surface à deux dimensions est définie dans une géométrie émergente de l’espace-temps, sa surface donne la proportion maximum de l’information qui peut la traverser[2].

            « Avec ce principe, chaque événement est distingué par l’information obtenue concernant son passé causal. Nous appelons ceci le ciel de l’événement parce que cela fonctionne assez bien comme le ciel au-dessus de nous… Parce que rien ne se déplace plus vite que la vitesse de la lumière, seulement les choses à l’intérieur du ciel de l’événement peuvent l’influencer, ainsi le ciel est aussi une vue de son passé causal.

            Cette image permet de décrire comment l’information et l’énergie circulent à travers les événements au fur et à mesure que l’univers évolue. Ted Jacobson et Thanu Padmanabhan (déjà cités dans l’article précédent du 5/10 : ‘Quelque chose de profondément caché’), ont indépendamment montré que la sixième hypothèse, avec la première loi de la thermodynamique (loi de la conservation de l’énergie), qui gouverne la quantité d’énergie utile disponible pour un processus, peuvent être utilisées pour dériver les équations de la relativité générale(sic), et en conséquence la gravité. Ceci fournit les semences d’une figure possible de la gravité quantique… »

            Est-ce que T. Jacobson et Th Padmanabhan sont les hommes de la situation pour provoquer l’unification entre relativité générale et mécanique quantique et leurs dépassements ? La question mérite d’être posée car leurs travaux sont cités par S. Carroll défenseur de la mécanique quantique (théorie quantique des champs) accompagnée de l’hypothèse des mondes multiples et par Smolin qui affirme que la mécanique quantique est fausse. A suivre…

 

                         

 

 

[1] Roger Penrose et le prix Nobel Gérard ‘t Hooft.

[2] Cette conjecture fut améliorée en 1995 par Léonard Susskind qui la résume ainsi : « La quantité maximale d'informations contenues dans un volume d'espace ne peut être plus importante que celle qui est emmagasinée à la surface de ce volume, où une quantité élémentaire ou « bit » d'informations occupe un quart de la surface dite de Planck. »

 

Partager cet article
Repost0
5 octobre 2019 6 05 /10 /octobre /2019 15:47

Quelque chose de profondément caché.

Ceci est le titre du livre qui vient d’être publié aux Etats Unis et signé par Sean Carroll. Le sous-titre précise le domaine de la physique ausculté par l’auteur : « Les mondes quantiques et l’émergence de l’Espace-Temps ». En accord avec la théorie des mondes multiples proposée par Hugh Everett (1930-1982), l’auteur considère que la mécanique quantique est logique et pour lui le voile de l’étrangeté perd toute son opacité. Dans ce livre de nombreux concepts élémentaires sont analysés dans le but de justifier l’adhésion aux mondes multiples et dans le but de confirmer la pertinence de la théorie quantique des champs. Quels que soient les degrés d’adhésion à Everett, pour chacun d’entre nous, la lecture de ce livre est fort intéressante.

J’ai retenu deux aspects de ces analyses originales de l’auteur que je privilégie dans cet article. Ce n’est pas un choix exhaustif et il se pourra que je cite ce livre à d’autres occasions.

Dans le chapitre : « Pourquoi y a-t-il l’espace ? », Page 239 : « La position est : « Là où vous êtes dans l’espace », tandis que la vitesse est « Avec quelle rapidité vous vous déplacez dans l’espace. », et l’impulsion est : la masse que multiplie la vitesse. Donc, l’espace apparaît être la chose principale.

            Mais une analyse plus profonde révèle que les concepts de position et d’impulsion sont bien plus sur un pied d’égalité qu’au premier abord. Peut-être que nous ne devrions pas en être surpris ; après tout : position et impulsion sont les deux quantités qui ensemble définissent l’état d’un système classique. En effet, dans l’hamiltonien de la mécanique classique, position et impulsion sont explicitement sur un pied d’égalité. Est-ce que cela reflète une symétrie qui n’est pas évidente en surface ?

            Dans notre vie quotidienne, position et impulsion semblent vraiment différents. Ce qu’un mathématicien appellerait « l’espace de toutes les positions possibles » ce que communément on appelle ‘l’espace’ ; c’est le monde tridimensionnel dans lequel nous vivons. « L’espace de toutes les impulsions possibles » ou « l’espace des impulsions », est aussi de trois dimensions, mais cela semble un concept abstrait. Personne ne croit que nous vivons dans cet espace-là. Pourquoi non ?  

            La caractéristique qui rend l’espace spécial est la localité.

            Comme dans un système classique, le formalisme quantique basique traite position et impulsion sur un pied d’égalité. Les deux façons pour décrire le même état quantique sont équivalentes, exprimant la même information mais de manière différente.

            Ceci est d’une nature profonde. Nous avons précisé qu’une fonction d’onde d’impulsion définie ressemble à une onde sinusoïdale. Mais c’est aussi ce à quoi cela ressemble quand nous utilisons la position, ce qui est le langage que nous utilisons naturellement. Exprimé en termes d’impulsion, le même état quantique apparaîtrait comme une pointe localisée à cette impulsion particulière. Un état avec une position définie ressemble à une onde sinusoïdale répartie sur toutes les impulsions possibles. Ceci commence à nous suggérer ce qui réellement importe c’est la notion abstraite de ‘l’état quantique’, pas sa réalisation (sic) spécifique en tant que fonction d’onde en termes soit de position ou d’impulsion.

            La symétrie est rompue, une fois de plus, par le fait que dans notre monde particulier, les interactions se produisent quand les systèmes sont proches dans l’espace. C’est la localité dynamique au travail. ‘Positions dans l’espace ‘ sont les variables par lesquelles les interactions apparaissent locales. L’espace n’est pas fondamental : c’est juste une façon d’organiser ce qui se passe dans la fonction d’onde quantique.

            Je dois retenir le fait qu’ à plusieurs occasions il fait référence à ce qui correspond à notre état d’être humain qui véhicule de façon inhérente certaines déterminations : Dans notre vie quotidienne ; Personne ne croit que nous vivons dans cet espace-là ; le langage que nous utilisons naturellement ; dans notre monde particulier.

            Je commente : L’espace n’est pas fondamental. D’un point de vue purement physique l’espace n’est pas fondamental, car c’est nous, sujet pensant, descendant d’Homo Erectus, qui faisons de l’espace un support de repérage fondamental. Voir article : du 03/02/2016 : ‘Là, où, pense Homo Sapiens’. L’espace est fondamental pour l’être humain, il est une détermination de notre capacité de penser et d’inférer depuis nos origines Homo. L’ignorer c’est sous-estimer les biais que de fait nous induisons au sein du processus de la découverte des lois de la nature. En ce sens, je trouve que les réflexions de Carroll concernant ‘l’espace’ et ‘l’espace des impulsions’ sont pertinentes mais dommage que cela se termine par un point d’interrogation car à l’évidence c’est le physicien qui brise la symétrie car cette symétrie des deux espaces ne peut pas être (ne peut pas être encore) intellectuellement intériorisée. Remercions quand même : S. Carroll, d’avoir mis le doigt sur ce problème, sachant qu’au-delà de celui-ci il y en a bien d’autres. Il est donc essentiel, à mes yeux, que les physiciens cessent de considérer que leur savoir est un savoir universel. C’est pourquoi, j’avais proposé en son temps que soit rédigé un manifeste pour que s’établisse une importante coopération avec les paléoanthropologues et historiens de l’évolution de l’homme. Sans succès.

Le langage que nous utilisons naturellement. Là encore, Carroll pense juste quand il évoque ce langage, étant donné ce qu’il est et que nous utilisons naturellement, eh bien ! il fait ce que nous sommes et détermine le processus par lequel nous pensons (voir article du 11/07/2012 : ‘Faire alliance avec les linguistes pour avancer’. En conséquence le monde que nous concevons grâce aux lois de la physique que nous établissons, est un monde particulier au sein du monde universel. C’est bien ce que nous dit S. Carroll quand il évoque : ‘dans notre monde particulier’, bien que pour lui notre monde est particulier parmi les mondes multiples d’Everett. Voir article précédent du 17/09 : ‘Transgressions : à suivre !’.

 

            Dans le chapitre 13 : « Respiration dans l’Espace Vide » : « Trouver la Gravité dans la Mécanique Quantique. »

            S. Carroll propose dans ce chapitre de trouver la gravité quantique dans la mécanique quantique en utilisant les ingrédients basiques de la théorie quantique : les fonctions d’onde, l’équation de Schrödinger, l’intrication, et interroger sous quelles circonstances nous pouvons obtenir des branches émergentes de la fonction d’onde qui ressemble à des champs quantiques se propageant dans un espace-temps courbé. Il précise que la compréhension de son projet : « Trouver la Gravité dans la Mécanique Quantique. » implique que l’on accepte l’idée que la thèse des mondes multiples d’Everett permet de comprendre enfin la mécanique quantique et de lever les mystères et les interrogations qu’elle véhicule.

            Il faut rappeler que la relativité générale et la relativité restreinte relève du monde physique classique comme les équations de Maxwell, et les autres qui ont précédées. Et une fois que la mécanique quantique s’impose il est naturel de tenter de ‘quantifier’ la relativité générale pour obtenir une théorie quantique de la gravité. Ce qui fait la relativité générale : spéciale, c’est qu’elle est une théorie de l’espace-temps plutôt qu’une théorie de la matière au sein de l’espace-temps. Carroll précise que selon lui, la Nature est quantique dès le début et décrite par une fonction d’onde évoluant en accord avec une version appropriée de l’équation de Schrödinger. Il ne veut pas commencer avec espace et champs classiques et les quantifier, aussi il propose de les extraire directement d’une fonction d’onde quantique.

            Carroll rappelle et s’appuie sur les travaux de John von Neumann (1903-1957) qui a montré que la mécanique quantique introduit une notion d’entropie qui est parallèle à la définition classique. « Comme l’a expliqué Ludwig Boltzmann, on commence avec un ensemble de constituants qui peuvent se mélanger de façons multiples, tels atomes et molécules dans un fluide. L’entropie est alors la façon dont on compte le nombre de possibilités dont les constituants peuvent être arrangés sans que l’apparence macroscopique du système soit changée. L’entropie est reliée à notre ignorance (sic) : les états de hautes entropies sont ceux pour lesquels nous ne savons pas beaucoup à propos des détails microscopiques d’un système à part connaître ses caractéristiques observables.

L’entropie de von Neumann, diffère, dans le sens qu’elle est purement et naturellement quantique et émerge de l’intrication (sic). Considérons un système quantique qui est séparé en deux parties. Cela pourrait être deux électrons, ou les champs quantiques dans deux régions de l’espace. Le système comme un tout est décrit par une fonction d’onde, comme d’habitude. Il a plusieurs états quantique définis, même si nous ne pouvons seulement prédire les résultats des mesures que d’une façon probabiliste. Mais si les deux parties sont intriquées, il n’y a qu’une seule fonction d’onde pour l’ensemble et non pas de fonction d’onde séparée pour chacune de parties. Les parties, pour ainsi dire, ne sont pas dans des états quantiques qui leur seraient propres.

Von Neumann a montré que, pour différentes raisons, le fait que des sous-systèmes intriqués n’aient pas des fonctions d’ondes propres est analogue à ce qu’ils aient une fonction d’onde mais nous ne savons pas ce que cela est (la teneur de cette affirmation doit être questionnée). En d’autres termes, les sous-systèmes quantiques, ressemblent étroitement à la situation classique où il y a beaucoup d’états possibles qui macroscopiquement apparaissent semblable. Et cette incertitude peut être quantifiée par ce que nous appelons maintenant l’entropie d’intrication. Plus est élevée l’entropie d’un sous-système quantique, plus il est intriqué avec le monde extérieur (sic).

Ensuite Carroll s’appuie sur les travaux originaux, que nous avons déjà étudiés, de Juan Maldacena et qui ont établi une correspondance, dans des situations particulières, entre l’entropie exprimée par la valeur de la surface qui englobe un volume d’espace et celle de ce volume en théorie des cordes. Ted Jacobson de l’université du Maryland est cité dans le livre comme celui qui développe l’idée que quand la gravité est incluse, l’entropie du volume d’une région est toujours (sic) proportionnelle à la surface de la région frontière[1]. La surface étant une quantité géométrique, il est considéré qu’au niveau élémentaire on peut établir une correspondance avec le membre de gauche de l’équation de la relativité générale et celui de droite avec celui de l’entropie qui est celui de la température donc de l’énergie. Grâce à ces manœuvres (dixit) Ted Jacobson a été capable de dériver l’équation d’Einstein plutôt que de la postuler directement comme le fit Einstein.

S. Carroll, p280 : « Pour dire les choses plus directement, on considère une petite région dans un espace-temps plat. Cette région a de l’entropie, parce que les modes (des champs quantiques) à l’intérieur de la région sont intriqués avec ceux de l’extérieur. Maintenant si on imagine changer légèrement l’état quantique, de façon que nous diminuions la quantité par laquelle cette région est intriquée, en conséquence nous diminuons son entropie. Dans la conception de Jacobson, la surface délimitant notre région change en conséquence, diminuant un peu, au moins d’un bit quantique. Et il montre que cette réponse de la géométrie de l’espace-temps à un changement de l’état quantique est équivalente à l’équation d’Einstein de la relativité générale, reliant courbure à l’énergie.

Ce fut le début d’une concentration d’intérêt dans ce que nous appelons la gravité ‘entropique’ ou ‘thermodynamique’ : d’autres contributions importantes furent proposées par Thanu Padmanabhan (2009) et Erik Verlinde (2010). Le comportement de l’espace-temps en relativité générale peut être pensé comme une simple tendance naturelle de systèmes de se modifier vers des configurations de plus grande entropie.

Ceci constitue un véritable changement radical de perspective. Einstein a pensé en termes d’énergie : une quantité définie associée avec une configuration particulière de matériaux dans l’univers. Jacobson et d’autres ont prétendu qu’on peut atteindre la même conclusion en pensant entropie, un phénomène collectif qui émerge d’une interaction de petits constituants d’un système. Ce simple déplacement de conception peut offrir un chemin crucial en faveur de notre quête de découvrir une théorie quantique de la gravité. »

Il ne faut pas se cacher qu’il y a encore beaucoup de chemin à parcourir avant de prouver concrètement que ce but est atteignable.

 

[1] On se rappelle qu’en quantique, une surface élémentaire (bit quantique) est une surface délimitée par la longueur de Planck au carré : Lp2 et la surface macroscopique est donc un nombre de fois la surface élémentaire. La surface élémentaire détermine un bit d’information élémentaire. L’entropie est proportionnelle au nombre de surface élémentaire de la surface considérée multipliée par la constante de Boltzmann.

Partager cet article
Repost0
17 septembre 2019 2 17 /09 /septembre /2019 17:55

Transgressions : à suivre !

En physique théorique, il y a deux transgressions intellectuelles particulières qui méritent d’être analysées. L’une de ces transgressions est relative à la physique quantique et c’est l’hypothèse des ‘mondes multiples’ émise premièrement par H. Everett et l’autre est relative à la relativité générale et c’est l’hypothèse du ‘multivers’ (souvent commentée par A. Barrau sans qu’il en soit pour autant l’auteur). Chacune de ces hypothèses sont des échappatoires à des problèmes posés par ces deux théories fondamentales qui sont toujours aujourd’hui sans solutions satisfaisantes. Selon moi, ces deux hypothèses ne sont pas banales car elles révèlent, ce que j’ai déjà signifié dans l’article du 22/07 : ‘Ai-je fait si fort ?’, et celui qui le précède, la nécessité impérative, vitale sur le plan intellectuel, de concevoir un au-delà à l’obstacle sur lequel bute actuellement la pensée scientifique. L’enfermement intellectuel est la pire situation que puisse supporter Homo Sapiens.

A propos de l’hypothèse des mondes multiples je m’appuie sur l’article récent du 02/09, dans ‘Nature’ qui a pour titre : ‘La logique bizarre de la théorie des mondes multiples’, (R. Crease se réjouit de l’incursion de S. Carroll[1] dans la théorie de plus de 60 ans.)

Je cite : « Le physicien américain Hugh Everett est à l’origine de cette théorie à la fin des années 1950. Il envisage de considérer notre univers comme juste un monde parmi les mondes parallèles nombreux qui se débranchent les uns des autres, nanoseconde par nanoseconde, sans se croiser, ni communiquer. (La théorie des mondes multiples diffère du concept de multivers, car elle conçoit de nombreux univers autonomes dans différentes régions de l’espace-temps.)

Six décennies plus tard, cette théorie est l’une des idées les plus bizarres, mais tout à fait logique. Cette théorie est née des principes fondamentaux de la mécanique quantique sans introduire d’éléments étrangers.

Carroll rend compte de la validité de la théorie des mondes multiples et de son évolution post-Everett, et pourquoi malgré tout notre monde ressemble à ce qu’il est. Grandement à cause de son caractère logique, Carroll désigne l’invention d’Everett : « La meilleur vue de la réalité que nous ayons. » sic.

Attraper la vague.

La mécanique quantique est le cadre de base de la physique subatomique moderne. Elle a résisté avec succès à près d'un siècle de tests, dont à celle du physicien français Alain Aspect confirmant l’intrication, ou l'action à distance entre certains types de phénomènes quantiques. En mécanique quantique, le monde se déploie à travers une combinaison de deux ingrédients de base. L'un est une fonction d'onde lisse et entièrement déterministe : une expression mathématique qui transmet des informations sur une particule sous la forme de nombreuses possibilités pour son emplacement et ses caractéristiques. Le second est quelque chose qui réalise l'une de ces possibilités et élimine toutes les autres. Les opinions diffèrent sur la façon dont cela se produit, mais il pourrait être causé par l'observation de la fonction d'onde ou par la fonction d'onde rencontrant une partie du monde classique.

Beaucoup de physiciens acceptent au pied de la lettre ce bidouillage conceptuel connu sous le nom d'interprétation de Copenhague, promue par Niels Bohr et Werner Heisenberg dans les années 1920. Mais l'approche de Copenhague est difficile à avaler pour plusieurs raisons. Parmi celles-ci est le fait que la fonction d'onde est inobservable, les prédictions sont probabilistes et ce qui fait que la fonction d’onde s’effondre est mystérieux.

Carroll soutient que la théorie des plusieurs mondes est l'approche la plus simple pour comprendre la mécanique quantique. Il accepte la réalité de la fonction d'onde. En fait, il dit qu'il y a une fonction d'onde, et une seule, pour l'Univers entier. En outre, il indique que lorsqu'un événement se produit dans notre monde, les autres possibilités contenues dans la fonction d'onde ne disparaissent pas. Au lieu de cela, de nouveaux mondes sont créés, dans lesquels chaque possibilité est une réalité. La simplicité et la logique de la théorie dans le cadre conceptuel de la mécanique quantique inspirent Carroll au point de l’appeler l'approche « courageuse ». Ne vous inquiétez pas de ces mondes supplémentaires, affirme-t-il — nous ne pouvons pas les voir, et si la théorie des plusieurs mondes est vraie, nous ne remarquerons pas la différence. Les nombreux autres mondes sont parallèles aux nôtres, mais ils sont si cachés de lui qu'ils "pourraient aussi bien être peuplés de fantômes".

Je n’évoque que l’échappatoire des mondes multiples aux apories de la mécanique quantique, il y a évidemment d’autres échappatoires, celles : du Qbism, des variables cachées, de l’onde pilote, de l’hypothèse GRW, etc…, mais aucune n’est satisfaisante et les apories sont toujours là, précisons que ces apories sont relatives à notre sens commun en général et particulièrement à celui des physiciens.

Complémentairement je cite ce que déclare Steven Weinberg[2] au cours de l’interview obtenu par Sabine Hossendelfer et rapporté dans son livre ‘Lost in Maths’, page 151 et suivantes : « Il est particulièrement agaçant de constater que la fonction d’onde s’effondre simplement quand elle est mesurée, parce que aucun autre des processus que nous connaissons n’est instantané. Dans toutes les autres théories, une connexion entre deux endroits signifie que quelque chose doit se déplacer d’un point à l’autre à une vitesse inférieure à celle de la lumière. Cette propagation progresse au fil du temps est dite « localisée », et elle est conforme à notre expérience quotidienne. Mais la mécanique quantique, elle, prend nos attentes à contre-pied parce que des particules intriquées sont liées, mais pas localement. Mesurez l’une d’elles, et l’autre le saura aussitôt. C’était ce qu’Einstein appelait « l’étrange action à distance »

« L’interprétation des mondes multiples postule que la fonction d’onde ne s’effondre jamais. Au lieu de cela, la fonction d’onde se subdivise en des univers parallèles, un pour chaque résultat possible des mesures. Dans l’interprétation des mondes multiples, il n’y a pas de problèmes de mesure, mais seulement la question de savoir pourquoi nous vivons dans cet univers particulier. Steven Weinberg trouve tous ces univers « repoussants », mais aux yeux de Max Tegmark[3], cette logique est « belle », et il croit que « la théorie la plus simple, et sans doute la plus élégante, implique des univers parallèles par défaut. » 

En ce qui concerne l’autre échappatoire, relative à la relativité générale, générée avec l’hypothèse du Multivers, elle permet de s’émanciper du principe anthropique[4] car avec l’hypothèse du multivers : notre Univers prescrit et décrit par la relativité générale ne serait pas unique. Cela permet d’évacuer le questionnement du dessein intelligent qui veut affirmer et justifier l’unicité de notre univers. Selon l’hypothèse du multivers, il se pourrait qu'il y ait un nombre infini d'« univers bulles » produits, sans connexions les uns avec les autres, ou de façon très marginale. Dans ce cas, il n'y a aucune raison de penser que les lois de la physique soient les mêmes dans chaque univers, et il existerait ainsi bien plus d'univers que d'univers concevables par nous.

Comme je l’ai déjà précisé, ces hypothèses : multivers et mondes multiples, sont des extrapolations qui ont vocation à consolider des théories physiques très bien établies… jusqu’à un certain point. Les propositions de sorties des impasses sont actuellement de l’ordre de l’aventure intellectuelle et les débats sont âpres. Je cite à nouveau S. Weinberg dans l’ouvrage déjà indiqué :

Page 258 : « Brian Greene[5] ? »

  • « Oui. Il a ces neuf multivers. Neuf ! Et les arguments sur lesquels il s’appuie sont sur une pente savonneuse. Donc, d’un côté, vous avez Martin Rees[6] qui dit que l’univers ne s’arrête pas à notre horizon visuel, et donc, en un sens, c’est un multivers. Et je suis évidemment d’accord. Et un peu plus loin, vous avez l’inflation chaotique d’André Linde[7], avec son nombre infini d’univers-bulles. Et encore plus loin, par là-bas, vous avez le paysage de la théorie des cordes, où la physique est différente dans chaque bulle. Et encore plus loin, vous tombez sur le multivers mathématique de M. Tegmark. Et après, très loin là-bas, vous trouvez des gens comme N. Bostrom[8] qui affirme que nous vivons dans une simulation sur ordinateur. Ce n’est même pas de la pseudoscience, c’est de la fiction. »
  • S. Hossenfelder intervient : « C’est la version moderne de l’univers vu comme une horloge, en gros. A l’époque, c’étaient des rouages et des boulons, aujourd’hui, ce sont des ordinateurs quantiques. »
  • « Oui, opine George. Mais vous voyez, B. Green, dans son livre, dit que c’est une possibilité. Et quand des gens écrivent que des choses pareilles sont des possibilités scientifiques, moi, je me demande : jusqu’où peut-on avoir confiance dans ce qu’ils pensent ? C’est tout simplement ridicule ! »

A ce stade de l’article, je veux insister sur le contenu de l’intervention de S. Hossendelfer car elle met le doigt sur une problématique très importante. Pour des raisons évidentes nous sommes toujours très conditionnés par un investissement intellectuel sur les objets d’études physiques en termes de : « rouages et boulons », c’est le principe de causalité qui nous guide en général (voir Descartes). Cela nous conduit à concevoir l’univers en termes ‘d’univers-bloc’ (voir L. Smolin) et de le penser comme une machine sur lequel nous projetons un mode fonctionnement usuel, familier, classique. Ainsi on peut lire dans des articles : « Suggérant que peu dans le domaine sont prêts à rejeter les théories qui sous-tendent notre compréhension de la façon dont l’univers travaille (sic) – au moins pas maintenant. »

A mon avis, en ce qui concerne notre investissement sur l’idée d’univers il ne faut pas le penser en termes de machinerie, de mécanismes et donc il ne travaille pas et c’est particulièrement absurde et primaire de penser qu’il travaillerait. C’est nous, qui sommes des machines à penser, qui sommes dotés de mécanismes qui orientent et conduisent à la prospection de nouveaux savoirs, de stockages cérébraux de connaissances, qui réunis permettent d’inférer dans de nouveaux espaces de connaissances jusqu’alors inconnus par Homo Sapiens. Je propose de penser l’univers global qui serait dans un état, lui-même étant cet état. C’est ainsi qu’il faut comprendre ce que souvent je cite (désolé) : « Au sein d’une éternité, parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance de l’univers... » La conjonction de l’éternité et de tous les possibles définit l’état de l’univers effectif que nous devons considérer. 

La dynamique du creusement, qui ne cesse, par Anthrôpos est confortée par les échappatoires conçues pour proposer une issue aux impasses avérées des deux théories fondamentales car d’une certaine façon elles proposent de dépasser la conception actuelle étriquée et mécanique du modèle standard. Pour illustrer cette affirmation qui peut être considérée comme légère, je cite à nouveau le livre de S. Hossenfelder, p 133 : « Il est cependant possible de combiner ces différents multivers en un autre encore plus grand. » Le mouvement que je préconise est déjà à l’esquisse. A suivre !

 

[1] Sean Carroll 53 ans, est un astronome américain, chargé de recherche au département de physique du California Institute of Technology (Caltech).  Auteur d’un livre tout récent : ‘Something deeply hidden’, Quantum Worlds and the Emergence of Spacetime.

[2] S. Weinberg, 86 ans, prix Nobel en 1979 pour sa contribution à l’unification des interactions faibles et électromagnétiques.

[3] Physicien, cosmologiste, 52 ans, professeur au MIT.

[4] Dans Wikipédia : Le principe anthropique est un principe épistémologique selon lequel les observations de l'univers doivent être compatibles avec la présence d'un observateur étant une entité biologique douée de conscience. Cette contrainte pourrait permettre d'orienter l'heuristique de la recherche scientifique fondamentale.

Ce principe, proposé par l'astrophysicien Brandon Carter en 1974 1, existe en deux versions principales. Le principe anthropique faible dit que ce que nous pouvons nous attendre à observer doit être compatible avec les conditions nécessaires à notre présence en tant qu’observateurs, sinon nous ne serions pas là pour l'observer. Le principe anthropique fort postule que les paramètres fondamentaux dont l'univers dépend sont réglés pour que celui-ci permette la naissance et le développement d’observateurs en son sein à un certain stade de son développement. En d'autres termes les observations de l'univers seraient contingentes dans la version « faible » alors qu'elles seraient au contraire nécessaires dans la version « forte »

[5] 56 ans, est un physicien américain connu comme un des spécialistes mondiaux de la théorie des cordes. Professeur de physique et de mathématiques à l'université Columbia de New York

[6] 77 ans, est un scientifique britannique professeur d'astronomie

[7] 71 ans, est un physicien américano-russe et professeur de physique à l’université Stanford (Californie). N.B. : Dans une conférence, Linde évoqua l’étrangeté du « bon » réglage des constantes physiques (voir Principe anthropique) et émit l’hypothèse qu’il existait peut-être une « mousse » d’univers, chacun ayant eu son Big Bang (ou quelque autre événement en tenant lieu) et ses propres lois et/ou constantes physiques, le nôtre étant l’un de ceux qui, par hasard, avait des paramètres permettant l’apparition de la vie.

[8] 46 ans, est un philosophe suédois connu pour son approche du principe anthropique et ses recherches relatives aux simulations informatiques.

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens