Overblog
Suivre ce blog Administration + Créer mon blog
22 juillet 2020 3 22 /07 /juillet /2020 15:43

Anthrôpos ne cessera de creuser.

J’aime à dire fréquemment, pour rendre compte de la situation de l’être humain dans l’univers et de la dynamique qui l’anime et dont il jouit : « Au sein d’une éternité (sic), parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance de l’univers qui n’a pas de bornes. » J’ai toujours été réticent au concept de modèle standard car si on peut, en partie, comprendre son utilité opérationnelle, il est malheureusement à mon sens trop souvent évoqué comme un alibi pour borner la pensée sur ce sujet. Si on considère l’histoire de l’humanité et les multiples cosmogonies qui ont jalonné l’évolution de la prise de conscience de l’être humain d’être dans le monde, il est consternant, voire inquiétant, de penser, que nous, à notre époque, nous aurions atteint le sommet de notre développement cérébral. Nous ne représentons pas l’état de l’Homo Sapiens finalisé.

Ci-joints deux articles qui nous offrent autant d’indices que l’enfermement intellectuel induit par le concept de modèle standard, n’a plus, n’aura plus, de raisons d’être.

Le mystère sur l’expansion de l’Univers s’approfondit avec de nouvelles données.

            Dans un article du 15/07/2020, dans ‘Nature’ il est annoncé qu’une nouvelle carte tant attendue du rayonnement fossile du Big Bang ne parvient pas à régler le débat sur la vitesse à laquelle l’Univers est en expansion.

Une nouvelle carte de l’Univers primitif renforce l’énigme de longue date en astronomie quant à la vitesse de l’expansion du cosmos. Les données, recueillies à l’aide d’un télescope dans le désert d’Atacama au Chili, confirment les estimations précédentes de l’âge, de la géométrie et de l’évolution de l’Univers. Mais les résultats entrent en conflit avec les mesures de la vitesse à laquelle les galaxies s’éloignent les unes des autres, et prédisent que l’Univers devrait se développer à un rythme significativement plus lent que ce qui est actuellement observé.

Le télescope de cosmologie d’Atacama (ACT) a cartographié le fond cosmique de micro-ondes (CMB). Les résultats, basés sur les données recueillies de 2013 à 2016, ont été publiés ce 15 juillet.

Les données d’ACT confirment maintenant les conclusions de Planck et produisent une valeur très similaire pour la constante de Hubble. Cet accord entre ACT et Planck sur la constante de Hubble est « une étape vraiment importante », déclare Paul Steinhardt, physicien théorique à l’Université de Princeton. « Je suis très impressionné par la qualité des nouvelles données et leur analyse », ajoute-t-il.

Adam Riess, un astronome de l’Université Johns Hopkins à Baltimore, Maryland, qui a dirigé une grande partie du travail de pointe sur les chandelles standards, dit que l’accord des données ACT avec Planck est « rassurant » et « un témoignage de la qualité du travail des expérimentateurs ».

Mais la tension sur la constante de Hubble demeure. Steinhardt pense que les mesures finiront par converger (sic) au fur et à mesure que les expérimentateurs perfectionneront leurs méthodes.

Mais Riess dit que c’est peut-être, au contraire, le modèle standard de la cosmologie qui est faux (sic). Et il ajoute : « Mon instinct me dit qu’il se passe quelque chose d’intéressant. »

 

Autre article très intéressant, du 26 juin, de Sean Bailly de ‘Pour la Science’, que je vous communique presqu’en intégral, qui recense très valablement toutes les interrogations et les incertitudes légitimes à propos de ce que l’on appelle la connaissance standard de l’univers. Nous avions pendant les dernières séances du télé-séminaire déjà abordés ces sujets. Voici le titre de l’article :

L’expansion de l’Univers est-elle vraiment isotrope ?

 

Un des piliers du modèle du Big Bang est que, à grande échelle, l’Univers présente les mêmes caractéristiques dans toutes les directions. Une analyse récente relance le débat sur la solidité de cette hypothèse. 

Dans le modèle du Big Bang, les cosmologistes ont fait deux hypothèses fondamentales : l’Univers est homogène et isotrope à grande échelle. Cela signifie que deux régions de l’Univers prises au hasard sont globalement équivalentes et que le cosmos a un aspect similaire quelle que soit la direction dans laquelle on l’observe. Ces idées naturelles sont d’ailleurs assez bien étayées par les observations. Pourtant, le modèle du Big Bang n’est pas sans défauts, et des chercheurs ont parfois proposé de révoquer l’une de ces hypothèses, voire les deux. Dans des travaux récents, Konstantinos Migkas, de l’université de Bonn, et ses collègues ont étudié des amas de galaxies à partir de données recueillies par les télescopes spatiaux Chandra de la Nasa et XMM-Newton de l’ESA. Ils ont observé des indices qui mettent à mal l’isotropie de l’Univers.

Quand on regarde le ciel nocturne, on voit que les étoiles ne sont pas uniformément réparties sur la voûte céleste, notamment du fait de la présence de la Voie lactée, que l’on voit par la tranche. Mais qu’en est-il à plus grande échelle ? Si l’on examine la distribution des galaxies, on constate que celles-ci se regroupent en amas. Il existe donc des régions riches en matière et d’autres quasiment vides. Mais à encore plus grande échelle, aux échelles cosmologiques, l’Univers paraît en revanche homogène et isotrope, un peu comme lorsqu’on s’éloigne d’un tableau pointilliste et que chaque point de couleur se fond dans une image d’ensemble unie. L’homogénéité et l’isotropie sont des principes fondamentaux et essentiels pour le modèle du Big Bang. Faire ces hypothèses permet d’utiliser une description mathématique assez simple et riche en symétries (en l’occurrence la métrique Friedmann-Lemaître-Robertson-Walker).

Le modèle du Big Bang est construit sur les prédictions théoriques d’Alexandre Friedmann et de Georges Lemaître dans le cadre de la relativité générale et des premières observations d’Edwin Hubble. Ces travaux ont montré que l’Univers est en expansion. Le cosmos serait né d’un état très dense et très chaud qui se dilate depuis. Une image souvent utilisée pour illustrer cette expansion est celle d’un cake aux raisins en train de cuire. À mesure que la pâte homogène gonfle, les raisins secs s’éloignent les uns des autres au même rythme. Il n’y a pas de zone plus remarquable qu’une autre dans la pâte (si on fait abstraction des bords du moule !) et, en moyenne, autour de n’importe quel point dans la pâte, toutes les directions sont équivalentes. C’est ainsi que les galaxies de l’Univers s’éloignent les unes des autres non pas à cause de leur vitesse propre, mais par la simple dilatation de l’espace qui les sépare. On parle de vitesse de récession.

Cette vision s’est enrichie en 1998. En étudiant des explosions particulières d’étoiles nommées supernovæ de type Ia, l’équipe de Saul Perlmutter, d’une part, et celle d’Adam Riess et Brian Schmidt d’autre part, ont montré que l’expansion de l’Univers accélère depuis environ 7 milliards d’années. Ce résultat a eu un impact retentissant – les trois astrophysiciens ont été récompensés par le prix Nobel de physique en 2011 –, car les cosmologistes pensaient plutôt à l’époque que l’expansion devait ralentir sous l’effet de la force gravitationnelle de la matière contenue dans l’Univers. Le gonflement du cake, au lieu de diminuer comme en fin de cuisson, est de plus en plus rapide ! Pour expliquer cette expansion accélérée de l’Univers, les physiciens ont fait l’hypothèse que celui-ci renferme une grande quantité « d’énergie noire ». La nature précise de cette dernière est inconnue et fait l’objet d’intenses recherches.

Le modèle du Big Bang amendé avec l’ajout de l’énergie noire n’a pas pour autant remis en question l’homogénéité et l’isotropie de l’Univers : l’expansion accélérée paraît identique dans toutes les directions. Les campagnes d’observation systématique du ciel qui ont permis d’analyser les grandes structures de l’Univers et la distribution de la matière semblent confirmer ces hypothèses aux plus grandes échelles.

L’homogénéité remise en question

Cependant, dès le début des années 2000, Thomas Buchert, à l’École normale supérieure de Lyon, a proposé une idée audacieuse. Si l’on prend en compte la non-linéarité des équations de la relativité générale, les hétérogénéités, à l’échelle des galaxies et des amas de galaxies, peuvent avoir un impact sur le comportement de l’Univers, et notamment sur sa vitesse d’expansion. Ces calculs sont très difficiles à mener de façon exacte. Néanmoins, certains résultats partiels laissent à penser que cet effet, dit « de rétroaction », pourrait rendre inutile l’ajout d’énergie noire ! Le futur télescope spatial Euclid devrait fournir des informations précieuses concernant cet effet.

Cette approche met en évidence qu’un Univers homogène seulement à très grande échelle se comporte différemment d’un Univers complètement homogène. Il semble donc raisonnable de se demander si l’Univers est réellement homogène aux plus grandes échelles. Certains cosmologistes explorent cette piste par exemple en supposant que la Voie lactée serait plongée dans une « bulle de Hubble », une vaste région de plusieurs centaines de millions d’années-lumière de diamètre où la densité moyenne est plus faible qu’à l’extérieur. Cette hypothèse permet d’expliquer simplement l’impression que l’expansion de l’Univers accélère.

Si l’Univers n’était pas aussi homogène qu’on le pensait, cela aurait un impact sur l’hypothèse de son isotropie. Plusieurs équipes ont voulu mettre à l’épreuve cette dernière. Mais si certains travaux semblent confirmer l’isotropie, d’autres ne sont pas aussi affirmatifs. Par exemple, en première approximation, le fond diffus cosmologique, le rayonnement fossile émis alors que l’Univers n’avait que 380 000 ans, est identique dans toutes les directions du ciel, avec une température de 2,7 kelvins. Cependant, le fond diffus présente d’infimes fluctuations (de l’ordre de 10-5 degrés) autour de la température moyenne. Ces fluctuations sont riches en informations. Elles sont liées à des ondes acoustiques qui se propageaient dans le plasma emplissant l’Univers à l’époque ou le rayonnement a été émis. Les photons du fond diffus cosmologique un peu plus chaud proviennent des zones légèrement plus denses, et inversement. Les satellites WMAP puis Planck ont établi une cartographie précise de ces fluctuations. Elles sont relativement bien réparties dans le ciel et leur distribution statistique est assez bien comprise. Cependant, une région exceptionnellement vaste de cette carte, dans la direction de la constellation d’Éridan, dans l’hémisphère Sud, est anormalement froide. Elle résulterait de la présence d’une très grande région pauvre en matière. Cette observation semble indiquer que l’isotropie n’est peut-être pas respectée même aux plus grandes échelles.

Le fond diffus cosmologique est un outil très puissant pour sonder les propriétés de l’Univers. Mais il est très difficile d’en extraire des informations qui dépendent de directions spécifiques, et il repose aussi de façon cruciale sur les paramètres du modèle cosmologique utilisé (sic). Des astrophysiciens ont aussi sondé l’isotropie de l’Univers en s’appuyant sur les supernovæ afin de vérifier si la relation reliant la distance et la vitesse de récession des galaxies était identique dans toutes les directions. Mais les conclusions ne sont pas claires : certaines équipes observent une déviation par rapport à l’isotropie, d’autres non.

Prendre la température des amas de galaxies

Pour en savoir plus, en 2018, Konstantinos Migkas et Thomas Reiprich, de l’université de Bonn, ont proposé une nouvelle technique complètement indépendante. Ils se sont intéressés au gaz chaud au sein des amas de galaxies. L’idée est d’utiliser la relation entre la température d’un amas de galaxies et sa luminosité en rayons X. Une formule assez simple relie ces deux grandeurs. L’avantage de cette approche est que la température peut être déterminée indépendamment de toute hypothèse cosmologique, contrairement à la luminosité. Il est donc possible d’exploiter la relation qui relie ces deux grandeurs pour voir si elle est identique dans toutes les directions du ciel.

Konstantinos Migkas, Thomas Reiprich et leurs collègues ont mis en œuvre cette idée avec un catalogue de 313 amas de galaxies (237 analysés par Chandra et 76 par XMM-Newton). Ils ont constaté que le résultat dépend fortement de la direction du ciel observée ! En d’autres termes, dans une région particulière du ciel, les amas paraissent plus ternes qu’ils ne devraient d’après leur température.

Ces mesures sont néanmoins délicates. « La température mesurée par spectroscopie X dépend de la composition du gaz (de sa métallicité) », explique Florian Pacaud, de l’université de Bonn, qui a aussi participé à l’étude. Cette composition influe sur l’émission globale d’un amas, mais elle ne peut pas être parfaitement contrainte par les observations. « Par conséquent, nous avons eu recours à des suppositions qui pourraient affecter les résultats. Mais il est peu probable que les déviations par rapport à ces suppositions soient systématiquement différentes d’une grande région du ciel à une autre », explique l’astrophysicien.

Un second facteur délicat à prendre en compte est l’absorption du rayonnement X émis par les amas de galaxies par le milieu interstellaire lorsqu’il traverse la Voie lactée. « Il faut donc corriger cette absorption, précise Florian Pacaud. Et pour cela, nous utilisons la densité d’hydrogène comme traceur (car elle est facile à mesurer), alors que l’absorption provient en pratique d’éléments plus lourds (les atomes plus lourds et les “poussières”). » Une erreur de modélisation de l’absorption galactique pourrait induire un effet d’anisotropie trompeur. Adam Riess, astrophysicien de l’université Johns-Hopkins, a d’ailleurs fait remarquer que la région particulière identifiée par Konstantinos Migkas est proche de la zone la plus opaque de la Voie lactée. Il faut cependant noter que le plan galactique couvre presque un tiers du ciel et qu’il n’est donc pas surprenant qu’une direction a priori aléatoire tombe près du plan galactique. La direction du grand attracteur (vers lequel se dirigent les amas de galaxies locaux et dû à des structures très massives dans la direction du superamas de Shapley) se trouve aussi étrangement proche du pic du signal de l’équipe de Konstantinos Migkas. Cela serait cohérent si on suppose que les grandes structures locales sont à l’origine de cette anisotropie.

Pour s’assurer de la réalité de l’effet qu’ils ont observé, Florian Pacaud et ses collègues ont analysé un catalogue d’amas plus important (842 structures considérées). Verdict : la région anormale persiste.

 

 

 

Partager cet article
Repost0
22 juillet 2020 3 22 /07 /juillet /2020 14:32
Partager cet article
Repost0
8 juillet 2020 3 08 /07 /juillet /2020 19:54

Un battement mesurable d’un intervalle de temps fondamental maximal.

La période de l’horloge de l’Univers : C’est le titre d’un article de Physicsworld du 19 juin : ‘The Period of the Univers’sClock’. Avec le sous-titre : « Les théoriciens ont déterminé 10−33 seconde comme limite supérieure pour la période d’un oscillateur universel, ce qui pourrait aider à construire une théorie quantique de la gravité. »

Ci-jointe la traduction, par mes soins, de la totalité de l’article « Le tic-tac de l’Univers. Une nouvelle théorie propose que le temps soit une propriété fondamentale de l’Univers, régie par un oscillateur qui interagit avec toute la matière et toute l’énergie.

Un trio de théoriciens a modélisé le temps comme un oscillateur quantique universel et a trouvé une limite supérieure de 10-33 seconde pour la période de l’oscillateur. Cette valeur se situe bien en dessous des tic-tacs les plus courts des meilleures horloges atomiques d’aujourd’hui, ce qui la rend incommensurable. Mais les chercheurs indiquent que les horloges atomiques pourraient être utilisées pour confirmer indirectement les prédictions de leur modèle.

La physique a un problème avec le temps : en mécanique quantique, le temps est universel et absolu, avançant continuellement au fur et à mesure que les interactions se produisent entre les particules. Mais avec la relativité générale (la théorie qui décrit la gravité classique), le temps est malléable — les horloges situées à différents endroits dans un champ gravitationnel ont des tic-tacs avec des vitesses différentes. Les théoriciens qui développent une théorie quantique de la gravité doivent concilier ces deux descriptions du temps. Beaucoup s’entendent pour dire que la solution exige que le temps soit défini non pas comme une coordonnée continue, mais plutôt comme le tic-tac d’une horloge physique, explique Flaminia Giacomini, théoricienne quantique au Perimeter Institute for Theoretical Physics (PITP) du Canada.

Une telle horloge fondamentale imprégnerait l’Univers, un peu comme le champ de Higgs de la physique des particules. Semblable au champ de Higgs, l’horloge pourrait interagir avec la matière, et elle pourrait potentiellement modifier les phénomènes physiques, dit Martin Bojowald de l’Université d’État de Pennsylvanie à University Park.

Mais les chercheurs ont encore à développer une théorie pour une telle horloge, et ils ne comprennent toujours pas la nature fondamentale du temps. Visant à mieux comprendre les deux problèmes, Bojowald et ses collègues ont imaginé l’horloge universelle comme un oscillateur et ont entrepris d’en déduire sa période. Leur espoir étant que cela pourrait offrir des idées sur la façon de sonder les propriétés fondamentales du temps.

Dans le modèle, l’équipe considère deux oscillateurs quantiques, qui agissent comme des pendules quantiques oscillant à des rythmes différents. L’oscillateur plus rapide représente l’horloge universelle et fondamentale, et le plus lent représente un système mesurable en laboratoire, comme l’atome d’une horloge atomique. L’équipe couple les oscillateurs pour leur permettre d’interagir. La nature de ce couplage est différente des oscillateurs classiques, qui sont couplés par une force commune. Au lieu de cela, le couplage est imposé en exigeant que l’énergie nette des oscillateurs reste constante dans le temps, une condition dérivée directement de la relativité générale.

L’équipe constate que cette interaction provoque une désynchronisation lente des deux oscillateurs. La désynchronisation signifie qu’il serait impossible pour n’importe quelle horloge physique de maintenir indéfiniment les tic-tacs d’une période constante, plaçant une limite fondamentale sur la précision des horloges. En conséquence, les tic-tacs de deux horloges atomiques construites à l’identique, par exemple, ne seraient jamais entièrement d’accord, si mesurées à cette limite de précision. L’observation de ce comportement permettrait aux chercheurs de confirmer que le temps a une période fondamentale, dit Bojowald.

Bojowald et ses collègues ont utilisé la propriété de désynchronisation pour obtenir une limite supérieure de 10-33 secondes pour la période de leur horloge oscillante fondamentale. Cette limite est 1015 fois plus courte que le tic-tac des meilleures horloges atomiques d’aujourd’hui et 1010 fois plus longue que le temps de Planck, une longueur proposée pour l’unité mesurable la plus courte.

La résolution d’une unité de temps Planck est bien au-delà des technologies actuelles. Mais le nouveau modèle permet potentiellement aux chercheurs de se rapprocher beaucoup plus qu’auparavant, explique Bianca Dittrich, qui étudie la gravité quantique au PITP. Bojowald est d’accord. L’utilisation de l’échelle de temps de la désynchronisation entre les horloges pour faire des mesures de temps, plutôt que les horloges elles-mêmes, pourrait permettre des mesures sur des échelles de temps beaucoup plus courtes, dit-il.

Un autre avantage de choisir un système quantique oscillant comme modèle pour une horloge fondamentale est qu’un tel système ressemble beaucoup aux horloges utilisées en laboratoire, explique Esteban Castro-Ruiz, de l’Université Libre de Bruxelles, qui étudie les problèmes liés aux horloges quantiques et à la gravité. La ressemblance est essentielle, dit Castro-Ruiz, parce qu’elle « amène la question d’une période fondamentale de temps à un cadre plus concret, où l’on peut réellement commencer à penser à des conséquences mesurables ».

Cette recherche est publiée dans Physical Review Letters.

            Cet article est pour moi une aubaine car c’est, à ma connaissance, un article qui me fait entrevoir pour la première fois une complicité de pensée théorique du battement du temps fondamental, insécable, que j’estime actuellement de l’ordre de 10-26 à 10-28s. Mon premier article sur ce sujet date du 02/11/2012 ‘Synthèse : Un monde en ‘Présence’’

Ci-jointes les idées exprimées que je fais miennes : « Une nouvelle théorie propose que le temps soit une propriété fondamentale de l’Univers » ; « La physique a un problème avec le temps » ; « Beaucoup s’entendent pour dire que la solution exige que le temps soit défini non pas comme une coordonnée continue, mais plutôt comme le tic-tac d’une horloge (physique.) » ; « … amène la question d’une période fondamentale de temps à un cadre plus concret, où l’on peut réellement commencer à penser à des conséquences mesurables ».

   Je cite maintenant ma différence de point de vue. Les auteurs de l’article indiquent clairement que le battement maximal est de nature physique, non pas à cause du moyen physique qu’ils proposent pour le mesurer mais par leur hypothèse : c’est l’horloge de l’Univers qui bat à 10-33seconde. Selon mon hypothèse le battement maximal est dû à la ‘‘Présence’ du Sujet pensant’, je le nomme TpS ou encore τs, est (voir mon article de 2012) :

                   1- une durée définitivement insécable ; (sic)

               2- un existential ;

               3- la condition de la mobilité de la pensée humaine et partant, concomitamment, la condition de la faculté de langage ;

               4- le foyer, le siège, de la temporalisation du temps ; (sic)

               5- une durée irrémédiable et aveugle de l’intelligence humaine ;

6- au cours de cette durée – qui a la valeur d’une ‘faille’ – se joue la compatibilité de l’être de la nature et de l’être dans la nature qui caractérise l’être humain ;

Bref aucune opération de mesure physique ne peut être instantanée, elle implique obligatoirement une durée. (sic)

            Si les auteurs de l’article parviennent à obtenir une mesure, il est évident qu’elle ne permettra pas de trancher entre les deux hypothèses sur la nature de ce battement. Qu’elle que soit la dimension temporelle de ce battement, qu’elle soit proche de mon estimation ou de la leur, ou encore une valeur intermédiaire, la question de la nature du battement restera posée. Par contre l’obtention d’un résultat tangible aura, à mon avis, la valeur d’un paradigme. Comme l’indique Castro-Ruiz : « on peut réellement commencer à penser à des conséquences mesurables » Effectivement, on pourra concrètement, exploiter ce résultat et le mettre à l’épreuve d’autres nouveaux résultats que l’on pourra attribuer à ce battement primordial. On fera de la physique avancée et nouvelle car c’est, in fine, avec des nombres à comparer, qu’on fait de la science dure. En ce sens ce résultat aura la valeur d’un paradigme.

            Je cite : « Une telle horloge fondamentale imprégnerait l’Univers, un peu comme le champ de Higgs de la physique des particules. Semblable au champ de Higgs, l’horloge pourrait interagir avec la matière, et elle pourrait potentiellement modifier les phénomènes physiques, dit Martin Bojowald » ; si Bojowald prédisait juste, ce serait remarquable. Toutefois, il y a encore beaucoup de chemin à parcourir avant d’affirmer une telle hypothèse avec les effets conséquents évoqués. J’aimerais que Martin ait raison, car mon hypothèse serait toujours valable puisque ce champ semblable au champ de Higgs serait, selon mon hypothèse, le témoin justifiant la ‘Présence’ du sujet pensant ainsi que son action investigatrice car le temps est un propre de l’homme et cette ‘Présence’ est inexpugnable. Voir article[1] du 21/12/2011 : ‘L’être humain est-il nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la Nature ?’ et article du 02/05/2013 ‘Bienvenu au ‘Moment Présent’ de Lees Smolin’. Article dans lequel je précise : « Attention ! Je ne prétends pas comme L. Smolin que le temps est réel, donné, dans le sens qu’il serait dans la nature, au contraire, je considère que c’est le sujet pensant qui est la source (temporalisation du temps) et le vecteur du temps. »

            Il restera à départager mon hypothèse de celle de Martin Bojowald pour rendre compte de ce qui est à la source de ce champ : ‘similaire au champ de Higgs’. Lorsqu’on sera à ce niveau d’une recherche de confirmation, il sera aisé de considérer que l’on aura fait un sacré progrès théorique. Dans l’article du 05/08/2017, je propose un projet d’expérience qui permettrait de distinguer laquelle des deux hypothèses serait juste avec la possibilité concomitante d’expliquer l’étrangeté que constitue le phénomène de l’intrication.

            Sur le site de phys.org, le 26 juin, un article a été consacré sur le même sujet sans apporter un quelconque développement supplémentaire. J’ai remarqué dans ces 2 publications une prise de distance intéressante, à mes yeux, à l’égard du temps de Planck, écartant l’idée que ce temps puisse avoir une signification physique. J’ai toujours considéré que les grandeurs associées à la constante de Planck étaient des grandeurs « hors-sol » obtenues en considérant les équations aux dimensions. Ce type d’extrapolation, laisse penser que les physiciens ont cru avoir saisi le ‘Graal’ avec h et, selon eux, tout s’expliquerait en faisant briller artificiellement son éclat à tout propos. Cela s’appelle une fascination, un tropisme, aveuglants.   

 

[1] Pendant ces 9 dernières années, j’ai consacré beaucoup d’articles au développement de l’hypothèse que le temps est un propre de l’être humain. On trouve, dans l’article du 19/07/2017 : « Votre, Notre Cerveau est une Machine du Temps » et dans l’article du 05/08/2017 : « Appel d’Offres », des étapes de ce développement.

Partager cet article
Repost0
20 juin 2020 6 20 /06 /juin /2020 16:30

Le modèle basique de l’univers doit être repensé.

Une publication du 11 juin, dans le site de Phys.org :Nouvelles mesures de distances renforce la mise en question du modèle basique de l’univers’ ; ‘New distance measurements bolster challenge to basic model of universe’, relate le dernier résultat de la valeur de la constante de Hubble. Il s’ajoute à tous les résultats précédents (voir article du 13/08/2019 : ‘Des nouvelles du futur univers’) qui mettent en cause la valeur de cette constante H pourtant plusieurs fois confirmée par l’équipe de physiciens qui exploite les données obtenues, avec la première image de l’univers après le Big Bang, par le satellite Planck (67.4 km/s/mégaparsec ; 1 parsec = 3.26 AL). Cette valeur sert encore de valeur de référence exploitée par la communauté scientifique.

Je cite : « Un nouvel ensemble de mesures de distances précises fait avec une collection internationale de radio télescopes a considérablement augmenté la probabilité que les théoriciens doivent réviser le "modèle standard » qui décrit la nature fondamentale de l’Univers. Ces nouvelles mesures des distances ont permis aux astronomes d’affiner le calcul de la valeur de la Constante Hubble (73.9 km/s/Mparsec), le taux d’expansion de l’univers, une valeur importante pour tester le modèle théorique décrivant la composition et l’évolution de l’Univers. Le problème est que les nouvelles mesures exacerbent un écart entre les valeurs précédemment mesurées de la Constante de Hubble et la valeur prédite par le modèle lorsqu’il est appliqué aux mesures du fond micro-ondes cosmique obtenues par le satellite Planck. Notre travail utilise une technique de mesure de la distance complètement indépendante de toutes les autres, et nous renforçons la disparité entre les valeurs mesurées et les valeurs prévues. Il est probable que le modèle cosmologique de base impliqué dans les prédictions soit le problème. »

Aujourd’hui, la constante De Hubble est, et continue d’être, une propriété fondamentale de la cosmologie observationnelle et est encore la valeur centrale pour les études actuelles. Les déterminations de la constante de Hubble basées sur l’exploitation des chandelles standards que seraient les SuperNovas de type 1a et aussi grâce à l’observation de la lumière émise par les quasars amplifiée par les lentilles gravitationnelles ont produit des chiffres de 73-74 kilomètres par seconde (la vitesse) par mégaparsec. Toutefois, les prédictions de la constante de Hubble du modèle cosmologique standard lorsqu’elles sont obtenues par des mesures sur le fond cosmique micro-ondes (CMB) — les restes de rayonnement du Big Bang — donnent une valeur de 67,4, soit une valeur différente et troublante. Cette différence, que les astronomes disent être au-delà des erreurs expérimentales de leurs observations, a de graves implications pour le modèle standard.

« Tester le modèle standard de la cosmologie est un problème vraiment difficile qui nécessite les mesures les plus précises de la Constante de Hubble. L’écart entre les prévisions et les valeurs de la constante Hubble indique donc l’un des problèmes les plus fondamentaux dans toute la physique. » ; « "Notre mesure de la constante Hubble est très près des autres mesures récentes, et statistiquement très différente des prédictions basées sur le CMB et le modèle standard cosmologique. Tout indique que le modèle standard a besoin d’être révisé. »

A propos de la consistance du modèle standard de la cosmologie, récemment, des nouvelles fragilités potentielles ont été mises en exergue. Ainsi dans l’article du 08/04/2020 : ‘Rethinking cosmology : Universe expansion may not be uniform.’; ‘Repenser la cosmologie : l’expansion de l’Univers pourrait ne pas être uniforme.’ Je cite : « Nous avons observé que les amas de galaxies avec les mêmes propriétés, avec les mêmes températures, apparaissaient être moins brillants que ce que nous attendions dans une direction du ciel, et plus lumineux qu’attendus dans une autre direction. La différence est assez significative, autour de 30%. Ces différences ne sont pas aléatoires mais résultent d’une dépendance claire de la direction par laquelle nous les observons dans le ciel. »

Si ces observations de l’anisotropie de l’univers étaient confirmées par une autre équipe d’astrophysiciens cela conduirait à des révisions remarquables. « Si l’Univers est vraiment anisotrope, même si ce n’est que pendant les quelques derniers milliards d’années, cela signifierait un énorme changement de paradigme parce que la direction de chaque objet devra être prise en compte pour analyser leurs propriétés. Par exemple, aujourd’hui, nous estimons la distance d’objets lointains dans l’Univers en exploitant un ensemble de paramètres cosmologiques et d’équations. On considère que ces paramètres sont les mêmes en tous points de l’Univers. Mais si nos conclusions sont justes, cela ne sera plus possible et il faudra reconsidérer, revoir, toutes les conclusions précédentes. »

Une autre croyance d’une propriété intrinsèque attribuée à l’Univers pourrait aussi voler en éclat si une observation récente publiée le 02/06/2020 était confirmée par une deuxième équipe d’astrophysiciens. Je cite, sur le site de Futura Sciences : « Les astronomes imaginaient notre Univers comme homogène. Mais la répartition des sens de rotation de 200.000 galaxies spirales semble au contraire montrer une structure définie. Elle suggère aussi que par le passé, notre Univers a pu être animé d'un mouvement de rotation. »

 Dans un univers isotrope et sans structure particulière, nous devrions observer autant de galaxies tournant dans un sens que dans l'autre. Et découvrir qu'il existe une différence d'un peu plus de 2 % entre le nombre de galaxies qui tournent dans le sens horaire et celles qui tournent dans le sens antihoraire, certes une différence infime, mais qui, selon les astronomes, ne peut pas être l'effet d'un hasard.

Le schéma que les chercheurs ont observé correspond par ailleurs à un alignement quadripolaire. Laissant entendre que par le passé, notre Univers dans son ensemble a pu tourner, un peu comme une galaxie géante (sic).

Uniformité, isotropie de l’Univers sont des postulats collectifs qui se sont imposés dès le début des spéculations des scientifiques qui ont entrepris de définir, de caractériser, ce que l’on nomme l’univers. Il y a aussi un principe cosmologique qui postule qu’il n’y a, au sein de l’univers, aucun lieu qui puisse être considéré comme particulier. Il y a aussi le Big Bang, qui dit que notre univers a une origine temporelle. Cette origine a eu (sic) un rôle très utile afin que les cosmologistes posent leur pensée, sur cette origine commune, qui permette de concevoir une évolution, une histoire des propriétés qui soit en phase avec l’histoire des découvertes des propriétés et des objets célestes pour lesquels les scientifiques ont progressivement été capable de leur attribuer de la signification.

Ces conditions associées ont permis qu’un état de l’art de la connaissance de l’univers de la part de la communauté scientifique soit établi et référencé lorsqu’il est question du Modèle Standard de la Cosmologie.

Ce modèle standard ne doit pas être aujourd’hui un carcan. Je suis optimiste mais il faut garder les pieds sur terre car l’inertie intellectuelle est très présente chez les physiciens. Je considère que l’article du 14/05/2020 qui suit est révélateur de cette inertie : ‘l’Ere des Anomalies’ : « Les physiciens des particules sont confrontés à une liste croissante d'« anomalies » — des résultats expérimentaux qui entrent en conflit avec le modèle standard mais ne parviennent pas à le renverser faute de preuves suffisantes. » Dans cet autre Modèle Standard qui est celui des particules élémentaires, l’accumulation conséquente des résultats anormaux par rapport au standard est importante. Pourtant comme l’indique l’auteur de l’article rien n’y fait pour s’émanciper de ce modèle standard car comme j’ai eu plusieurs fois l’occasion de le dire et de l’écrire on continue de penser ces anomalies recensées dans le cadre du modèle standard faute de repères au-delà. Ainsi c’est flagrant à propos des neutrinos et cela dure depuis qu’on leur a attribué une soi-disant masse d’inertie. J’ai toujours précisé qu’il fallait se préoccuper de la physique véhiculée par les neutrinos et non pas des propriétés physiques des neutrinos car c’était rabattre celles-ci dans le cadre du modèle standard. Soyons optimistes, peut-être qu’une pensée nouvelle s’esquisse à propos de ces objets si insaisissables, avec l’hypothèse qu’ils soient plutôt interactifs entre eux-mêmes ainsi ils seraient grégaires et constitueraient dans le cosmos des courants propres d’énergie et de propriétés. Dans ce cas on devrait considérer qu’ils influent sur l’histoire de l’univers avec une certaine autonomie par rapport aux autres constituants de la matière. Si cela est le cas, il faut considérer que l’univers est composé de courants-amas de matières hétérogènes qui n’interagissent pas entre eux et la dynamique de l’univers serait la somme de ces dynamiques.   

Après cette incise concernant le modèle standard des particules, je reviens sur l’idée que le modèle standard de la cosmologie ne doit pas être un carcan mais au contraire, il faut considérer que ce sont les connaissances acquises, de très grande qualité, dans ce cadre qui permettent de conjecturer au-delà de ce cadre. Les quelques articles que j’ai cités ci-dessus, indiquent que les moyens d’observations deviennent de plus en plus performants et en conséquence notre capacité d’appréhender un univers plus étendu est supportable. Ce que nous pouvons appréhender c’est que ce que nous désignons par le mot Univers actuellement n’est en fait qu’une représentation partielle du monde avec une complexité-richesse appauvrie à cause de nos limites intellectuelles actuelles qui ne sont que provisoires. Il ne faut pas brûler les étapes, un au-delà du modèle standard sera une nouvelle étape mais pas un aboutissement. L’au-delà du modèle standard sera aussi un au-delà du Big Bang qui plus spécifiquement n’aura plus de raison de faire partie de l’arsenal des outils, à venir, de nos moyens à concevoir.

En ce qui concerne la différence significative de la constante de Hubble confirmée, il y a deux possibilités de la prendre compte, soit nous considérons que les deux valeurs sont fiables et dans ce cas il faut trouver la cause physique (nouvelle) qui produit l’évolution croissante de cette constante, soit nous considérons qu’il y a une faille significative de notre compréhension de ce que contient en informations le fond diffus cosmologique (FDC). De toutes les façons, en résolvant cette énigme, il y a enrichissement, à la clef, de notre connaissance de propriétés physiques dans l’univers.

Personnellement, j’opte pour la faille de notre compréhension car nous décryptons les informations contenues dans le FDC avec des algorithmes qui intègrent nos connaissances physiques actuelles. En conséquence la nouvelle physique ne peut pas être mise en relief. C’est donc confrontés à la perplexité du défaut de compréhension que les bonnes hypothèses finiront par s’imposer et ce sera la première marche qui conduira à une nouvelle conception de l’univers.

Partager cet article
Repost0
5 mai 2020 2 05 /05 /mai /2020 08:07

 

Vous pensez toujours : Contre-intuitif, Etrange ou encore Enigmatique.

De très nombreux articles considérant la mécanique quantique commence par : « la mécanique quantique décrit un monde étrange et contre-intuitif, énigmatique. » Cela est encore le cas à propos de l’article[1] de Ph. Ball que nous étudierons ci-après en télé séminaire : « La physique quantique dépeint un monde étrange et contre-intuitif. De fait, il ne ressemble en rien à celui dont nous faisons l’expérience au quotidien, au moins mécaniquement parlant. Jusqu’au 20e siècle, tout le monde pensait que les lois de la physique classique formulées par Isaac Newton et d’autres s’appliquent à toutes les échelles. Dans ce cadre, n’importe quel objet a une position et des propriétés bien définies à tous moments. Ce n’est pas le cas. » De même dans l’article p.16 de Klein et Rovelli : « Une efficacité déraisonnable », que nous étudierons aussi : « Si la physique quantique troubla tant, c’est parce qu’elle échappait au cadre d’interprétation de la physique classique. A tout système, la physique classique attache des propriétés qui appartiennent en propre au système et n’attribue pas de rôle fondamental à l’opération de mesure. »

Est-ce que ceux qui évoque la contre-intuitivité et l’étrangeté de la mécanique quantique sont des réactionnaires comme nous le dit S. Weinberg, p.43 de l’article : ‘Un pont entre deux mondes’ : « Mais pour l’heure, la mécanique quantique semble répondre à tous les tests. « Non, nous ne faisons face à aucune crise. Tout le problème est là ! s’exclame Weinberg. Par le passé, nous n’avons cessé de progresser lorsque les théories existantes rencontraient des difficultés. Mais il n’y a rien de tel avec la mécanique quantique. Elle n’est pas en conflit avec les observations. Le problème, c’est qu’elle ne parvient pas à satisfaire les idées philosophiques préconçues et réactionnaires des gens comme moi. »

On peut considérer qu’au début de la mécanique quantique dans les années 1920, les physiciens de l’époque, qui se trouvaient confrontés aux phénomènes physiques à l’échelle de l’infiniment petit, soient sérieusement déboussolés car effectivement leur grille de lecture de l’interprétation classique habituelle ne correspondait plus à ce qu’ils constataient. Pensons à H. Lorentz qui, dans les années 1920, enseignait à ses étudiants, le jeudi matin, que l’électron rayonnait de l’énergie lorsqu’il subissait une accélération positive ou négative et il enseignait, le vendredi matin, que l’électron de l’atome d’hydrogène orbitant autour du noyau se maintenait dans un état stable, donc entre autres conservait le même niveau d’énergie.

En conséquence le découplage entre l’interprétation classique et la bonne interprétation des phénomènes atomiques, quantiques, devait conduire à une rupture intellectuelle violente qui d’ailleurs fut difficilement assumée par les physiciens[2] formés sur les bans de l’université par le paysage maitrisé de la physique classique (voir l’autobiographie de Planck). Mais cent ans après, cela ne devrait plus être ainsi…, sauf si on est réactionnaire comme le dit S. Weinberg.

Cent ans après, A. Bassi a raison : « Certains vous diront que la mécanique quantique nous a appris que le monde est étrange et que nous devons l’accepter. Je m’y refuse. Si une chose est étrange, nous devons faire en sorte de mieux la comprendre. »

Pour mieux la comprendre, qu’est-ce qu’il faut comprendre ? Selon ma conviction, premièrement, il faut intégrer ce qu’affirme Heisenberg : « Le postulat d’une réalité physique existant indépendamment de l’homme n’a pas de signification. » Deuxièmement, il faut admettre le renversement copernicien que propose le jeune Bohr grâce à sa formation intellectuelle influencée par l’existentialisme : « Il faut renoncer à l’idée que le but de la physique soit de trouver comment est faite la nature » et accepter modestement que : « la physique est seulement concernée par ce que l’on peut dire sur la nature ». Ce qui est autrement dit par Heisenberg, d’une façon radicale : « Le seul but de la physique c’est de prévoir correctement les résultats expérimentaux. » ou encore : « Presque tous les progrès de la science ont été payés par un sacrifice (sic), pour presque chaque nouvelle réalisation intellectuelle, les positions et les concepts antérieurs ont dû être révisés. Ainsi, d’une certaine façon, l’accroissement des connaissances (sic) a réduit la prétention du savant à comprendre la nature. »

Pour mieux comprendre l’essence du corpus de la mécanique il nous faut admettre qu’en tant que physicien, observateur, sujet pensant, nous sommes à distance du monde quantique. Avec la physique classique on peut avoir l’illusion que nous sommes dans le monde classique. En effet les données de ce monde que nous recueillons sont observables directement car les sens propres de l’être humain et son intelligence propre ont été façonnés dans un rapport intime avec et contre la Nature à l’échelle que l’on dit classique depuis la nuit du temps. Notre capacité à observer et à inférer a été déterminée par ce fait anthropologique. Je dis bien « a été » car depuis un siècle que le corpus de la mécanique quantique a commencé à être élaboré et continu d’évoluer à cause de problématique plus récente telle que par exemple l’intrication, le monde de l’infiniment petit a commencé sérieusement à être ausculté, en conséquence notre intelligence est déjà marquée par cette pratique.  Cela s’appelle un apprentissage. On sait maintenant qu’au cours d’un apprentissage les circuits neuronaux dans notre cerveau évoluent durablement. Pensons à l’apprentissage de la lecture, du calcul, ou tous autres au cours de la vie. C’est pourquoi quand je lis ou entend des physiciens évoquer encore la contre-intuitivité, l’étrangeté, de la mécanique quantique comme à ses débuts cela me paraît absurde. Cette absurdité est perceptible lorsque l’on a enseigné la mécanique quantique à plusieurs générations d’étudiants. Les générations les plus récentes sont notablement de plus en plus à l’aise avec la théorie quantique. Certes on ne pourra jamais avoir l’illusion d’être dans le monde quantique comme, on peut l’avoir, d’être dans le monde classique mais l’accoutumance de le fréquenter et de le confronter, de se l’approprier intellectuellement même partiellement réduit et réduira l’étrangeté de ce monde. Prenons l’exemple suivant : il est évalué qu’une personne aveugle ‘voit’ l’environnement physique dans lequel il évolue, en faisant la synthèse de ses repères olfactifs, auditifs, sensoriels de la peau, etc… qu’un voyant est incapable d’analyser. (Dans ce cas pour l’aveugle l’aire cérébrale de la vue est active comme pour un voyant).

N. Bohr disait souvent pour accepter la mécanique quantique, il faut préalablement savoir renoncer, renoncer au raisonnement classique. Et ceux qui encore mettent en avant la contre-intuitivité, l’étrangeté, depuis le temps n’ont toujours pas renoncé, ils pensent toujours en réaction comme le dit avec beaucoup de lucidité S. Weinberg. Tant pis pour eux, mais en même temps ils font obstacle. Ils conçoivent en réaction au fait que la réalité physique est ramenée à nos rapports opérationnels avec elle, au-delà de laquelle la science n’a plus rien à connaître. Dans sa formulation même, la théorie quantique ne dit pas comment le monde est, mais comment il répond aux sollicitations. Les concepts physiques tirent leur seule légitimité de leur capacité à « couvrir la situation expérimentale »

Le formalisme de la mécanique quantique est toujours considéré par un grand nombre comme provisoire, malgré son efficacité, car il est considéré comme empirique, pragmatique, imprégné par les probabilités, marqué par l’indéterminisme, et donc il est renversant par rapport à l’idéal classique. Malgré cette conception hérétique, la conquête des applications proprement dues à l’exploitation du corpus de la mécanique quantique sont extraordinaires. Le N° hors-série de ‘Pour la Science’ annonce une ‘nouvelle révolution quantique’ qui a déjà commencé. L’efficacité du formalisme quantique avec ses principes qui l’accompagnent ont fait preuve de leurs valeurs heuristiques au point que l’auteur de l’article : ‘Un pont entre deux mondes’ n’hésite pas à poser la question : « Sommes-nous aveugles à une mécanique quantique qui régnerait à toutes les échelles ? ». C’est exactement ce que je suggère dans l’article du 25/03/2020 : ‘Une nouvelle perspective sur la nature de la science’, qui conclue ainsi : « Ce que je propose ci-dessus est suscité par l’idée que ce qui a été essentiellement fondé par l’école de Copenhague correspond à un état de l’art de la pensée scientifique et bien qu’elle fût énoncée à l’occasion de la découverte du monde physique à l’échelle de l’infiniment petit, elle vaut aussi pour tout scientifique en quête de connaissances physiques fondamentales de la nature à l’échelle macroscopique. Le rôle du sujet pensant est tout aussi déterminant dans les deux cas de figure. » Et puis on pourrait conjecturer sur cette autre concordance que je propose : « N’importe quelle mesure particulière ne capture qu’un fragment du monde quantique[3] » avec : n’importe quelle observation en astrophysique ne concerne qu’un fragment de notre univers. Avec ces deux exemples nous devons prendre en compte que nous sommes bien dans la situation nouvelle que Bohr avait repérée et considérée suffisante pour bouleverser les théories rendant compte du rapport que nous avons avec ce qu'on nomme par commodité « la réalité ». Comprendre le rapport objectif, possible, que nous avons avec la réalité, avec la nature, est essentiel pour interpréter correctement ce que nous nommons par commodité la réalité. Le formalisme de la mécanique quantique de l’école de Copenhague est relatif à l’expression de ce rapport. En astrophysique (très grandes échelles, contrairement à l’échelle classique) nous sommes dans une même situation d’inaccessibilité, en une seule observation en un seul regard (intellectuel), de la totalité de l’univers.

Dans l’article du 25/03/ j’ai utilisé les mêmes concepts et le même formalisme que ceux de Copenhague : « La fonction d’onde de la connaissance globale du Monde… L’état de la connaissance réduite actuelle du monde c’est un Univers… Avec cet état dominant, se superpose d’autres états de connaissance en cours de réduction… » En effet le formalisme de l’école de Copenhague, à coup sûr, n’a pas été prémédité, il a été développé d’une façon pragmatique, empirique, pour satisfaire scientifiquement au coup par coup une situation inédite en rupture avec la physique classique. Tous ceux qui ont pensé que ce pragmatisme avait valeur de provisoire ce sont trompés. Peut-être que ce qui est proposé dans les deux articles de ‘Pour la Science’ : ‘Un pont entre deux mondes’ et ‘Le darwinisme quantique à l’heure des tests’, produira des résultats intéressants mais cela constituera des améliorations effectives dans le même cadre. On doit donc considérer que ce qui est proposé par Copenhague est robuste et représente un état de l’art qui aurait de la valeur au-delà de la mécanique quantique. A mon sens cela est, parce que les deux fondateurs principaux ont réfléchi leurs postulats à partir des idées suivantes universellement justes : « Le postulat d’une réalité physique existant indépendamment de l’homme n’a pas de signification. » et « C’est l’appréciation correcte du rapport que nous avons avec la nature qui permet d’avoir un juste discours de physicien sur la nature. »

Je ne peux pas terminer mon article sans exprimer ma consternation à propos de ce qui est rédigé dans les pages 6 et 7 et qui a vocation à servir de repères pour comprendre la mécanique quantique. Je ne saurais dire si c’est à cause d’un travail superficiel de la part de celui qui était chargé de rédiger ces deux pages ou bien la volonté de vouloir entretenir l’idée que les hypothèses de de Broglie ont toujours de la signification. Ceci est malvenu car cela ne facilite pas l’élucidation d’un vrai questionnement passionnant qui perdure depuis un siècle autour des propriétés quantiques. Ce qui est malvenu c’est premièrement d’engager ce repérage par la dualité onde-corpuscule qui a été postulé par de Broglie qui déclare que la lumière est constituée d’ondes lumineuses et de corpuscules (photons) et ceci a conduit à la notion générale de dualisme entre onde et particule. Cela signifie qu’un objet quantique est concomitamment constitué réellement d’une onde (de matière) et d’un corpuscule. Ces postulats ont conduit à l’élaboration de la physique ondulatoire et non pas à la physique quantique. La physique quantique, c’est-à-dire, celle de l’école de Copenhague postule : onde ou corpuscule cela dépend de l’instrument de mesure que l’on utilise. Ainsi pour la lumière, l’aspect ondulatoire est flagrant avec les fentes de Young (sans moyens de détection) et l’aspect corpusculaire est flagrant avec l’effet photoélectrique. De plus dans ce cadre, il n’y a aucune prétention ontologique, on évoque l’aspect ondulatoire ou l’aspect corpusculaire, cela dépend de l’observateur avec l’instrument de mesure qu’il exploite. Dans le paragraphe : Indéterminisme : la confusion est à son paroxysme car on considère qu’en conséquence de la dualité onde-corpuscule… l’onde associée à une particule est en fait une onde de probabilité (fonction d’onde) (sic). Cette soupe théorique est vraiment néfaste.

Je propose aux lecteurs de lire dans l’article de Klein et Rovelli, p.16 : ‘Une efficacité déraisonnable’ le paragraphe ci-dessous qui est très rigoureux et pédagogique, et donc de s’en tenir à ce qu’ils exposent.

« Dans le cadre de la théorie quantique, un système physique est décrit par un objet mathématique, la fonction d'onde. Celle-ci s’écrit en général, comme la somme de plusieurs fonctions représentant chacune un état particulier affecté d'un certain coefficient. On est alors face à une <superposition> d’états possibles, une situation sans équivalent en physique classique. La théorie stipule alors que connaissant la fonction d’onde, on ne peut en général pas déterminer le résultat d’une mesure, mais seulement calculer les probabilités d’obtenir tel ou tel résultat. Et parmi tous les résultats possibles a priori, un seul est sélectionné, au hasard, par l’opération de mesure. Cette dernière entraîne une « réduction des possibles » qui s’effectue d’un coup et de façon aléatoire.

En ce qui concerne la physique quantique, on peut considérer que le fait le plus notable relatif à cette physique c’est la propriété de l’intrication. Cette propriété fut confirmée en 1982 par A. Aspect, auteur de l’introduction du dossier de Pour la Science qui signale : « J’étais loin d’imaginer cette explosion d’idées d’application autour de l’intrication ! » Or cette propriété n’est toujours pas comprise. Il n’est pas souhaitable, ni possible, que l’engouement pour les applications délaisse la volonté de comprendre les causes de cette propriété observée et confirmée, ces vingt dernières années, dans des configurations très variées au point qu’il n’y a plus d’échappatoire. Soit cette propriété est naturelle, inhérente à la nature, partie prenante de la genèse de l’univers, ce que veulent théoriser certains auteurs notamment l’auteure de l’article : « La matrice de l’espace-temps », soit cette propriété se produit expérimentalement sous certaines conditions et se reproduit moyennant l’exploitation de moyens technologiques identifiés. Pour qu’il y ait intrication, il faut que les parties d’un système quantique aient interagi. Puisqu’il y interaction celle-ci ne peut être instantanée, elle a une durée Δt > 0, aussi petite soit-elle. Mon estimation est de l’ordre de 10-26s. On remarque : « Pour qu’il y ait intrication, il faut que les parties d’un système quantique aient interagi. » Cela signifie qu’un système quantique constitué par intrication reste système quantique qu’elle que soit l’évolution spatio-temporelle des parties le constituant. C’est-à-dire que théoriquement la fonction d’onde (objet mathématique) spécifique du système constitué est indestructible jusqu’à ce qu’il soit procédé à une mesure sur l’une des parties. En ce qui concerne mon hypothèse que l’intrication se constate parce que l’observateur est aveugle vis-à-vis de Δt de l’ordre de 10-26s, cela pourrait être testé avec deux observateurs : l’un dans son laboratoire au repos qui produit l’intrication, l’autre dans un mobile se déplaçant avec une vitesse relative importante et grâce à ce que l’on sait avec la relativité restreinte, pour cet autre, le Δt deviendrait > à la durée du point aveugle de l’observateur et dans ce cas, dans son référentiel, il n’observerait pas d’intrication. Voir article du 29/10/2015 : « L’univers n’est pas si bizarre si… »

 

[1] Dans la revue ‘Pour la Science’, Hors-série, Mai-Juin 2020, p.60 : « Le darwinisme quantique à l’heure des tests »

[2] C’est autour de cette problématique que les physiciens Niels Bohr et Albert Einstein se sont amicalement, mais fermement, opposés l’un à l'autre. Bohr considérait que la physique quantique obligeait à bouleverser les théories rendant compte du rapport que nous avons avec ce qu'on nomme par commodité « la réalité ». Einstein pensait, lui qu’il était prématuré de conclure de la sorte.

[3] ‘Un pont entre deux mondes’

Partager cet article
Repost0
13 avril 2020 1 13 /04 /avril /2020 10:23

La quête d’une nouvelle physique avec le programme de ‘Physique au-delà des Collisionneurs’. (The quest for new physics with the ‘Physics Beyond Collider’ program)

Cet article que j’ai obtenu dans ‘Nature’ le 6/04, nous dit à quel point l’horizon pour une nouvelle physique est bouché tant sur le plan expérimental que théorique et en conséquence tous les indices qui pourraient servir de porte d’entrée vers cette nouvelle physique appelée sont répertoriés et analysés. L’équipe de trois physiciens qui a présenté cet article qui constitue un rapport de synthèse ne s’aventure pas au-delà d’une perspective de prolongement du modèle standard (SM). Il est ancré que l’impasse actuelle ne peut pas être due aux processus d’une accumulation de surestimations et d’extrapolations de concepts exploités dans le cadre de la théorie quantique des champs. Rebrousser chemin semble inenvisageable, on le constate en ce qui concerne les neutrinos qui sont toujours affublés d’attributs puisés dans le vivier, pour eux étriqué, du SM, comme par exemple d’une masse d’inertie alors que selon ma conviction les neutrinos sont les vecteurs d’une physique autre que celle qui contribue à caractériser le SM. Cet article est intéressant car en creux il nous permet d’évaluer tout le chemin qui reste à parcourir.

Je n’ai pas traduit toute la partie de l’article qui indique tous les sites expérimentaux qui permettraient de mener des expériences pour résoudre les inconnues citées ci-après. Ce que je peux vous dire c’est que quelques-unes ont été déjà réalisées et ont donné des résultats négatifs dans les limites des précisions des résultats expérimentaux.

            Présentation

Ces dernières années, l’intérêt pour les méthodes complémentaires pour les collisionneurs à haute-énergie-frontière pour étudier la physique des particules élémentaires et des forces a augmenté. Ce développement est motivé par les résultats négatifs jusqu’à présent des recherches de nouvelles particules avec de fortes masses au Grand collisionneur de hadrons, et par des tentatives théoriques de rendre compte des masses de neutrinos et de résoudre des énigmes cosmologiques telles que la matière noire, l’énergie sombre et l’asymétrie de la matière-antimatière dans l’Univers. Traditionnellement, le CERN a accueilli une multitude de projets d’accélérateur et de non-accélérateur sous la frontière de haute énergie, dans lequel plus d’un millier de physiciens sont actuellement impliqués. L’étude Physics Beyond Colliders (PBC) a été lancée il y a trois ans pour explorer l’avenir de ce domaine. Nous donnons ici un aperçu des diverses propositions de la PBC, allant de l’exploration du secteur obscur aux mesures de précision des processus fortement interactifs. La méthodologie utilisée pour comparer la portée de ces projets — basée sur un ensemble de modèles de référence communs — a suscité l’intérêt pour les communautés tout autant des collisionneurs, des neutrinos, ainsi que des non-accélérateurs et peut fournir un aperçu complet de la façon dont la plage des paramètres pour la physique au-delà du Modèle Standard devrait être explorée dans le contexte mondial.

            Principalement

La physique des particules fondamentales se trouve actuellement dans la position intéressante d’être absolument certaine qu’il doit y avoir une physique au-delà du Modèle Standard actuel (SM), décrivant les particules élémentaires et les forces faibles, électromagnétiques et fortes, tandis qu’en même temps elle fait face au défi qu’il semble extrêmement difficile de trouver cet au-delà. Des preuves convaincantes de la cosmologie suggèrent que 95% de toute la matière et l’énergie dans l’Univers se compose de matière noire (DM) et d’énergie sombre, non décrites au sein du SM, bien que la grande majorité des expériences sur Terre sont en accord avec une précision étonnante avec les prédictions du SM. Il existe deux façons de concilier au-delà de la physique du Modèle standard (Beyond Standard Model : BSM) avec une non-observation dans les expériences actuelles : « les nouvelles particules pourraient être soit très massives, soit très faiblement interactives avec le SM »

Motivations théoriques

Avant sa découverte, la masse boson de Higgs était attendue dans la fourchette autour de 100-1.000 GeV sur la base des considérations de cohérence du SM à des énergies supérieures à 1 TeV (réf. 5). La situation a maintenant fondamentalement changé parce que le SM, avec le boson de Higgs d’environ 125 GeV, ne donne aucune indication claire de l’endroit où la nouvelle physique pourrait être trouvée. La quête de la physique BSM nécessite une vaste gamme de masses de particules et de couplages à explorer. Les collisionneurs à haute énergie tels que le Grand collisionneur de hadrons (LHC) et les machines proposées comme le collisionneur linéaire international, le collisionneur linéaire compact ou le collisionneur circulaire futur, sont cruciaux pour l’observation directe des particules putatives très massives. Des expériences complémentaires à faible énergie mais à haute intensité ou précision, comme nous l’avons vu dans le cadre du programme PBC, recherchent des particules à faible masse et à faible interaction, ou à très haute masse, ces dernières devenant accessibles grâce à leurs effets indirects sur les observables. Bien qu’il n’existe actuellement aucune preuve décisive de déviations de la part du SM dans le cadre d’expériences de haute intensité ou de précision, quelques indices significatifs nécessitent une enquête plus approfondie.

Les énigmes cosmologiques, ainsi que les anomalies actuelles, pourraient s’expliquer par l’existence d’un secteur sombre — de nouvelles « particules cachées » qui ne portent aucune charge de jauge du SM et qui interagissent donc faiblement avec la matière ordinaire, ou/et qui vivent très longtemps. Dans le cadre de l’étude PBC, un ensemble de modèles de référence représentant des extensions prospectées et bien motivées du SM ont été définis. Ces modèles sont basés sur l’idée de portails vers un secteur sombre qui sont les interactions les plus simples entre les particules SM et les nouvelles particules cachées. En particulier, l’étude PBC se concentre sur les modèles suivants.

Photons noirs avec et sans particules DM supplémentaires

Les interactions du SM proviennent de trois groupes de jauge donnant lieu au photon pour l’interaction électromagnétique, les bosons W+ et W- et Z0 pour l’interaction faible et les gluons pour l’interaction forte. Le photon est le transporteur de force le plus simple parce qu’il ne porte pas de charge et ne se couple donc pas à lui-même. Une potentielle extension minimale du SM est donc par le biais d’un « photon sombre » supplémentaire qui ne correspond pas à des particules massives de SM. En conséquence, la seule et potentielle interaction très faible du photon noir avec une particule SM est via un petit mélange avec le photon, résultant en une petite probabilité de conversion du photon noire en un photon. Cette extension, la plus simple du SM, des interactions de jauges par une additionnelle particule semblable-photon (photon-like) a beaucoup d’applications dans la construction du modèle de DM.

Leptons neutres lourds

Tous les fermions chargés du SM existent dans une version gauche et droite (naïvement, la main se réfère au sens de la rotation du spin au regard de la direction du mouvement). Les neutrinos non chargés n’ont été observés que comme particules gauches. Cependant, il semble naturel (sic) pour les neutrinos d’avoir des homologues droits. Semblable aux photons sombres, ces neutrinos droits n’interagiraient que par le biais de petits mélanges avec les neutrinos du SM. Les neutrinos droits peuvent jouer un rôle dans l’explication des petites masses de neutrinos, de la matière noire (DM), et aussi à propos de la domination de la matière sur l’antimatière dans l’Univers.

Nouvelles particules scalaires

D’une manière générale, les particules scalaires, ne portant ni spin ni charge, sont les particules les plus simples imaginables. L’interaction la plus directe de scalaires supplémentaires avec le SM serait par le mélange avec le seul autre scalaire fondamental connu, c’est-à-dire le boson de Higgs. S’ils sont couplés au boson de Higgs, d’autres scalaires pourraient être en mesure de trouver des solutions au problème dit de la hiérarchie, qui fait référence au casse-tête de la raison pour laquelle l’échelle énergétique des interactions faibles est tellement plus petite que celle de la gravité. De nouvelles particules scalaires ont également été discutées en relation avec la DM.

Axions et particules axions-semblables (axion-like)

Les axions et les particules de type axions sont des particules (pseudo-)scalaires. Contrairement aux nouveaux scalaires dont il est question ci-dessus, ils sont spéciaux en ce sens qu’ils sont considérés comme des restes d’une symétrie sous-jacente. Pour cette raison, on s’attend à ce que les axions et les particules axion-like soient légères et que leurs interactions soient fortement supprimées. Des axions ont été proposés pour expliquer la symétrie parité (miroir) de l’interaction forte, démontrée avec une grande précision par le moment du dipôle électrique (EDM) du neutron observé nul. Les particules axions-like sont également de bons portails vers la DM et sont même des candidats DM prometteurs eux-mêmes.

Bien que ces modèles de référence ne constituent pas une liste exhaustive de modèles DM et du secteur obscur, ils fournissent un moyen utile de comparer les sensibilités des différentes expériences et de voir comment ils se complètent les uns les autres. Ils fournissent également une carte des zones cibles prometteuses suggérées par les problèmes ouverts de la physique des particules et fournissent des indices actuels d’anomalies expérimentales.

En plus de la nécessité d’une nouvelle physique, il faut reconnaître que même le SM n’est pas encore entièrement compris. En particulier la théorie des interactions fortes : chromodynamique quantique (QCD)…

Anomalies comme indices potentiels pour la nouvelle physique

Un petit nombre de mesures et d’observations peuvent indiquer par exemple des écarts aux prévisions du SM au niveau de deux à quatre ‘écarts standard’ (σ). Ces indices peuvent être les premiers signes d’une découverte imminente d’une nouvelle physique et fournir une incitation attrayante pour la construction de modèles théoriques. À leur tour, ces modèles théoriques permettent alors de concevoir de nouveaux, et plus significativement, différents tests pour interpréter ces anomalies. Cependant, il est important de noter que la signification usuelle ne couvre généralement que les incertitudes statistiques et les erreurs systématiques connues. Par conséquent, des expériences indépendantes pour mesurer les quantités en question sont souhaitables pour confirmer la véracité des observations anormales. Dans ce qui suit, nous discutons brièvement des indices les plus intrigants.

Anomalies B

La désintégration des B-mésons montrent plusieurs écarts de 2 à 3 σ par rapport aux prévisions du SM. Notamment, dans le modèle SM, on s’attend à ce que le couplage de jauge des différents leptons (e, µ ou τ) soient égaux. Pourtant, les mesures indiquent une violation potentielle de cette universalité attendue. Les extensions appropriées du SM (par exemple, basées sur une théorie effective de champ) permettent une explication sans violer d’autres contraintes expérimentales.

(g - 2) du muon

La valeur du moment du dipôle magnétique du muon peut être calculée et mesurée avec une précision remarquable. Il s’agit donc d’un test de précision classique du SM. La mesure de référence indique une déviation de 3σ à 4σ par rapport aux attentes du SM (notamment les incertitudes théoriques et expérimentales sont de taille similaire). Les explications pourraient provenir de corrections quantiques dues à la faible échelle de l’ordre de 100Gev de particules avec des couplages O(1) ou avec des particules beaucoup plus légères de 10 à 100 Mev avec couplages O(10-3). Un exemple minimal de ce dernier type — un photon noir — fournit un exemple intéressant de l’endroit où le modèle théorique a conduit à un test expérimental. Ce test a conduit à une expérience avec une cible fixe avec des collisionneurs à faible énergie a jugé que le photon noir n’était pas une explication possible. D’autres modèles simples dans ce domaine restent viables. Une nouvelle expérience prend actuellement des données au Fermilab aux États-Unis avec la promesse de réduire l’incertitude expérimentale sur (g - 2) par un facteur de quatre.

Anomalie de Béryllium

Des expériences menées à l’installation d’Atomki en Hongrie ont étudié les paires d’électron-positron émises dans la désintégration des états excités de 8Be et 4He. Dans les deux cas, ils trouvent plus d’événements que prévu à de grands angles entre l’électron et le positron. Une explication potentielle pourrait être un nouveau boson qui est émis du noyau à faible vitesse et se désintègre par la suite dans une paire électron-positron. Dans le référentiel au repos de cette particule, l’angle électron-positron serait de 180 degrés et, en raison de la faible vitesse, l’angle dans le référentiel du laboratoire ne serait que légèrement comprimé. Cela indiquerait une masse du boson de 17 MeV.

Anomalies de refroidissement

Plusieurs systèmes astrophysiques tels que les naines blanches et les étoiles à branche horizontale, ainsi que les restes de supernova, semblent refroidir légèrement plus vite que prévu. Cela pourrait indiquer une perte d’énergie supplémentaire par l’émission de particules légères extrêmement faiblement couplées, (masses inférieures à 100 keV). Si de telles particules sont produites à l’intérieur d’une étoile, elles partent immédiatement. Cela contraste avec, par exemple, les photons qui sont dispersés plusieurs fois sur leur chemin vers la surface, réduisant ainsi la perte d’énergie via cette route. Pour cette raison, des particules de lumière extrêmement faiblement couplées peuvent entraîner une perte d’énergie importante malgré une force d’interaction relativement faible.

Transparence des rayons gamma

Les rayons gamma à haute énergie qui se propagent dans l’Univers perdent de l’énergie par les collisions avec la lumière de fond extragalactique, créant ainsi des paires électron-positron. Les observations constatent qu’il y a plus de photons à haute énergie que prévu, ce qui indique un moyen de contourner ce mécanisme d’épuisement énergétique. Une option est qu’en présence de champs magnétiques, certains photons se transforment en bosons très légers, notamment en particules axions-like. Ceux-ci voyagent alors sans être absorbés par la création de paires et finalement se reconvertissent en photons.

 

 

Partager cet article
Repost0
3 avril 2020 5 03 /04 /avril /2020 07:09

D’autres émancipations à venir.

Avec la continuation de la lecture du livre de Hossenfelder, je rencontre le paragraphe suivant que je cite en totalité car il me rend un très grand service pour rendre compte de ce que je cite régulièrement dans mes articles à propos du rôle et du poids des « Déterminations ». L’exemple très approprié proposé par Hossenfelder indique une détermination spécifique, assez facile à identifier, mais non des moindres qui est liée à la culture scientifique d’une époque que j’ai évoquée à nouveau, à plusieurs niveaux, dans le précédent article où j’ai finalement considéré que probablement, grâce à un processus d’intériorisation intellectuelle, un tabou se lève en ce qui concerne le multivers et en conséquence la fonction d’onde de la connaissance globale est en cours de réduction sur un état de connaissance comprenant le/les multivers.

L’émancipation de la dissonance (p.145-146)

« Je ne peux pas dire que je sois fan de la musique dodécaphonique. Mais je dois également admette que je n'ai pas passé beaucoup de temps à en écouter. Ce n'est pas le cas du critique musical Anthony Tommasini. Dans une vidéo réalisée pour le New York Times en 2007, il parle de << l'émancipation de la dissonance >> dans les compositions d'Arnold Schoenberg, l'inventeur de la musique dodécaphonique. L'innovation de Schoenberg remonte aux années 1920 et a joui d'une brève popularité auprès des musiciens professionnels dans les années 1970, sans jamais connaître un succès public.

<< Schoenberg serait blessé si vous considériez sa musique comme dissonante de façon sévère, péjorative, négative, raconte Tommasini. Il pensait, quant à lui, qu'il favorisait une vie pleine, riche et complexe. [...] Par exemple, voici un morceau, pour piano, tiré de l'Opus 19 qui est très dissonant, mais aussi délicat et superbe. >> Il en joue quelques mesures, puis cite un autre exemple. « Il est possible d'harmoniser [ce thème] en do majeur, démontre-t-il, manifestement insatisfait, ce qui est si ennuyeux en comparaison de ce que fait [Schoenberg]. » Il revient à l'original dodécaphonique. « Ah » soupire-t-il, et il plaque un nouvel accord dissonant. Moi, j'ai juste l'impression qu'un chat est en train de marcher sur le clavier.

Mais il est fort possible que si j'écoutais de la musique dodécaphonique assez souvent, je finirais par ne plus entendre une cacophonie, et que je commencerais à la trouver << délicate >> et « émancipatrice >> tout comme Tommasini. Voss et Clarke ont montré que la musique exerce un attrait en partie universel, qui se reflète dans les récurrences qu'ils ont découvertes, indépendantes du style. D'autres chercheurs ont conclu que cet attrait était notamment dû à notre éducation, qui façonne nos réactions aux accords consonants et dissonants. Mais nous accordons aussi une grande valeur à la nouveauté. Et les professionnels qui gagnent leur vie en vendant de nouvelles idées ne ratent jamais l'occasion de rompre avec l'ennui de ce qui est familier.

En science aussi, notre perception de la beauté et de la simplicité est en partie universelle et en partie due à notre éducation. Et exactement comme en musique, ce que nous considérons comme prévisible et en même temps surprenant dans les sciences dépend de notre familiarité avec le domaine. Au fil de nos travaux, nous augmentons notre tolérance à la nouveauté.

Effectivement, plus j'en apprends sur le multivers, plus je le trouve intéressant. Je peux voir que c'est un changement étonnamment simple, et pourtant d'une grande portée, dans la façon que nous avons de comprendre notre propre importance (ou son absence) dans le monde. Peut-être Tegmark a-t-il raison, peut-être suis-je simplement affligée d'un biais émotionnel vis-à-vis de ce qui n’est qu’une conclusion logique. Le multivers est véritablement une émancipation des mathématiques, qui favorise l'apparition d'une vie riche et complexe. Un point de vue d’autant plus convaincant quand un Prix Nobel l'appui de tout son poids. »

Ma différence avec Hossenfelder c’est que sa conversion toute progressive est suscitée par le poids évolutif des significations mathématiques tandis que ma conviction est forgée en étudiant et analysant l’histoire de la connaissance en science physique du sujet pensant. Il est certain qu’au-delà des interviews ‘d’éminents’ scientifiques relatés dans son livre, il y a en contrepoint ses réflexions et ses analyses personnelles qui sont très pertinentes et qui contribuent aussi à l’intérêt de lire ce livre. En ce qui concerne la dimension de l’universel que l’on peut apprécier tout autant en musique qu’en physique, je me souviens de mon étonnement lorsque pour la première fois on a voulu m’enseigner la loi de Newton comme une loi universelle. En première année d’université le professeur m’a répondu : « C’est comme ça et je n’y peux rien. » Ceci m’a conforté dans l’idée que cette dimension de l’universalité était une croyance, symptôme d’une ignorance. Je signale, toutefois, que cette loi est forte car une publication du 17/03/2020 dans ‘Nature’ annonce que la loi de la gravitation de Newton vaut encore lorsque que des objets sont à distance de 52 micromètres : « Even at short range, Newton’s law still rules. »

Selon ma conception, il y a des déterminations encore plus profondes comme celles qui font obstacle à ce que nous puissions penser quantique. Comme je l’indique, ces déterminations qui affectent le sujet pensant seront levées progressivement. C’est une affaire d’évolution cérébrale qui génèrera une révolution culturelle. Il y a d’autres déterminations difficiles à identifier car les physiciens refusent, entre autres, de prendre en compte le « Là » d’où une pensée structurée par la nécessité liée à la survie à commencer à habiter les grands ancêtres d’Homo Sapiens. Il est possible de situer cet avènement il y a environ 2000.000 d’années. Et la conception de l’espace-temps, et ce qui vient avec, qui nous habite actuellement et qui intellectuellement nous détermine, prend racine à cette époque. Cette conception est liée au déplacement d’un lieu à un autre, durant une journée solaire, pas à pas, d’un corps pesant.

Il est intéressant de signaler qu’un non physicien mais un neuroscientifique de grande envergure a conjecturé au milieu d’une passivité totale qui depuis perdure et qui indique la pauvreté de la capacité à dialoguer de la part de la communauté scientifique au niveau proposé par S. Dehaene. Voir article du 5/01/2018, ‘Turing or not Turing’ :

« Je vous cite ci-dessous un extrait d’un article de ‘La Recherche’, (Octobre 2017) dans lequel S. Dehaene livre un entretien :

« La pensée géométrique est assez ancienne. Il est très intrigant de voir que, il y a 1.6 à 1.8 millions d'années les hommes, façonnaient déjà des objets aux propriétés mathématiques élaborées, notamment des pierres en forme de sphère, comme s'ils possédaient la notion d'équidistance à un point. On connaît également des dizaines de milliers de bifaces, ces outils pourvus de deux plans de symétrie orthogonaux : ils ont le même degré d'ancienneté, et leur perfection géométrique démontre une recherche délibérée de la géométrie, au-delà de la simple utilité fonctionnelle. Dès lors, je me demande si la capacité de représentation symbolique et récursive n’est pas apparue, dans un premier temps, indépendamment du langage, avant tout comme un système de représentation rationnelle du monde.

Le cerveau d'Homo erectus avait peut-être déjà atteint la compétence d'une machine de Turing universelle (sic), capable de représenter toutes les structures logiques ou mathématiques possibles. Peut-être est-ce une illusion, mais pour l'instant, notre espèce a réussi à comprendre l'organisation des structures du monde à toutes les échelles de l'Univers. Dans un deuxième temps, il y a environ 100.000 ans, on observe une explosion culturelle qui suggère un langage, une communication... On peut donc se demander s'il n’y a pas d'abord la mise en place d'un système de représentations mentales enchâssées, puis l'apparition d'une capacité à communiquer ces représentations. »

Je propose de modifier les propos de S. Dehaene lorsqu’il fait référence au terme « monde » par « notre monde », ensuite je pense qu’avant tout, c’est l’utilité fonctionnelle impérative qui précède la rencontre avec une certaine perfection géométrique.

 

Partager cet article
Repost0
25 mars 2020 3 25 /03 /mars /2020 10:42

Une nouvelle perspective sur la nature de la science est envisageable

Cet article est organisé sous forme de dialogue avec S. Weinberg, ensuite avec H. Zwirn, puis je tenterai une synthèse.

Les propos de Weinberg, je les puise dans le livre : ‘Lost in Maths’ version française du livre en anglais de Sabine Hossenfelder : ‘La beauté laide’ ou encore : ‘Comment la beauté égare la physique’, voir articles du 20/03/2018 et du 01/07/2018.

S. Weinberg né le 3 mai 1933 à New York, est un physicien américain. Il est le principal instigateur, avec Abdus Salam et Sheldon Glashow, de la théorie de l'interaction électrofaible, ce qui lui a valu de partager le prix Nobel de physique de 1979. Weinberg a travaillé sur de nombreux sujets, notamment ce qui concerne les théories d'unification (dont la théorie des supercordes), l'astrophysique et la chromodynamique quantique.

 Aujourd’hui, il est un grand témoin des problèmes historiquement posés par la mécanique quantique et S. Hossenfelder lui pose la question : « Je voulais vous demander votre avis sur les fondations de la mécanique quantique. Vous avez écrit dans votre livre qu’il est difficile de changer quoi que ce soit dans la mécanique quantique sans la compromettre dans son ensemble. »

S. Weinberg, p154 : « Oui, c’est vrai, mais nous n’avons pas de théorie vraiment satisfaisante de la mécanique quantique…Personnellement, j’en viens à la conclusion qu’il n’existe aucune interprétation de la mécanique quantique qui ne présente de graves défauts. Cet avis ne fait pas l’unanimité. En fait beaucoup de physiciens se satisfont de leur propre interprétation. Selon moi, nous devrions prendre au sérieux la possibilité que l’on découvre une autre théorie plus satisfaisante, dont la mécanique quantique n’est qu’une bonne approximation. »

Ci-après, je commente ce que nous dit Weinberg. Il nous indique qu’à propos de la mécanique quantique (M.Q.) c’est le problème de son interprétation qui se pose et non pas ses axiomes ni son formalisme. Selon moi, on ne trouvera pas une autre théorie plus satisfaisante mais c’est l’évolution de nos capacités intellectuelles au contact de la théorie actuelle que progressivement nous décryptons et décrypterons la MQ. N’oublions pas que nous sommes des êtres vivants dont nos sens, ceux qui nous permettent de concevoir du sens physique à notre échelle, sont formatés par nos rapports macroscopiques, classiques, avec la nature. En conséquence nous n’aurons jamais un rapport direct avec la nature microscopique ce n’est que par l’investissement intellectuel que ce monde naturel deviendra de plus en plus familier. L’évolution est lente mais nous intériorisons et intérioriserons de plus en plus aisément les phénomènes quantiques. Nous ne savons pas encore penser quantique (voir article du 26/09/2015 : ‘Non, on ne pense pas quantique. Pas encore !) mais l’évolution est patente[1]. Je cite : « Quand des jeunes rejoignent mon groupe, déclare Anton Zeilinger, on voit qu’ils cherchent leur chemin à tâtons dans le noir et qu’ils ne le trouvent pas intuitivement. Mais au bout d’un moment, deux ou trois mois, ils trouvent leur rythme, et ils développent cette compréhension intuitive de la MQ, et c’est vraiment très intéressant à observer. C’est comme apprendre à faire du vélo. » C’est exactement ce que j’ai observé dans mon activité d’enseignement il y a quelques années et je n’ai pas oublié ma grande difficulté de réception de la MQ quand j’étais étudiant. En contraste avec ce point de vue actuel de A. Zeilinger et celui ci-après de Freeman Dyson[2] exprimé concrètement en 1958 on évalue déjà une vraie différence : « Il ne s’agit pas de comprendre la mécanique quantique, mais de sauter le pas : accepter l’idée qu’il n’y a rien à comprendre, et apprendre à se servir du formalisme mathématique pour trouver des résultats en accord avec les faits expérimentaux. Et il ajoute qu’avec le temps, les étudiants acceptent avec une résistance décroissante d’être brisés (sic) pour consentir à cette attitude. »

En résumé nous devons considérer que les fondements de la MQ avec son formalisme mathématique définissent une scène, un contexte radicalement inédit, dans lequel l’intelligence scientifique se met à l’épreuve pour conquérir de nouveau espace de compréhension de la Nature à l’échelle quantique. C’est une évolution cérébrale de Sapiens qui est en place.

Reprenons ce que nous dit S. W. p.154-155 : « Il est très difficile de faire mieux que la MQ. Bien qu’elle ne soit pas incohérente, elle présente plusieurs caractéristiques qui nous paraissent repoussantes. Ce n’est pas le fait qu’elle contienne des probabilités. C’est le genre de probabilités qu’elle contient. » Il s’explique : « Si vous avez une théorie qui dit que les particules se déplacent et qu’il y a une certaine probabilité qu’elles aillent ici ou là, ou encore ailleurs, je peux l’admettre. Ce que je n’aime pas, dans la mécanique quantique, c’est qu’elle formalise le calcul de probabilité que les humains obtiennent quand ils procèdent à certaines interventions dans la nature que nous appelons des expériences. Or, une théorie ne devrait pas se référer aux êtres humains dans ses postulats. »

Ci-après, je commente : Avec ce type de remarque S.W. exprime, à mon sens, cet idéalisme regrettable des physiciens à l’égard du réalisme. Selon la conception majoritaire : une bonne théorie est une théorie qui n’aurait pas de source, elle serait dans l’univers sans aucune attache, elle aurait été ‘vue’ et elle serait libre de toutes déterminations. Comme je l’ai indiqué dans l’article précédent du 24/02 les résultats d’une théorie sont conformes à leur(s) paradigmes. Plus le paradigme est pertinent, puissant, précurseur, plus les résultats constituent des avancées significatives et toujours conformes. Or, avec la mécanique quantique, il n’y eut pas de paradigme préalable comme ce fut le cas avec celui de la RG et exprimé par A. Einstein. C’est par la force des choses et donc la voie empirique et pragmatique, le fait expérimental, que le formalisme de la MQ a été installé. La MQ, dans son principe n’a pas été pensée préalablement. Par exemple le caractère discret des grandeurs physiques en quantique s’est imposé aux physiciens de l’époque avec violence, il suffit de relire l’autobiographie de Max Planck et de se souvenir des tourments vécus par L. Boltzmann (1844-1906), jusqu’à son suicide. L’avènement de la mécanique quantique a provoqué un choc conceptuel a priori inacceptable puisque les fondements de la physique classique, après trois siècles de développement avec de très grand succès, étaient radicalement remis en cause.

S.W. p.155 : « Il serait souhaitable de pouvoir comprendre des choses macroscopiques, comme les appareils expérimentaux et les êtres humains selon les termes de la théorie sous-jacente. Il n’est pas souhaitable de les voir intégrés au niveau des axiomes de la théorie. »

Avec ces deux phrases S.W. exprime toute la négation de la mécanique quantique, puisque les êtres humains et en l’occurrence les appareils expérimentaux sont les moyens incontournables pour décrypter les phénomènes quantiques. La MQ est une science de l’observateur, pas d’observateur tel qu’il est, pas de mécanique quantique et je prétends que si on élimine effectivement l’intelligence humaine, alors il n’y a plus d’espace-temps car il en est le fondateur et le vecteur. La mécanique quantique est une science qui ne peut pas être en amont des capacités actuelles de l’observateur, ni de ce qu’il est. Pour l’instant l’observateur ne peut pas directement s’intégrer dans la scène de la M.Q., il ne peut être que distancié, distance qui s’atténue et s’atténuera grâce à l’apprentissage cérébrale qui est évidemment engagé. C’est pourquoi, je m’autorise à évoquer l’idée que la mécanique quantique représente actuellement un terrain particulièrement favorable à l’évolution intellectuelle humaine. En même temps, il ne faut pas sous-estimer l’inertie intellectuelle toujours très significative, voire encore majoritaire dans la communauté scientifique, concrètement exprimé par S.W. Et il y a encore d’autres obstacles qui s’opposent au plein saisissement de la perspective que je propose grâce à la mécanique quantique. A ce titre, je cite François Lurçat qui écrit dans son livre (2003) : ‘De la science à l’ignorance.’ : « Dans le débat entre Bohr et Einstein, qui se prolonge de nos jours entre leurs partisans respectifs, les deux protagonistes sont en vérité du même côté dans un débat beaucoup plus fondamental. Einstein veut sauver les fondements métaphysiques de la physique classique, tandis que Bohr veut les dépasser en les englobant dans une nouvelle synthèse ; mais ils font appel, tous deux, à la raison. Deux conceptions de l’intelligibilité s’opposent, mais précisément il s’agit, pour l’un comme pour l’autre, de comprendre. En revanche pour Dyson en 1958, et pour bien des savants jusqu’à nos jours, le but n’est plus l’intelligibilité mais simplement l’accord entre les résultats des calculs et ceux des expériences, gage de l’efficacité pratique. On comprend ainsi que les physiciens parlent désormais plus souvent de modèles que de théories : ce changement de vocabulaire exprime de manière voilée le renoncement à comprendre, et donc en définitive le remplacement de la science par une technique aveugle. » Je ne suis pas aussi pessimiste que F. Lurçat mais ce qu’il dit est effectivement présent. Exemple : avec la propriété de l’intrication qu’on ne comprend pas du tout, les applications dans les télécoms sont déjà très importantes et comme cela marche, effectivement la volonté de comprendre est de plus en plus minorée.

Maintenant, je propose d’analyser certains arguments, toujours sur la MQ, d’Hervé Zwirn qui sont développés dans le N° de ‘Pour la science’ de ce mois de Mars. Le titre de l’article est : « L’observateur, un défi pour la physique quantique » ; H. Zwirn est directeur de recherche au CNRS, physicien et épistémologue à l’IHPST à Paris et au centre de mathématiques et de leurs applications à l’ENS de Paris Saclay.

Le but d’H. Zwirn avec cet article est de proposer une explication alternative à la problématique de la mesure en quantique. En rappelant que la première explication et la plus ancienne fut établie par Bohr et Heisenberg et elle est désignée : « Interprétation de Copenhague », ensuite il y eut l’hypothèse de von Neumann et Wigner qui attribuèrent un rôle à la conscience de l’observateur responsable de la réduction du paquet d’ondes ; plus tard dans les années 1956 : H. Everett a proposé la duplication du monde en autant de mondes et d’observateurs différents qu’il existe de résultats possibles pour la mesure effectuée, c’est la « théorie des mondes multiples ». Il y eut d’autres interprétations dont celle de de Broglie-Bohm. L’explication alternative originale de Zwirn, s’intitule le « solipsisme convivial », qui s’abstient du principe de réduction du paquet d’ondes, mais qui ne suppose nullement que l’Univers se multiple en plusieurs versions à chaque mesure. Je conseille de lire directement l’article pour intérioriser cette proposition que personnellement je n’envisage pas d’adopter.

Je cite p.28 : « Le mécanisme de décohérence n'élimine donc nullement le rôle de l’observateur, puisqu’il explique comment apparaît le monde à un observateur dont les moyens sont limités, et non pas comment apparaît réellement le monde en l’absence d’un observateur.

En fait, il paraît logiquement inévitable que, sauf à modifier le cadre de la mécanique quantique usuelle, il soit impossible de définir rigoureusement et de façon strictement objective ce qu'est une mesure. L’observateur doit être pris en compte d'une manière ou d'une autre, et il semble que ce ne soit qu'au moment où un observateur prend connaissance du résultat que celui-ci se détermine.

Cela ne devrait pas paraître si choquant, après tout, la science n’est rien d’autre qu’une description du monde tel qu’ultimement il nous apparaît. Le fait que la mécanique classique qui décrit le monde macroscopique soit compatible avec l’hypothèse que le monde est « réellement » tel qu’il nous apparaît n’est pas une preuve que cela soit encore vrai dans les domaines étrangers à notre expérience quotidienne. »

Ce que je cite de l’auteur ci-dessus correspond complètement à la façon dont je reçois la mécanique quantique et je l’ai exprimé sous toutes les coutures dans de nombreux articles. Il est satisfaisant de rencontrer une conception aussi convergente. Toutefois, je pense que Zwirn est trop sibyllin quand il écrit : « il semble que ce ne soit qu'au moment où un observateur prend connaissance du résultat que celui-ci se détermine », en effet il existe une expérience qui autorise les physiciens à indiquer que dans des opérations de mesure spécifique : « Ce qui compte en quantique, ce n’est pas ce que l’on fait, mais ce que l’observateur sait. » Certes, cette expérience unique doit être dupliquée par d’autres équipes pour que son résultat soit confirmé ou éventuellement infirmé. Mais Zwirn aurait dû la citer comme je l’ai fait il y a plus de deux ans (03/07/2017 : ‘Comment la ruse quantique peut brouiller cause et effet’) pour que chacun se fasse une idée propre. C’est encore là une démonstration de l’inertie intellectuelle qui est en jeu car beaucoup de physiciens sont rebutés à l’idée d’admettre la conclusion de cette expérience. Effectivement si cette conclusion est confirmée il faudra penser le rapport entre le physicien et les faits naturels qu’il étudie d’une façon renversée. Personnellement je serais pleinement satisfait que ce paradigme en germe soit confirmé, puisque je l’appelle, et en conséquence de nouvelles avancées de la connaissance en physique seront dans notre horizon.

Je cite encore, p.31 : « Il faut renoncer à penser que le monde est directement conforme à ce que nous en percevons et que nous le percevons tous de la même façon. »

Je propose de rebondir sur le terme conforme car quelques jours avant que ne soit publié l’article de Zwirn, moi-même j’avais posté sur le blog, le 24/02, l’article : « La dynamique de l’espace-temps est conforme au paradigme d’Einstein. » Avec ces deux affirmations nous attribuons un rôle déterminant au sujet pensant et maintenant il faut expliciter ce rôle dans le développement de la connaissance scientifique en physique. C’est ce que j’ai commencé à entreprendre le 24/02 en écrivant ce qui suit :

« En ce qui concerne le ‘comment la Nature fonctionne’, je pense qu’il ne faut pas sous-estimer l’hypothèse que globalement la Nature ne fonctionne pas, mais le physicien lui prête par projection du ‘fonctionnement’. Ce qui correspond à une compréhension partielle obtenue par le physicien et il y a effectivement résonnance, accroche, avec ce qui est, certes, d’une façon réduite dans la Nature mais il faut la considérer comme une étape pour se hisser vers une compréhension plus multiple, plus complète. Selon mon entendement la Nature doit être comprise comme un état qui comprend tous les ‘fonctionnements’ possibles ».

La fonction d’onde de la connaissance globale du Monde, c’est l’éternité. Peu importe si Sapiens ou le produit de son évolution sera en mesure de l’atteindre. L’état de la connaissance réduite actuelle du monde c’est un Univers, conçu par les scientifiques avec ses compétences intellectuelles et ses moyens technologiques. Avec cet état dominant, se superpose d’autres états de connaissance en cours de réduction : je pense aux deux hypothèses suivantes qui sont celles du multivers et des mondes multiples d’Everett. La théorie du multivers est suggérée dans le cadre et dans le prolongement de la relativité générale, c’est-à-dire que la R.G. ne contrevient pas à cette hypothèse et elle élémine l’impasse de l’interprétation Anthropique, bien sûr qu’elle est sujet à controverse : « L. Susskind estime qu’il est enthousiasmant de penser que l’univers est peut-être beaucoup plus grand, plus riche, plus divers que nous ne l’avons jamais cru ; B. Carr explique que la notion d’un multivers ouvre une nouvelle perspective sur la nature de la science, et il n’est pas étonnant que cela cause un inconfort intellectuel ; G. Ellis relativise en disant : d’un côté nous avons M. Rees qui dit que l’univers ne s’arrête pas à notre horizon visuel, et donc, en un sens, c’est un multivers. Et je suis évidemment d’accord ; Et un peu plus loin, vous avez l’inflation chaotique d’A. Linde, avec son nombre infini d’univers-bulles et encore avec le paysage de la théorie des cordes, où la physique est différente dans chaque bulle… »

Dans le champ de la pensée scientifique, il n’est plus tabou de concevoir le multivers d’une façon ou d’une autre. L’esprit scientifique s’ouvre, saisit des indices. La fonction d’onde de la connaissance globale du Monde est en cours de réduction sur un ‘état de connaissance’ qui englobe le précédent et qui aura peut-être la même ampleur que celui à propos de la reconnaissance de l’existence de l’atome au XIXe siècle. Quant à la thèse des mondes multiples d’Everett, elle est conçue pour déverrouiller la problématique de la mesure. Il y a une accoutumance à cette thèse de la part d’une minorité de physicien, certes, mais elle fait évoluer la pensée scientifique comme dans le cas précédent. Ce qui est peut-être significatif c’est que ces deux extrapolations sont le fruit des deux théories jusqu’alors déclarées incompatibles, ceci peut être un sujet de méditation !  

Ce que je propose ci-dessus est suscité par l’idée que ce qui a été essentiellement fondé par l’école de Copenhague correspond à un état de l’art de la pensée scientifique et bien qu’elle fût énoncée à l’occasion de la découverte du monde physique à l’échelle de l’infiniment petit, elle vaut aussi pour tout scientifique en quête de connaissances physiques fondamentales de la nature à l’échelle macroscopique. Le rôle du sujet pensant est tout aussi déterminant dans les deux cas de figure. C’est ce que je déclame depuis un certain temps : « Au sein d’une éternité, parmi tous les possibles, Anthropos ne cesse de creuser sa connaissance de l’univers ! »

 

[1] Dans le livre de Sabine Hossenfelder (S.H.), p.169 : « L’intuition peut découler de l’expérience, or la mécanique quantique est une théorie relativement jeune (sic). Les générations futures la trouveront peut-être plus intuitive.

[2] Freeman J. Dyson, né le 15 décembre 1923 à Crowthorne dans le Berkshire (Royaume-Uni) et mort le 28 février 2020 à Princeton (New Jersey)1, est un physicien théoricien et mathématicien britanno-américain. Il contribua notamment aux fondements de l'électrodynamique quantique en 1948. Il a également fait de nombreuses contributions à la physique des solides, l’astronomie et l’ingénierie nucléaire. On lui doit plusieurs concepts qui portent son nom, tels que la transformée de Dyson, l'arbre de Dyson, la série de Dyson et la sphère de Dyson.

 

Partager cet article
Repost0
24 février 2020 1 24 /02 /février /2020 18:08

La dynamique de l’espace-temps est conforme au paradigme d’Einstein.

            En 1918, trois ans après la publication de la loi de la Relativité Générale (RG) par Einstein, deux mathématiciens autrichiens avaient compris qu’en plus d’une conception élastique de l’espace-temps qu’elle mettait en évidence à cause de l’interaction avec la matière, elle incluait aussi une propriété de fluidité toujours sous l’action de la matière. Les deux mathématiciens sont Lense et Thirring et ils nous ont légué l’effet Lense-Thirring qui a été scientifiquement constaté seulement en 2011 grâce au satellite Gravity Probe B lancé en 2004. Cet effet est faible, mais effectivement observable. Il rend compte de l’effet d’entraînement de l’espace-temps qui environne un objet massif en rotation. C’est-à-dire que le référentiel spatio-temporel que nous définissons pour mesurer le mouvement de rotation de l’objet massif évolue concomitamment dans le même sens de la rotation.

Cette propriété est maintenant confirmée par un article du 30/01/2020 dans Phys.org, avec le titre : « Les astronomes sont les témoins de l’entraînement de l’espace-temps en observant une danse cosmique stellaire depuis 20 ans. » En effet, sur cette durée ils ont suivi la trajectoire d’une étoile à neutrons autour d’une naine blanche. La naine blanche dénommée PSR J1141-6545 entraîne l’espace-temps avec une force 100 millions de fois plus importante que le ferait la terre et de plus elle tourne sur elle-même très rapidement. Et pour rendre compte de l’orbite spécifique observée de l’étoile à neutrons sous son emprise gravitationnelle il est nécessaire d’inférer que c’est l’entraînement du référentiel spatio-temporel qui explique les différents signaux particuliers émis par l’étoile à neutrons durant cette vingtaine d’années.

L’équipe qui a observé cette danse cosmique présente une accumulation de données qui justifie cette interprétation. A l’occasion, elle commente : « Cela indique que la Relativité Générale est vivante et bien portante, exposant encore une autre de ses nombreuses prédictions. »

            Je partage le point de vue enthousiaste de l’équipe mais je crois qu’il est bon de placer cet enthousiasme à une bonne distance. A. Einstein a fondé la RG sur la base du paradigme suivant : « Les bonnes lois de la physique, celles qui, selon lui, rendent compte du monde réel, sont celles qui sont indépendantes de tout observateur. Ce principe est illustré par l’exploitation de la covariance générale (ou invariance générale, ou encore principe d’indifférence) pour fonder sa loi de la RG » Or si le référentiel spatio-temporel en question était observé immobile cela signifierait qu’il serait attaché à l’observateur et il y aurait incohérence. C’est-à-dire que l’effet Lense-Thirring est précisément conforme au paradigme fondamental de A. Einstein, mais pas plus. Cela nous indique que ce paradigme a une très grande valeur heuristique à l’échelle de validité de la RG mais il ne nous dit pas ce qui est réellement, définitivement, loi absolue de/dans la nature[1]. Il est possible de prédire qu’un nouveau paradigme (à formuler) permettra d’embrasser plus largement phénomènes et propriétés de la nature et de les comprendre différemment. Evidemment ce nouveau paradigme inclura ce que celui d’Einstein aura permis de mettre partiellement en évidence et il permettra une avancée significative de la relation d’intelligibilité, de compréhension, entre l’être humain et la Nature (monde extérieur).  

            Présentement, il est vraiment approprié de réfléchir à la nature des composantes espace et temps. Celles-ci sont définies par le physicien, elles émanent et sont représentatives de notre sensibilité. Elles sont les résultantes de notre perception empirique du mouvement autant physique que biologique. En physique elles sont toujours matière à controverse, il y en a qui disent que le champ gravitationnel efface le recours à un champ spatio-temporel et lorsque les mathématiciens s’emparent d’une interprétation de la R.G, on peut lire ce qui suit : « En physique théorique, la covariance générale (ou invariance générale) est l'invariance de la forme des lois physiques dans toute transformation de coordonnées différentiable. Le principe qui sous-tend cette notion est qu'il n'existe a priori aucune coordonnée dans la Nature, ce sont seulement des artifices mathématiques utilisés pour la décrire, et qui ne devraient donc jouer aucun rôle dans l'expression des lois fondamentales de la physique. En d'autres termes, selon le principe qui sous-tend la notion de covariance générale, les lois physiques ne portent pas a priori directement sur la Nature mais sur une variété différentielle abstraite (sic). Une loi physique qui est covariante générale prend la même forme mathématique dans n'importe quel système de coordonnées et s'exprime généralement en termes de champs tensoriels. Les théories de l'électrodynamique formulées au début du XXᵉ siècle en sont des exemples. »

            Cette conception épurée, abstraite, désincarne les scénarios propres du physicien comme celui des auteurs de l’article dont je fais référence : pendant vingt ans nous avons observé une danse cosmique stellaire. La clairvoyance des physiciens à l’égard de cette problématique est faible. Récemment, le 16/01/2020, le physicien de l’université de Genève Nicolas Gisin a publié un article dans ‘Nature’ dans lequel il exprimait son inquiétude et son désaccord sur le fait que le langage mathématique façonne (trop) notre compréhension du temps en physique : « Mathematical languages shape our understanding of time in physics ». Dans un article du 19/07/2017 j’ai posté à propos de ce sujet : « Votre, Notre, cerveau est une machine du temps », ainsi que le 06/08/2017 : « Appel d’offres » dans lequel j’affirmais explicitement que l’espace-temps est un propre de l’homme.

Le paradigme einsteinien fut porté par son auteur dans le domaine de la physique quantique naissante et il fut un opposant de grande envergure face à l’avènement de la fondation pragmatique de la mécanique quantique de l’école Copenhague qui privilégie une physique où l’observateur a un rôle essentiel. Einstein a développé vainement l’idée que la mécanique quantique était incomplète et que des variables cachées devaient être recherchées. Le paroxysme de cette opposition est connu avec l’expression d’Einstein : en physique il ne peut pas y avoir d’action fantôme (spooky action), parce que son réalisme commande que qu’elles que soient les situations physiques et expérimentales deux objets doivent être toujours discernables dans l’espace-temps. Pour l’école de Copenhague, il n’y a aucune action fantôme avec la propriété de l’intrication car, quand celle-ci est observée à l’origine de sa constitution, la fonction d’onde des objets intriqués est clairement définie et elle l’est ainsi tant qu’il n’y a pas de mesure sur les objets intriqués sur leur ligne de vol. Ce qui est étonnant, c’est qu’au bout du compte pour une grande majorité de physiciens c’est l’expression : ‘action fantôme’ qui fait sens et la problématique de l’observateur, de l’observation, est laissée de côté. C’est la raison pour laquelle on rencontre dans des publications des considérations vraiment troublantes. Voir la fin de l’article du 27/01/2020. Ainsi des chercheurs ont essayé de calculer la quantité de corrélations que deux tels objets ou systèmes peuvent manifester à travers l’espace quand ils sont intriqués. Comme si pas à pas l’intrication se propageait sur leur ligne de vol respective, la nature étant actrice et non pas l’observateur. Voici une remarquable confusion générée par le principe de réalité en mécanique quantique. Je recite cette idée aberrante exprimée par un physicien qui commente : « La Nature est dans un certain sens fondamentalement fini ». En effet, elle nous instruit sur un état de réflexion qui a perdu ses repères essentiels et nous sommes exposés à des divagations regrettables. La Nature n’est pas une chose que l’on pourrait encadrer ! Pas plus que nous le sommes ! Lorsqu’on évoque la Nature, je préfère effectivement que ce soit de la façon dont N. Gisin aborde ce sujet comme je l’ai évoqué dans l’article du 23/08/2016 : « Finalement, la physique – et la science en générale – est l’activité humaine qui a comme but de décrire et de comprendre comment la Nature fonctionne. Pour cette raison on a besoin de décrire comment les humains interagissent avec la nature, comment on questionne la nature. » Voir aussi mon article du 18/03/2015 : « Comprendre la physique comme science de l’interface de l’être l’humain et de la Nature »

En ce qui concerne le ‘comment la Nature fonctionne’, je pense qu’il ne faut pas sous-estimer l’hypothèse que globalement la Nature ne fonctionne pas, mais le physicien lui prête par projection du ‘fonctionnement’. Ce qui correspond à une compréhension partielle obtenue par le physicien et il y a effectivement résonnance, accroche, avec ce qui est, certes, d’une façon réduite, dans la Nature mais il faut la considérer comme une étape pour se hisser vers une compréhension plus multiple, plus complète. Selon mon entendement la Nature doit être comprise comme un état qui comprend tous les ‘fonctionnements’ possibles. A cet égard, je suggère de méditer à propos de la constatation profonde et remarquable de Carole Fritz, directrice de l’équipe scientifique de la grotte Chauvet, exprimée dans la ‘Recherche’ de Février 2020 : « Il y a cependant une vraie différence : la production de Sapiens est unique. C’est le seul groupe (d’Hominines) qui est capable de se projeter dans des représentations artistiques[2] complexes comme ce peut être le cas en Europe à Chauvet (36000 ans). Ce qui révèle une maturité cognitive acquise très tôt. Mais, pour moi, il n’est pas question ici de modernité. C’est un nouveau système social qui se met en place. »

La capacité de projection est exactement ce que je désigne, souvent dans mes articles, comme une détermination chez le ‘sujet pensant’ que nous sommes. Ce que Carole Fritz affirme, me confirme dans l’idée que paléoanthropologues et physiciens devraient coopérer comme j’ai pu le proposer dans l’article du 21/07/2015 : ‘La seconde naissance de l’homme’.

 

 

[1] Il faut se souvenir que de sérieux doutes ont commencé à être instillés dans l’esprit de nombreux physiciens du modèle standard de la physique des particules élémentaires lorsqu’il a été découvert que la masse du boson de Higgs était si conforme à la prévision théorique.

[2] Acceptons l’idée que l’activité du physicien est une activité artistique particulière de représentations, le pinceau et les couleurs qu’il exploite lui sont proposés par les mathématiques. Cette activité artistique du physicien montre la diversification et l’évolution cognitive extraordinaires de Sapiens depuis 36000 ans. Je pense que ce fil directeur est pertinent.

Partager cet article
Repost0
27 janvier 2020 1 27 /01 /janvier /2020 16:21

Aux chevets de...

En premier lieu au chevet du Modèle Standard de la physique des particules élémentaires, chevet tel qu’il est présenté, dans la revue ‘Cern Courier’ du 10/01/2020, par John Ellis dans un interview, lequel est introduit en ces termes : « John Ellis réfléchit sur 50 ans passés à travailler à l'avant-garde de la physique théorique des hautes énergies et si le domaine est enfin mûr pour un changement de paradigme. » Je confirme qu’Ellis est très bien placé pour évoquer cette période car il fut un de ceux qui en tant que théoricien a poussé jusqu’à l’extrême… la logique mathématique du Lagrangien du Modèle Standard.

            Je cite ci-dessous le dernier paragraphe de cet interview traduit par mes soins ainsi que sa version originale :

« Les ondes gravitationnelles vont nous en dire beaucoup sur l'astrophysique, mais il n'est pas si évident de savoir si elles nous en diront sur la gravité quantique (sic). Le boson de Higgs, quant à lui, nous dit que nous avons une théorie qui fonctionne fantastiquement bien, mais laisse de nombreux mystères - tels que la matière noire, l'origine de la matière, les masses des neutrinos, l'inflation cosmologique, etc - toujours présents. Il s'agit d'un mélange de problèmes théoriques, phénoménologiques et expérimentaux suggérant la vie au-delà du Modèle Standard (SM). Mais nous n'avons pas de panneaux indicateurs clairs (sic) aujourd'hui. Les chats théoriques errent dans toutes les directions, et c'est bien, parce que peut-être l'un des chats trouvera quelque chose d'intéressant. Mais il y a encore un dialogue en cours entre la théorie et l'expérimentation, et c'est un dialogue qui est peut-être moins un monologue qu'il ne l'était lors de la montée du SM et de la relativité générale. Les problèmes auxquels nous sommes confrontés pour aller au-delà des paradigmes actuels en physique fondamentale sont les plus difficiles auxquels nous ayons encore été confrontés, et nous allons avoir besoin de tout le dialogue que nous pouvons rassembler entre théoriciens, expérimentateurs, astrophysiciens et cosmologistes. »

« Gravitational waves are going to tell us a lot about astrophysics, but whether they will tell us about quantum gravity is not so obvious. The Higgs boson, meanwhile, tells us that we have a theory that works fantastically well but leaves many mysteries – such as dark matter, the origin of matter, neutrino masses, cosmological inflation, etc – still standing. These are a mixture of theoretical, phenomenological and experimental problems suggesting life beyond the SM. But we don’t have any clear signposts today. The theoretical cats are wandering off in all directions, and that’s good because maybe one of the cats will find something interesting. But there is still a dialogue going on between theory and experiment, and it’s a dialogue that is maybe less of a monologue than it was during the rise of the SM and general relativity. The problems we face in going beyond the current paradigms in fundamental physics are the hardest we’ve faced yet, and we are going to need all the dialogue we can muster between theorists, experimentalists, astrophysicists and cosmologists.”

J’ai passé une grande partie du mois de Décembre et de Janvier à être au chevet du Modèle Standard de la Cosmologie au cours de mes séminaires car des résultats récents, concentrés rien que sur l’année 2019, obligent à s’interroger sur les limites de la validité de celui-ci.

Le premier résultat qui bouscule très sérieusement est relatif à l’obtention de 2 valeurs distinctes de la constante de Hubble, l’une correspondant à l’univers primordial : 68 km/s/Mpc et l’autre 74km/s/Mpc correspondant à l’univers actuel. Tout a été vérifié, recalculé, et en juillet les impétrants concernés par ce sujet se sont réunis pour constater que contrairement à toute prévision théorique ces deux valeurs différentes sont effectives et ne peuvent être imputées ni à des erreurs de mesure ni à des erreurs de calcul (voir article du 05/12/2019). La constante de Hubble exprime la valeur du taux (vitesse) d’expansion de l’univers, cette constante fait partie de l’architecture centrale du Modèle Standard. En conséquence ces deux valeurs obtenues à des moments franchement distincts de l’évolution de notre univers met à mal l’idée d’une unique architecture de celui-ci.

Le deuxième résultat récent qui est troublant est relié à l’annonce publiée le 04/11/2019 par une équipe de physiciens, ayant repris les données recueillies par le satellite Planck et depuis republiées en 2018 avec des résultats améliorés, qui découvrent que contrairement à ce qui est admis couramment notre univers ne serait pas Euclidien[1] (plat) mais sphérique (fermé). Si cela était confirmé ce serait la fin de ce qui adviendrait comme une légende. Et ce n’est pas bon pour le Modèle Standard.

Le troisième résultat qui est, dans la durée, de plus en plus étayé, a comme perspective de remettre en cause l’énergie sombre. En effet l’auteur de la publication du 4/11/2019 : Subir Sarkar affirme que l’accélération de la vitesse de l’expansion de l’univers, telle qu’elle est considérée est un artéfact. En s’appuyant sur les travaux de plusieurs équipes d’astrophysiciens, il est en mesure d’affirmer que les 75 Supernovae type1a (SN1a) qui ont été la référence pour officialiser scientifiquement l’énergie sombre en 1998 ne peuvent pas constituer un échantillon de référence et les 750 qu’il étudie actuellement infirment cette hypothèse. Selon les travaux de l’équipe de S. Sarkar, l’accélération observée en 1998 est une accélération au sein de l’univers local dans un volume significatif mais ne concernerait pas du tout l’univers dans son ensemble. Si ce résultat devenait officiel, ce serait 68% de ce qui compose l’univers actuellement qui serait gommé. Facile d’imaginer la révolution que cela engendrerait.

Enfin le dernier article du 6/01/2020 a un titre explicite : « De nouveaux éléments de preuve montrent que l'hypothèse clé faite dans la découverte de l'énergie sombre est erronée. », alors qu’il relate une étude très différente qui est basée sur le questionnement de la validité de l’hypothèse que les SN1a peuvent être considérées comme des chandelles standards. La réponse est : « hypothèse non valide » Si par ce biais là il y a aussi erreur majeure, le tremblement sera encore amplifié.

Faisons un retour aux propos de John Ellis, qui fait une liste partielle des mystères scientifiques qui ont été générés ces cinquante dernières années : « Mais laisse de nombreux mystères - tels que la matière noire, l'origine de la matière, les masses des neutrinos, l'inflation cosmologique, etc - toujours présents. » et qui conclut son propos par : « Les problèmes auxquels nous sommes confrontés pour aller au-delà des paradigmes actuels en physique fondamentale sont les plus difficiles auxquels nous ayons encore été confrontés, et nous allons avoir besoin de tout le dialogue que nous pouvons rassembler entre théoriciens, expérimentateurs, astrophysiciens et cosmologistes. »

Premièrement, je considère que la longueur de la liste des mystères est directement corrélée au nombre d’extrapolations abusives voire superficielles et opportunistes de certains développements théoriques (voir mes articles sur les neutrinos dès le début de la création de mon blog) et l’accumulation ainsi que l’enchevêtrement des mystères affaiblissent maintenant notre capacité de discernement des vraies failles des Modèles Standards. A la fin du XIXème siècle la situation de crise en physique était centrée sur un seul sujet, celui de la vitesse de la lumière, après les résultats de A. Michelson et E. Morley obtenus en 1887. Il fallut attendre qu’en 1905 A. Einstein invente l’authentique paradigme de la relativité de l’espace et du temps qui permette de résoudre le mystère tenace de la vitesse de la lumière qui s’est imposée comme constante universelle. Et on sait comment par la suite la bobine s’est déroulée.

Depuis qu’il y a eu l’illusion d’une perspective d’une ‘Théorie du Tout’ qui a engendré une marche forcée d’annonces théoriques mais sans lendemain, cet horizon continue, malgré tout, d’être toujours scruté. Le savoir absolu, finalisant, comme, sur une période, l’a caressé S. Hawking doit être définitivement considéré comme une chimère. En physique, il n’y a pas de moment du Graal. Notre ligne directrice la plus fertile est celle qui est engendrée par une dynamique d’évolutions de nos connaissances qui conforte et/ou rectifient les précédentes. Cette escalade est, par elle-même, à coup sûr motivante. Creuser l’inconnu pour que la lumière de l’intelligence de Sapiens atteignent toujours de nouveaux recoins de l’univers est source d’une énergie intellectuelle suffisante en soi.

Je propose que l’on médite sur l’article du 16/01/2020, dans ‘Nature’, ayant pour titre : « Combien la physique quantique est effrayante ? La réponse pourrait être incalculable. » ; « How ‘spooky’ is quantum physics ? The answer could be incalculable. » Dans l’article de synthèse de Castelvecchi, il est précisé que des physiciens ont tenté d’évaluer jusqu’à quel degré ‘l’action fantôme à distance’ (spooky action) continue d’être un pis-aller pour rendre de la propriété de l’intrication. Rappelons que cette expression recouvre, depuis Einstein, l’incapacité d’expliquer rationnellement la propriété de l’intrication.

Le questionnement actuel sur cette énigme est le suivant : jusqu’où cette apparente coordination miraculeuse de la nature entre deux objets distants s’impose ? Des physiciens théoriciens munis d’outils mathématiques pures et algorithmiques ont cherché à répondre à la question en repoussant dans ces ultimes retranchements les données de l’énigme et la réponse à la question est : « Inconnaissable » Avec ce résultat (publié dans un article de 165 pages) on constate que ces physiciens ont gratté l’os de la connaissance jusqu’au stade où celle-ci devient rédhibitoirement impossible. Ce résultat du savoir inconnaissable est clairement annoncé depuis 1931 par K. Gödel, son théorème de l’incomplétude nous informe qu’aucune théorie mathématique formelle ne peut s’autojustifier avec ses moyens propres et il est impossible de montrer la validité ou la fausseté à l’intérieur de la théorie en question pas plus que sa cohérence. Etant dans l’impossibilité d’expliquer l’intrication avec des arguments physiques vouloir la décrire par le biais de la logique mathématique constitue une alternative vraiment acceptable. Mais il se trouve que l’incomplétude décelée en mathématique depuis 1931 et depuis jamais contredite (au contraire) rejaillit sur la physique et ce n’est pas surprenant. Surtout sur cette affaire de la ‘spooky action

A l’origine de ce sujet traité aujourd’hui, il se trouve un article de 1976 de A. Connes, utilisant le langage des opérateurs, article dans lequel il demande si des systèmes quantiques avec une infinité de variables mesurables peuvent être approximés par un nombre fini. La réponse des auteurs d’aujourd’hui est : Non. Il est impossible de calculer la quantité de corrélations que deux tels systèmes peuvent manifester à travers l’espace quand ils sont intriqués. Un des physiciens commente ce résultat, qui le surprend, en osant affirmer : « La Nature est dans un certain sens fondamentalement finie (sic). » Je considère qu’il est vraiment inquiétant qu’un physicien puisse dire des choses aussi étriquées et je n’exagère pas en pensant que c’est inquiétant d’être équipé de telles œillères. (Voir article du 22/07/2019). Bref en aucun cas, la Nature ne peut être considérée comme une chose.  

Tout ce que je viens de relater ne peut être qualifié de négatif ou pessimiste, l’essentiel étant de trouver la bonne direction, en écartant tous les faux amis relatifs au savoir complet et suffisant qui nous permettraient comme l’avait prétendu S. Hawking : ‘Occuper la place de Dieu.’ De toute façon, n’ayons pas la mémoire courte car K. Gödel, depuis 1931, a, pour nous, écarté toute ambition parasite à la connaissance éclairante.

Il se trouve que le hasard puisse coordonner étonnamment les choses puisqu’aujourd’hui même, dans le site ‘Techno-Science’ est publié l’article suivant : « Une expérience sur le phénomène quantique "fantôme" pourrait résoudre un mystère de la physique » Cet article nous indique l’écart des préoccupations entre les physiciens théoriciens et expérimentateurs, ceux-ci cherchant surtout à appliquer bien qu’il y ait une faille extraordinaire de la connaissance. Dans ces conditions, est-ce que l’on peut construire quelque chose de solide dans la durée ? En lisant l’article ci-dessous en copie on mesure la portée de l’aventure. On n’oublie pas de prendre en considération le fait que c’est avec la propriété de l’intrication, que pour la première fois, les physiciens sont confrontés à une énigme si tenace tout au moins dans la durée.

action fantôme  intrication quantique  information quantique  téléportation quantique 

Publié par Redbran le 27/01/2020 à 08:002

Des chercheurs ont réussi à montrer l'une des caractéristiques les plus complexes de la mécanique quantique à une plus grande échelle. Leur étude pourrait ouvrir la voie à des technologies révolutionnaires telles que les ordinateurs quantiques et de nouveaux types de capteurs.
Pendant des décennies, les scientifiques ont essayé de prouver que l'une des propriétés les plus étranges de la
mécanique quantique n'était pas uniquement une singularité mathématique, mais une caractéristique réelle du monde physique. Ce phénomène, qu'Albert Einstein a nommé "action fantôme à distance", connu également sous le nom d'"intrication quantique", se réfère aux systèmes qui ne peuvent pas être décrits séparément les uns des autres, quelle que soit la distance entre eux.


L'intrication a déjà été démontrée dans des systèmes à échelle microscopique impliquant les photons, les ions, les spins d'électrons, et les dispositifs micro-ondes et électromagnétiques. Mais une équipe de chercheurs partiellement soutenue par le projet HOT financé par l'UE a démontré que l'intrication peut se produire et être détectée à une plus grande échelle. L'étude est cruciale car l'intrication est considérée comme une ressource clé pour de nombreuses technologies quantiques potentiellement transformatrices, y compris l'informatique quantique et la transmission d'informations.

Les conclusions de l'étude ont été récemment publiées dans la revue "Nature". Comme l'expliquent les membres de l'équipe, leur étude "élargit qualitativement la gamme des systèmes physiques intriqués et a des incidences sur le traitement de l'information quantique, les mesures de précision et les tests des limites de la mécanique quantique".

Objets "massifs"

Selon le communiqué de presse publié par l'Université Aalto en Finlande, les chercheurs ont réussi, par des mesures en laboratoire, à amener deux objets distincts et en mouvement – presque visibles à l'œil nu – dans un état d'intrication quantique où ils s'influencent mutuellement. Il a été ajouté dans le communiqué de presse que: "Les objets utilisés pour l'expérience étaient deux membranes de tambour vibrantes fabriquées à partir d'aluminium métallique sur une puce de silicium. Les membranes de tambour sont vraiment massives par rapport à l'échelle atomique: leur diamètre est proche de la largeur d'un cheveu humain fin."

Cité dans le même communiqué de presse, le professeur Mika Sillanpää du département de physique appliquée de l'Université Aalto, a déclaré: "Les éléments vibrants interagissent via un circuit micro-ondes supraconducteur. Les champs électromagnétiques dans le circuit dévient toute perturbation
thermique, ne laissant que les vibrations mécaniques quantiques."

L'équipe a éliminé toute forme de perturbations environnementales, ce qui a permis de mener l'expérience à une température proche du zéro absolu, à - 273 °C. Les chercheurs ont découvert que leur approche a entraîné des états d'intrication d'une longue durée, allant parfois jusqu'à une demi-heure. Ils ont ajouté que l'étude ouvre la voie à une manipulation plus précise des propriétés des objets à grande échelle. À terme, cette particularité pourrait être utilisée pour fabriquer de nouveaux types de routeurs et de capteurs.

La téléportation, dans un autre sens que celui présenté par la science-fiction

L'équipe compte également utiliser la téléportation quantique pour transmettre les vibrations entre les deux membranes de tambour. Selon le Dr Caspar Ockeloen-Korppi, l'un des membres de l'équipe cité dans le communiqué de presse, "Nous sommes encore assez loin de Star Trek".

Résumant l'étude dans l'édition britannique de "The Conversation", le Dr Matt Woolley, l'un des chercheurs, a expliqué que l'expérience "est peut-être l'approche la plus proche de la réalisation littérale de la célèbre expérience de pensée d'Einstein, Podolsky et Rosen qui ont étudié pour la première fois en 1935 le phénomène qui allait par la suite être connu sous le nom d'intrication". Einstein a conçu un paradoxe ayant pour but de montrer que la théorie quantique était incomplète, comme il l'a expliqué dans un article écrit avec Boris Podolsky et Nathan Rosen, et qui a été publié dans la revue "Physical Review".

 

 

[1] Euclidien : c’est-à-dire, si on prend une coupe transverse de notre univers correspondant au même instant de son évolution il en résulte que tous ces points forment un plan parfait. Ceci est la conséquence de l’inflation primordiale postulée par Andreï Linde.

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens