Overblog
Suivre ce blog Administration + Créer mon blog
19 février 2021 5 19 /02 /février /2021 14:51

Ôter les œillères de la pensée en physique.

Dans un article à la mi-novembre, dans le Cern-Courier, intitulé : « In pursuit of the possible » ; « A la poursuite du possible », une phénomologiste des collisions répondait à un interview et expliquait ce à quoi correspondait sa nouvelle fonction au sein du CERN. Sa mission spécifique consiste, étant donné sa spécialité, à tenter de débusquer, parmi les données accumulées et enregistrées depuis que le LHC fonctionne, des événements qui auraient échappé à la sagacité des physiciens parce qu’ils n’auraient pas été pensés préalablement comme étant de l’ordre du possible.  C’est à dire qu’aucune théorie voire simplement ébauche de théorie formulée actuellement par les physiciens des particules élémentaires ne peut pré-voir la présence éventuelle de tels événements dans les détecteurs.

Depuis plus de dix ans que le LHC a été mis en activité, la déception est grande étant donné la pauvreté des résultats obtenus en rapport avec ceux qui étaient attendus. Certes l’observation pour la première fois du boson de Higgs grâce à la détection de signatures caractéristiques, dans les détecteurs CMS et ATLAS, signalant sa présence n’est pas un mince résultat puisque prédit depuis un demi-siècle. Mais toutes les espérances de nouvelles découvertes ont été franchement déçues, rien sur la matière noire, rien sur les particules supersymétriques et autres prédictions. Aujourd’hui c’est l’impasse complète dans le domaine de la physique des particules élémentaires. Le titre de l’article dont je me réfère : « A la poursuite du possible » est significatif car il indique que l’on est à la poursuite de ce que possiblement on a été incapable de pré-voir théoriquement. Cette situation, résulte selon mon point de vue (voir article du 8/11/2011 « Qui se permettra de le dire ? »), d’un aveuglement théorique des physiciens de cette spécialité considérant que toute nouvelle physique fondamentale pouvait être certainement développée en continuant d’exploiter le paradigme de la théorie quantique des champs et les propriétés de symétrie[1]. Ils n’ont jamais été alertés par leurs extrapolations et des rajouts d’hypothèses qui ont provoqué une fragilité de plus en plus évidente de l’édifice théorique qui a engendré ce que l’on nomme : le Modèle Standard de la physique des particules élémentaires.

Maintenant on est obligé de revenir en arrière et tenter de scruter le film de ce qui a été enregistré depuis 10 ans au CERN et de donner du sens à des phénomènes que l’on a laissé passer comme non significatifs. La situation est périlleuse parce que comme le rappelle S. Weinberg : « Lors des expériences, le LHC crée environ un milliard de collisions entre protons par seconde. C’est trop de données, même pour la capacité de calcul du CERN. Par conséquent, les événements sont filtrés en temps réel et mis au rebut sauf si un algorithme signale qu’ils sont intéressants. A partir d’un milliard d’événements, ce « mécanisme déclencheur » n’en conserve qu’entre 100 à 200 triés sur le volet[2]… Pour moi, le fait que le CERN ait passé les dix dernières années à effacer des données qui détiennent la clé d’une nouvelle physique fondamentale (sic), c’est ça, le scénario de cauchemar. » Evidemment l’algorithme qui sépare le bon grain de l’ivraie est conçu sur la base de la physique du Modèle Standard bornée par les théoriciens n’ayant aucune ouverture de pensée en dehors de ce modèle. Il y a donc peu d’espoir d’accrocher quelque chose de nouveau qui fasse sens parmi tout ce qui a été mis en mémoire.

Pour la phénoménologiste, sa tâche est humble, celle-ci consiste à chercher des déviations par rapport aux résultats déjà obtenus en développant des calculs plus précis. Si déviations il y a, cela peut être considéré comme une fenêtre pour une nouvelle physique. Cette démarche est troublante car sans théorie préalable voire sans seulement, a minima, une ébauche de théorie on ne peut pas voir la lumière ni interpréter la lumière qui filtre par la fenêtre. Cette démarche est inquiétante car cette physicienne déclare : « Dans la plupart des cas les progrès en physique proviennent des observations. Après tout, c’est une science naturelle, ce n’est pas des mathématiques. » Ce point de vue est franchement erroné et inquiétant, il suffit de considérer les travaux de Boltzmann, l’avènement de la relativité générale d’Einstein, les travaux de Dirac pour prédire l’antiélectron et partant l’antimatière, l’invention du neutrino en 1931 et effectivement observé en 1956, la théorie des quarks, etc… La physique est une science qui révèle la dynamique de la confrontation de l’intelligence humaine avec la nature pour décrypter ses lois. La compréhension, la conquête de la place de l’être humain au sein du monde en est le perpétuel enjeu. La physique est une science de la pensée hardie et chaque rupture ascendante avec celle qui est considérée comme un aboutissement permet de franchir un nouveau palier de l’émancipation de l’intelligence humaine et partant nourrit son évolution. Bien sûr historiquement on peut constater qu’après des ruptures ascendantes, il y a toujours une période plus ou moins longue d’assimilation, de cheminements pragmatiques, d’ajustements, de tâtonnements mais de fait c’est toujours le mûrissement d’un nouvel élan de la pensée qui se prépare pour dépasser les nouveaux obstacles que celle-ci rencontre au dévoilement des lois de la nature. La nature ne se laisse pas voir, la contemplation passive à son égard ne conduit pas à son dévoilement. La conception, la vision Platonicienne n’est plus de mise. Pensons au sort réservé à Actéon qui a vu Artémis déesse de la nature prendre son bain nue.

Ma conception Anthropo-philosophique constitue un référentiel qui devrait inspirer plus fréquemment les physiciens car elle conduit un éveil continue de la pensée et elle s’oppose à la routine et à la fossilisation de celle-ci. Sachant que la mécanique quantique est la matrice de la physique des particules élémentaires, je rencontre une conception partagée par Bernard d’Espagnat (Physicien théorique 1921-2015), qui dans son livre : « Le réel voilé », 1994, édit. Fayard, écrit dès les premières lignes de son Avant-propos : « Je le dis sans ambages : quiconque cherche à se faire une idée du mondeet de la place de l’homme dans le monde – doit tenir compte des acquis et de la problématique de la mécanique quantique. Bien plus : il doit les mettre au centre de son questionnement. Cette vérité ne se révèle pas à nous d’emblée (sic)… »

Très sérieusement on doit considérer que la stagnation depuis plusieurs décennies de la pensée en physique théorique est très préoccupante car ce propos que je reproche à la phénoménologiste n’est pas un propos isolé, accidentel. Il reflète l’état d’esprit d’une trop grande partie de la communauté scientifique en question qui est celui du renoncement de la pensée que j’avais déjà relevé avec ma plus grande inquiétude au début de l’année 2016 quand j’ai lu la phrase suivante de Fabiola Gianetti inaugurant sa nouvelle responsabilité de Directrice Générale du CERN : « If new physics is there we can discover it, but it is in the hands of nature » ; « Si une nouvelle physique est là, nous pouvons la découvrir, mais c’est dans les mains de la nature. » Le propos de F. Gianetti creuse et confirme le chemin de la déroute. C’est un propos qui sous-estime le rôle du chercheur en physique fondamentale puisqu’il n’y a pas de découverte s’il n’y a pas d’investissement intellectuel préalable. Ce qu’elle nous dit, c’est qu’elle n’y croit plus et en conséquence elle ne peut pas nous dire « Une nouvelle physique n’est jamais ‘là’ naturellement, le ‘là’ d’une nouvelle physique ne peut être que celui déterminé, fixé par l’intelligence des physiciens » En effet, nous devons penser qu’il y a un nombre incommensurable de ‘’ dans la nature et on ne peut pas tous les embrasser simultanément car notre intelligence n’est pas universelle bien que cela soit l’horizon qui nous met en perpétuel mouvement.

A l’article de F. Gianetti, j’avais fait part de ma réaction dans l’article du 16/01/2016 : « Et si notre pensée est mal placée ! ». 5 années après, le marasme n’est toujours pas endigué.

Le titre de l’article du Cern-courier : « A la poursuite du possible » m’a directement interpellé car c’était la première fois que dans un article de physique je rencontrais le terme ‘possible’ utilisé comme substantif, et j’ai pensé qu’il y avait peut-être un rapport avec ma litanie que je cite régulièrement : « Au sein d’une éternité parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance de l’univers… » On note rapidement que dans un cas on est à la poursuite du ‘possible’ alors que dans l’autre cas on n’est pas dans une poursuite puisque on admet qu’ils sont tous déjà là et l’être humain doit en appréhender en permanence la possible multitude. Actuellement, on s’est lancé dans une poursuite infructueuse à cause d’une pensée bornée, considérée  absolue, encore imprégnée de la ‘Théorie du Tout’, de la part des théoriciens de la physique des particules élémentaires.  

Je me souviens lorsque j’ai lu en 2005 le livre de 470 pages : « La phénoménologie du LHC », comprenant toutes les conférences de l’université d’été en Ecosse de 2003, consacrées à l’exposé théorique de toute la physique qui sera découverte grâce au LHC. Celui-ci était programmé à l’époque, pour fonctionner à partir de 2007. En étudiant ce livre, j’ai été impressionné par les blocs de certitudes, sans failles possibles, exposés par un nombre très limité de physiciens théoriciens triés sur le volet et probablement cooptés. Je cite : « L’ampleur de la physique couverte par le LHC est très large : des recherches du boson de Higgs et de la physique au-delà du Modèle Standard (sic), aux études détaillées de la chromodynamique quantique, des secteurs de la B-physique et les propriétés de la matière hadronique aux hautes densités d’énergie… Ce livre inclue les contributions des chercheurs leaders (sic) de ces sujets, et commence par une introduction basique du Modèle Standard et de ses extensions les plus probables. »

Dans ce livre toutes les cases étaient cochées. Tous les ‘là’ étaient censés avoir été identifiés. Il n’y avait aucune place pour une autre respiration de la pensée en physique des hautes énergies. 15 ans après, on essaye à la marge d’enrichir la trop maigre récolte de résultats scientifiques par quelques possibles qui auraient été oubliés.

‘Parmi tous les possibles’ cela signifie : lorsqu’un nouveau résultat de physique fondamentale est obtenu il ne doit pas être considéré comme autosuffisant, il faut plutôt maintenir l’esprit ouvert en considérant que le résultat obtenu peut représenter la partie émergée d’un iceberg d’influences, d’interactions qui encourage à conjecturer que nous ne pensons pas dans un système clos et que nous mettons plutôt en évidence l’étendue qui s’accroit d’un savoir dont nous venons d’en décrypter seulement une partie. Dans un article du 22/07/2019 : ‘Ai-je fait si fort’, j’ai tenté de rendre compte de la dimension anthropologique de ce processus.

Prenons pour exemple la cosmologie. Depuis plus de 30 ans on recherche les constituants de la matière noire qui doivent être présents dans l’univers, le nôtre, qui serait limité spatio-temporellement. Toute l’impressionnante énergie cérébrale dépensée depuis ce temps et tous les détecteurs plus sophistiqués les uns que les autres n’ont jamais donné le moindre signe de vraisemblance à cette hypothèse. Et pourtant, encore un très grand nombre de physiciens persiste à considérer qu’il n’y a pas d’autres alternatives. La phénoménologiste au CERN (Giulia Zanderighi) est aussi, encore, malgré tout, chargée de vérifier, entre autres, s’il y a des signatures possibles de matière noire supersymétrique enregistrées dans les détecteurs. On commence maintenant à supposer qu’en fait, des trous noirs, primordiaux ou pas, pourraient être des vecteurs de supplément d’interaction gravitationnelle dans l’univers que nous habitons. Ces trous noirs pourraient être des vestiges de bébés univers du multivers de notre univers. C’est par la force des choses, à cause de plus de trente années d’échecs retentissants, que l’on commence à considérer que notre univers ne serait pas fermé, limité, mais qu’il ferait partie d’un ensemble (ex : type multivers) que nous avons à conquérir intellectuellement pour constater grâce à des observations que nous habitons cet ensemble. C’est grâce à ce processus d’appropriation intellectuelle conduisant des expériences et/ou des observations que nous apprenons à franchir l’au-delà des connaissances acquises.

A des distances moins au grand large de cette belle aventure intellectuelle, il n’y a que trente ans que l’on a découvert les premières planètes en dehors de notre système solaire. On aurait pu se dire depuis Galilée (1564-1642), que tout système solaire, avec une bonne probabilité, doit comprendre des planètes gravitant comme celles autour de notre étoile. Ce n’est qu’une fois que nous avons posé notre pensée sur cette possibilité (c’est-à-dire récemment) que nous avons conçu des dispositifs observationnels très sensibles permettant d’identifier des exoplanètes. Les auteurs principaux de ces découvertes ont obtenu le prix Nobel en 2019. Aujourd’hui on en a identifié plus de 4000 et on peut conjecturer que dans notre galaxie il y a au total plus de 100 Milliards de planètes (gazeuses, telluriques, etc…). De là, imaginer que d’autres formes d’intelligence puissent exister dans notre Galaxie, c’est parfaitement sensé. Toutefois, on a devant nous de nombreuses étapes à franchir avant que nous-mêmes soyons en capacité d’identifier d’autres formes d’intelligence.

Historiquement, on a de beaux exemples qui montrent qu’Homo-Sapiens ne pourrait pas Être ce qu’il est et ce qu’il deviendra s’il n’était pas mû par la dynamique de repousser les frontières de la connaissance de son monde. Prenons l’exemple de l’avènement de la Relativité Générale (1915). Quelques mois après Karl Schwarzschild déduit une métrique en tant que solution partielle, particulière (symétrie sphérique), des équations d’Einstein. Cette métrique contient néanmoins un terme intriguant car il peut tendre vers l’infini si le terme au dénominateur tend vers zéro. Ne sachant pas trop quoi en faire à cette époque, on déclare que c’est une singularité mathématique, donc on la contourne, et grâce à cet évitement on recueille les premiers résultats prédits par la R.G. Plusieurs dizaines d’années après, cette singularité mathématique est qualifiée de singularité physique car on commence à comprendre que cette singularité pourrait signifier quelque chose au niveau physique et cela aboutira à rendre compte de l’objet physique céleste appelé trou noir. Ce n’est qu’en 2000 que le trou noir central de notre galaxie, avec 4 millions de fois la masse solaire, est scientifiquement officialisé en France par l’académie des sciences. Il est légitime de considérer que la très grande majorité des galaxies de notre univers (plusieurs centaines de milliards) ont en leur centre un trou noir. Et maintenant on sait qu’il y en a d’autres qui cheminent par paires dans l’univers. Depuis 2016, en toute certitude, on a détecté plusieurs dizaines de collisions de ces trous noirs. Malgré ces magnifiques résultats on est toujours plongé dans l’inconnu car la singularité est placée au centre du trou noir et qu’en est-il de la matière qui une fois qu’elle franchit l’horizon des événements ne peut, à cause de la force gravitationnelle croissante, que s’agglomérer au centre du trou noir. Qu’en est-il de la physique et de ses propriétés au centre du trou noir ? Présentement, la réponse obligée, mais insupportable, consiste à reconnaître que c’est la fin de la matière et de l’information qu’elle véhicule, bref la fin de la physique et de son discours.

Heureusement, grâce à des développements théoriques on commence à lever le voile et il est crédible de conjecturer qu’il n’y a pas obligatoirement une fin car avec les avancées de la théorie de la gravité quantique qui est encore en développement, la matière accrétée au sein du trou noir pourrait rebondir et réapparaître sous différentes formes. Des possibilités d’observations d’objets célestes nouveaux, témoins directs ou indirects, de ces rebonds, sont identifiées. Observations nouvelles parce que maintenant elles font sens. Les auteurs de ces articles récents qui avancent cette hypothèse d’une dynamique au cœur des trous noirs et non pas cette fin irrémédiable, expriment en même temps un soulagement, une jubilation et une victoire de la pensée dépassant l’idée d’une fin dans l’univers. Ceci a besoin d’être décanté mais la voie est ouverte. Si cette hypothèse fructifie, cela voudra dire que l’on commence à comprendre des structures de l’espace-temps à grande courbure engendrées par une force gravitationnelle très intense ainsi que ce qui peut en émerger. Les conséquences ne seraient pas banales car l’hypothèse des trous de ver déjà théorisée dans un article publié par Einstein et Rosen en 1935 pourrait devenir sérieusement concluante. Dans ce cas on saura cibler les régions de l’univers où on pourra observer au moins leurs effets. Un article d’un physicien Russe bien argumenté explique déjà quels sont, entre autres, les trois phénomènes observables que l’on pourra attribuer à la présence d’un trou de ver dans une région de l’univers.

 

 

[1] Voir livre, en français, de Sabine Hossenfelder : « Lost in maths ; comment la beauté égare la physique. »

[2] De ces centaines quelques dizaines au plus sont considérés comme significatifs.

Partager cet article
Repost0
1 décembre 2020 2 01 /12 /décembre /2020 11:01

Ça tourne autour du pot.

Actuellement je lis le livre de Daniel Sibony. ‘A la recherche de l’autre temps’. Octobre 2020, édit O. Jacob. Dans cet ouvrage, l’auteur exploite toutes ses ressources : mathématicien, physicien, théologien, psychanalyste qui expose des cas très parlants.  La préface à ce livre est signée Alain Connes qui nous dit principalement dans celle-ci : « Deux idées me sont chères concernant le ‘temps’, la première a trait au temps individuel, la seconde au temps de la physique… Quant au temps de la physique, ce que j’ai découvert c’est que ce n’est pas « le passage du temps » qui est la vraie origine de la « toute variabilité » des choses, mais une raison bien plus fascinante que j’appellerai « aléa quantique ». L’impossibilité, aussi bien théorique qu’expérimentale, de prédire ou de reproduire le résultat pourtant toujours univoque d’une expérience quantique qui reste gouvernée par le principe d’incertitude de Heisenberg et donne au quantique cette variabilité fondamentale.

L’interprétation de la mécanique quantique se heurte à un phénomène appelé « réduction du paquet d’ondes » qui n’obéit pas à l’équation de Schrödinger. Il nous faut comprendre que la variabilité quantique est plus fondamentale que le passage du temps, et réaliser en quel sens l’intrication quantique donne à l’aléa du quantique une cohérence cachée. » : « D. Sibony, par sa réflexion en profondeur sur le temps, nous ouvre grande les portes de cette pensée en devenir. »

Cette conviction, intuition, de A. Connes est reprise par Sibony, p150, « Cela confirme poétiquement une idée quantique d’Alain Connes à savoir qu’on perçoit le passage du temps du fait qu’on ne sait pas tout sur l’espace des observables. »

C’est depuis 2007 ou 2008, que je tente de suivre la réflexion de Connes à propos du temps. En effet à cette époque dans une conférence, à l’université de Metz, intitulée ‘Un espace non commutatif engendre son propre temps » au cours de laquelle, il avait exprimé ses réflexions basiques :

  • L’espace-temps est très légèrement non commutatif, en fait le point lui-même dans l’espace-temps n’est pas commutatif. Il a une toute petite structure interne qui est comme une petite clé. Le point a une dimension 0 au niveau de la métrique mais avec ma géométrie (non commutative) il a une structure interne et j’ai un espace de dimension 6 non commutatif
  • L’espace non commutatif tourne avec le temps et on peut lui faire subir des opérations thermodynamiques. Je ne pouvais pas m’empêcher de penser qu’il y avait un lien entre ce temps donné par la théorie et le temps ressenti de la physique.
  • Dans la symétrie pure, il y a quelque chose de mort, de glacé.
  • Une algèbre non commutative tourne avec le temps, (d’après le théorème de Tomita) c’est le seul endroit des mathématiques où il y a un élément d’imperfection.

J’avais déjà à cette époque développé mon hypothèse de la ‘Présence’ du sujet pensant inexpugnable et d’un temps propre du sujet (TpS) que j’avais évalué de l’ordre de 10-25s. Durant cet intervalle de temps le sujet pensant ne peut penser, c’est une durée irrémédiable et aveugle de l’intelligence humaine. C’est la succession des tic-tacs d’une horloge qui scande le temps mais entre un tic et un tac il n’y a pas de temps puisqu’il n’est pas mesurable. Il en est de même pour l’être réflexif, TpS c’est la durée de l’établissement de la présence du sujet pensant pour qu’il puisse déployer sa pensée. Donc selon mon hypothèse TpS est le point aveugle de l’intelligence humaine.

J’étais, dès 2007, très intéressé par les réflexions de Connes car selon mon point de vue j’inférai qu’il y avait convergence entre son point de dimension 0 mais ayant une structure interne avec la ‘Présence’ du sujet pensant qui génère TpS, ce temps propre assurant le fonctionnement du tic-tac qui égrène le temps du savoir des physiciens. Bref le point de dimension 0, ayant une structure interne selon Connes, je le vois habité de la ‘Présence’ de l’être réflexif. TpS est donc la cause de l’aléa quantique qui est selon Connes plus fondamental que le passage du temps.

Il me fallut attendre Mai 2015 à l’occasion du Colloque : ‘A la recherche du temps’, à l’académie des sciences pour savoir si A. Connes avait affiné sa réflexion sur le sujet. Grande, fut ma déception car il a fait un très bref exposé, de plus, essentiellement, hors du sujet programmé. A propos de ce qui était attendu, il s’est contenté de la déclaration sibylline suivante déconcertante : « l’aléa quantique est le tic-tac de l’horloge divine (sic) ». Je considère que ce genre de propos constitue une échappatoire, se référer au divin, c’est refuser de penser. Sauf que cela est assez fréquent chez les platoniciens[1] et d’un point de vue intellectuel ce n’est pas rassurant. R. Penrose que je cite dans la note de bas de page, fait aussi appel au divin pour esquiver les conséquences du théorème de Gödel, qui pourtant depuis 1930 a été plusieurs fois confirmé.

En désaccord avec l’esquive d’Alain Connes qui me navre, j’ai déjà affirmé dans un article du 02/11/2012 : « Synthèse : un Monde en ‘Présence’ », le tic-tac de l’horloge qui égrène le temps du savoir du sujet pensant témoigne de la ‘Présence’ de celui-ci qui est affecté d’un point aveugle à sa capacité de penser qui vaut de l’ordre de 10-25s ou moins. J’y vois là, la cause première de l’aléa quantique et sur ce sujet nos points de vue s’entrecroisent. L’article est toujours accessible sur Overblog, ainsi que tous les autres.

Un autre article publié dans ‘Nature’, le 9/01/2019 a apporté de l’eau à mon moulin. The Blind Spot’ ; ‘It’s tempting to think science gives a God’eye view of reality. But we forget the place of human experience at our peril’ soit : ‘La tache aveugle’; ‘Il est tentant de penser que la science donne la vue de l’œil de Dieu de la réalité. Mais, à notre péril, nous oublions la place de l’expérience humaine (sic).’ Les trois auteurs sont physiciens et/ou philosophes.

En rapport avec cet article, j’en ai posté deux : le 14/01/2019 : « The Blind Spot : La tache Aveugle » et le 22/01/2019 : « La Tache Aveugle commentée », je renvoie à ces articles détaillés dans lesquels, je précise les accords et les différences entre les points de vue respectifs. Je cite le dernier paragraphe qui résume l’intérêt évident que j’ai porté à la lecture de cet article : « Je le rappelle en anglais, puis la façon dont je l’ai traduite pour qu’il soit constaté que je ne force pas le trait (enfin, je l’espère). Ainsi je cite : « It’s also to embrace the hope that we can create a new scientific culture, in which we see ourselves both as an expression of nature and as a source of nature’s self-understanding. We need nothing less than a science nourished by this sensibility for humanity to flourish in the new millennium.” ; “Il faut aussi embrasser l'espoir que nous pouvons créer une nouvelle culture scientifique, dans laquelle nous nous considérons nous-mêmes à la fois comme une expression de la nature et comme une source de l'auto-compréhension de la nature. Nous n'avons besoin de rien de moins qu'une science nourrie par cette sensibilité pour que l'humanité s'épanouisse dans le nouveau millénaire(sic). »

Toutefois, je me suis rendu compte que ce genre de déclaration n’avait jamais de suite de la part des auteurs, c’était écrit pour provoquer un effet de chute d’un article, sans plus. Il n’y a aucune once de misanthropie à penser cela. Mais je n’ai jamais constaté, jusqu’à présent, que des auteurs de chutes semblables se soient, par la suite, attelés à l’épiphanie éventuelle de la science annoncée par leurs propos. A ce titre, je cite un texte, datant d’au moins 2012, de S. Hawking et L. Mlodinov : « Nous modélisons la réalité physique à partir de ce que nous voyons du monde, qui dépend de nous et de notre point de vue. Dès lors, un « réalisme dépendant du modèle » semble préférable au réalisme absolu habituel en physique. » … « Dans ces doctrines, le monde que nous connaissons est construit par l’esprit humain à partir de la matière brute des données sensorielles, et il est mis en forme par le cerveau. Ce point de vue semble difficile à accepter, mais pas à comprendre. S’agissant de notre perception du monde, il n’existe aucun moyen de supprimer l’observateur – c'est-à-dire nous. »

Depuis, je n’ai jamais eu l’occasion de lire une publication qui soit dans le prolongement de ces réflexions, à mes yeux, pleines de promesses.

Enfin en juin de cette année, j’ai découvert avec intérêt l’article suivant : « The Period of the Univers’s Clock » ; « La période de l’horloge de l’Univers », avec le sous-titre : « Des théoriciens ont déterminé 10-33seconde comme limite supérieure pour la période d’un oscillateur universel, ce qui pourrait aider à construire une théorie quantique de la gravité. »

            Ces auteurs considèrent que le temps est une propriété fondamentale de l’Univers, régie par un oscillateur qui interagit avec toute la matière et toute l’énergie. D’emblée on remarque que pour eux le temps est donné dans l’Univers, alors que pour moi celui-ci n’est pas donné, il est la marque de la ‘Présence’ du sujet cogitant cet Univers. Dans l’état actuel de nos connaissances, nos hypothèses fondamentalement différentes ne portent pas vraiment à conséquence. Ce qu’il y a d’essentiel c’est de reconnaître qu’il y a un tempo fondamental qui scande le temps dans l’univers, tel que nous le concevons, quelle qu’en soit la source, et de plus l’intervalle de temps ‘hors- sol’ de Planck est mis de côté. Autres différences dans nos hypothèses respectives, elles concernent l’appréciation de la valeur temporelle du tic-tac fondamental, pour eux au maximum c’est 10-33s, pour moi c’est de l’ordre 10-26-28s. A la lecture de leur article (voir article du 08/07/2020 sur mon blog) leur évaluation s’appuie sur des considérations techniques peut être plus circonstanciées que la mienne. Les contraintes sur mon évaluation sont faibles et si un jour ils obtiennent une mesure correspondante à leur évaluation théorique ou plus ou moins, je considèrerais que ce résultat sera une aubaine. A partir de ce résultat la question principale sera : quelle est la source ?

            Pour eux ce serait un champ scalaire qui imprègnerait l’univers comme le champ de Higgs. Pour moi cela serait l’indice fort de la ‘Présence’ du sujet pensant. Dans ce cas, il en résulte une interaction avec la matière, l’énergie, et les autres grandeurs physiques, puisque c’est le sujet pensant qui les détermine. La possibilité de trancher entre les deux hypothèses se trouverait, à mon sens, sur une expérience mettant en jeu l’intrication qui pourrait révéler le rôle de l’observateur, à cause de TpS, incapable de distinguer à l’origine les objets qui s’intriquent et à partir de cette situation d’incapacité intrinsèque de différencier la localisation spatio-temporelle celle-ci perdurant tout au long de la ligne de vol des objets.

            L’expérience consisterait à placer deux observateurs, d’une même intrication, dans deux référentiels dont l’un se déplacerait à une vitesse relative significative pour s’appuyer sur la propriété de la RR de la dilatation de l’intervalle de temps, extrêmement petit mais différent de zéro, intervenant au moment de la production de l’intrication. Si mon hypothèse est bonne, l’observateur en déplacement à vitesse significative ne constaterait pas d’intrication contrairement à l’autre au repos.

            Avant de terminer cet article, je vous propose quelques citations de D. Sibony, sélectionnées parce qu’elles illustrent en filigrane ce qui m’a conduit à opter pour l’hypothèse de la ‘Présence’ du sujet pensant à l’image d’une érection première de l’être réflexif comme a pu le concevoir S. Dehaene dans un article et que j’ai commenté dans l’article ‘Turing or not Turing’ du 05/01/2018. Cette option de la grande présence première, n’est pas celle de D. Sibony, pourtant à certain moment de l’exposition de ces réflexions il aurait pu le faire, mais non, il est resté au niveau de la ‘petite présence’, celle qui résulte de la conscience-concentration, moteur du train de la vie et de son ressenti.

            Page 15 : « Il y a du temps humain parce que deux sujets veulent parler et ne peuvent le faire à la fois, il faut un écart (sic) qui lui demande du temps, par exemple celui de l’écoute ou du refus (au minimum 1/3 de seconde). Il y a du temps parce qu’on ne voit pas tout d’un seul coup, il faut parcourir d’un bout à l’autre le paysage ou la page. Il faut du temps parce qu’il n’y a pas tout. » : p38 : « Quant à l’« insaisissable » du présent, il faut rester calme : « saisir l’instant présent », ce serait quoi ? l’instant présent entre nous, là dans cette réunion, vient de passer mais il reste une instance assez présente. Le présent semble rester présent un certain temps, le temps qu’une présence se transforme. Ce qui est sûr, c’est qu’on n’a pas, pour le futur et le passé l’équivalent de la présence pour le présent, présence qui assure son apparente continuité. » p42 : « Tous ces repères comme tendre, tenter, tensité, nous ramènent au passage du temps, qui semble assez étrange ; et les remarques qui suivent peuvent le paraître aussi lorsqu’elles cherchent à préciser une intuition commune selon laquelle nous passons beaucoup de temps entre le passé rémanent et le futur anticipé, le tout sous le signe de la présence. » A ce stade du propos de Sibony je souhaite le commenter car ce qu’il dit n’est pas banal : le tout sous…, disant inconsciemment (c’est intéressant de la part d’un psychanalyste) que la présence est au-dessus du tout, comme un phare qui éclaire ce tout. Voilà pourquoi elle doit être signifiée avec un P majuscule puisqu’elle s’est érigée une fois pour toutes. Cette ‘Présence’ est évidemment selon moi, authentiquement universelle, absolument établie, plus déterminante et signifiante que la conscience.

            Page224 : « On peut dire qu’être et temps sont intriqués sans qu’on puisse dire lequel des deux a commencé ; ils forment un entre-deux dynamique. Le temps est un rapport au possible (sic) donc un rapport à l’être, et par là même au hasard absolu… J’acquiesce donc à la formule d’Alain Connes : « l’aléa du quantique est le tic-tac de l’horloge divine. », car le temps prélevé dans le phénomène quantique est au fond prélevé dans l’infini des possibles (sic), dans l’absolue variabilité et le hasard irréductible. »

 

 

[1] Autre platonicien notable, qui a reçu le prix Nobel cette année 2020, Roger Penrose : La vérité mathématique est quelque chose qui va au-delà du simple formalisme. Il y a quelque chose d’absolu et de « divin » dans la vérité mathématique. C’est ce dont il est question dans le platonisme mathématique. La vérité mathématique réelle va au-delà des constructions fabriquées par l’homme. »


 
 
Partager cet article
Repost0
15 novembre 2020 7 15 /11 /novembre /2020 15:33

Cause et effet se superposent.

            Dans l’article précédent : « Quantique », j’ai évoqué la même expérience qui a été réalisée à Vienne et à Brisbane avec trois années d’intervalle qui nous indique que la relation de cause à effet, peut être soumise à la propriété quantique de superposition. En conséquence avec la superposition d’ordres causaux obtenus : chacun est à la fois l’effet et la cause de l’autre. Une sérieuse brèche est ouverte à l’égard de notre logique habituelle si prégnante ! Comment interpréter ce résultat ? Que faire de ce résultat ?

            Avec l’évocation des conclusions de cette expérience renversante, j’ai rappelé qu’en 2015 j’avais commis un article : « Principe de causalité : construction de l’esprit ou loi de la nature ? » dans lequel j’affirme : « En résumé, je propose de considérer que le principe de causalité est un principe sélectionné, élaboré, témoin de l’intelligence humaine embryonnaire, sélection et élaboration qui ont été validées au cours d’un processus empirique et conduisant à la capacité de survivance. Ce principe ne serait donc pas dans la Nature, il correspondrait à une spécialisation sélective de l’intelligence humaine qui doit être franchement identifiée comme telle pour être prise en compte voire être dépassée. Ce principe doit être considéré comme une détermination véhiculée par l’intelligence humaine actuelle. »

            Si nous sommes à un carrefour qui nous signale qu’il y a une voie nouvelle possible à emprunter, plus riche, pour décrypter les lois de la nature, il est certainement approprié de revisiter comment, globalement, dans l’histoire de la pensée, ce sujet de la causalité a déjà été débattu. Je ne remonte pas, dans cet article, jusqu’à Platon et Aristote mais rappelle que G. Bachelard (1884-1962) soulignait qu’il y avait maldonne. Et que le malentendu tenait en définitive à la notion de causalité « naturelle » acceptée par la pensée occidentale depuis ses premiers pas scientifiques. Le principe de causalité a constamment oscillé entre deux positions : soit inscrire ce schéma dans la nature (Locke (1632-1704)) soit en faire un schéma de la pensée humaine (Hume (1711-1776), Kant (1724-1804)). Aujourd’hui nous sommes contraints de reconnaître qu’en réalité notre science est limitée par la manière que nous avons de nous y prendre. Nous devons nous y faire[1] : « Nous n’occuperons jamais par rapport à l’univers la place que nous imaginons être celle de Dieu. Nous déterminons[2] – c’est-à-dire délimitons et façonnons – les phénomènes que nous étudions en fonction de nos connaissances acquises et des moyens dont nous disposons. Nous ne découvrons donc pas « les lois de la nature » mais nous énonçons des « lois physiques » - les lois de notre (sic) physique – qui toujours, ont prélevé sur le réel, à des échelles différentes, la part qui nous en semble accessible. Le principe général, selon lequel à tout effet naturel on doit trouver une cause naturelle, se spécifie selon le type des réalités auxquelles nous avons à faire. Il n’y a pas dès lors à s’étonner que nous puissions former l’idée de différents modes de causalité. Et il y a lieu de se réjouir que nous puissions toujours en découvrir de nouveaux. C’est ce qu’on appelle le « progrès » scientifique.

            Il y aurait sans doute lieu de rendre toute sa force à la formule de Baruch Spinoza (1635-1677) « Cause c’est – à – dire raison » : ce que nous identifions comme « cause » n’est jamais que ce qui satisfait la rationalité scientifique à un moment donné, en fonction des instruments dont elle dispose et des objets qu’elle se donne. »

            En effet la raison procède de la causalité. Cette citation de Spinoza m’offre naturellement un trait d’union entre ce paragraphe où je cite D. Lecourt et que je cosigne sans retenu, et le paragraphe suivant que je consacre aux travaux d’Hilary Putnam[3] dans ce tiré à part de 1992 : « Pourquoi ne peut-on pas ‘naturaliser’ la raison. »

            En résumé : « Comme Wittgenstein, Putnam pose que le monde a une réalité immédiate qu’il serait vain de contester, mais que ce monde n’existe pour nous que dans la mesure où nous le saisissons au moyen de jeux de langage concrets. Si on découvre dans le monde des régularités, celles-ci sont donc plus le fait de nos grammaires – pris dans une acception large – qu’une propriété du monde – ce sont les phénomènes réguliers qui sont dans le monde, non la régularité. Vouloir chercher la raison dans le monde, dans la nature – fût-elle humaine ou sociale ainsi que le laissent entendre certaines sciences douces -, c’est la perdre à tout coup, et comprendre le monde ce n’est pas découvrir les structures, mais suivre, respecter et appliquer, de manière réfléchie, des règles d’intelligibilité – mettre en œuvre, autrement dit, une disposition raisonnable… »

            Avec cette rétrospective historique succincte on constate que ce sujet est un sujet de premier ordre, toujours à l’ordre du jour. Sujet de premier ordre, pas uniquement pour les épistémologues et philosophes des sciences car il fut au centre des débats scientifiques, de niveaux jamais réatteints depuis, entre Einstein et Bohr, à propos, entre autres, des propriétés de l’intrication. L’explication et l’interprétation purement quantiques de Bohr pour rendre compte de l’expérience de pensée qui a conduit à la découverte du phénomène de l’intrication est totalement inacceptable pour Einstein parce qu’il comprend que cela demande, fondamentalement, d’accepter la rupture de la chaîne de causalité. Le refus qu’une : « action fantôme », comme il la désigne, puisse rompre la logique, qui nous imprègne et qui est l’outil essentiel du raisonnement scientifique de la physique classique, qu’il n’y a pas d’effet sans cause identifiable, est totalement inacceptable. En conséquence son hypothèse impérative des variables cachées devait combler la faille créée par une explication purement quantique donc incomplète de l’intrication. N’oublions pas que les deux joyaux de l’intelligence einsteinienne : La Relativité Restreinte et la Relativité Générale sont des stricts vecteurs du raisonnement basique : il n’y a pas d’effet sans cause. Ainsi le précepte : aucune information ne peut être transportée à une vitesse supérieure à celle de la lumière procède de la contrainte dictée par le respect de la chaîne de causalité.

Dans l’article de 2015, j’ai conclu que le principe de causalité est une conception de l’esprit, qu’il est un principe sélectionné, élaboré, bref, qui ne peut être naturalisé. Est-ce que le résultat de l’expérience quantique apporte une preuve expérimentale de ma conclusion ? Si j’étais affirmatif, ce serait de ma part aller bien vite en besogne. Par contre, il est légitime d’affirmer que l’interprétation traditionnelle de la chaîne de causalité : une cause précède toujours un effet et il n’y a pas d’effet sans cause, correspond à une interprétation rigide, sans degré de liberté, qui ne se justifie pas au regard du résultat quantique car à l’échelle de la mécanique quantique transparaît une indétermination causale, une ambiguïté causale, expérimentalement observable. Le fait que sur un même qubit[4] il soit possible de superposer à la fois l’effet et la cause d’un évènement qui l’a induit, c’est-à-dire introduire de la simultanéité éventuelle entre effet et cause, comme peut l’être le spin ½ et -½ d’un électron nous indique que la chaîne de causalité est sujette à l’introduction de degrés de liberté au niveau quantique. Que la causalité puisse être manipulée par le sujet pensant avec ses technologies, pourrait laisser considérer que la causalité est un objet du sujet pensant. Mais là encore ce serait aller vite en besogne. Il faut envisager que dans un futur proche, grâce aux propriétés de la mécanique quantique et avec de nouvelles expériences pratiquées nous serons en mesure d’approfondir cette problématique.

Dans cette dernière partie de l’article j’essaie de prévoir les conséquences de ma conviction : la causalité est une conception de l’esprit[5]. C’est une conception très, très, déterminante chez le physicien d’autant que les deux lois principales classiques conquises au début du 20e siècle, toujours actuellement confirmées, sont de véritables vecteurs de la chaîne de causalité. Et la mécanique quantique a, dans la période de sa fondation, a rompu avec la notion de déterminisme mais elle a âprement discuté celle de causalité[6]. De ces affirmations fortes, proposées dans la note 6, en contrepartie, il faut prendre en compte une position plus que nuancée de Bohr qui selon lui : « Le principe de causalité s’identifie selon les cas aux lois de conservation ou à l’évolution strictement déterminée de la fonction d’onde dans le temps dès lors qu’aucune mesure n’est effectuée. Tant que l’on ne procède à aucune mesure, la description est causale ; dès lors que l’on relie le formalisme aux résultats des mesures effectuées, la description n’est plus causale. » C’est-à-dire que la pleine applicabilité de la loi de la causalité aux résultats de la mesure n’est pas possible.

On peut dire qu’avec l’avènement de la mécanique quantique une brèche interprétative de l’exploitation de la chaîne de causalité a été introduite mais au-delà de la conception de Bohr elle n’a pas proliféré, au contraire : il suffit de lire le livre : ‘Le réel voilé : analyse des concepts quantiques’ de B. D’Espagnat (1994) pour apprécier à quel point, même voilée, la causalité est toujours exploitée, indispensable, pour interpréter les phénomènes quantiques. En conséquence investir intellectuellement la nature autrement qu’à travers le prisme de la causalité est une véritable gageure.

Etant donné cette profonde détermination, une grande partie des propriétés de la nature qui n’est pas régie par la loi de la causalité nous est totalement transparente. Par exemple, notre connaissance actuelle de ce que nous nommons l’univers est condensée dans ce que l’on appelle le Modèle Standard de la Cosmologie. Celui-ci résulte de l’exploitation pleine et entière de la Relativité Restreinte (RR) et de la Relativité Générale (RG) dont leur A.D.N respectif est la causalité. In fine, nos connaissances sur l’univers se résument a : 4 à 5% de matière baryonique dont de l’ordre de 40% n’a toujours pas été observée et 96 à 95% de composants noirs c’est-à-dire obscurs à notre entendement. Jusqu’à présent inobservable malgré les moyens techniques extraordinaire déployés mais comme notre pensée théorique n’est pas bien placée, depuis 1980, tout ce que nous avons tenté d’inférer pour lever le voile sur cette proportion impressionnante qui nous est obscure n’a jamais aboutie. Toutes ces tentatives ont été réalisées en exploitant toujours les mêmes outils théoriques que sont la R.R. et la R.G. Disons-le, nous sommes dans une situation dramatique, on attend ‘Godot’. De plus notre rationalité causale nous a conduit à inventer une origine à cet univers avec une phase primordiale cousue main qui s’effrite au fur et à mesure que des observations de plus en plus pointues sont réalisées.

Il en est de même avec la propriété de l’intrication, nous sommes dans l’incapacité d’ouvrir la boite noire de cette propriété, puisque, entre autres, la RR nous dicte que la vitesse de la lumière est indépassable et nous n’avons pas élucidé, pour l’instant, un autre mode de lecture de la propriété d’intrication. Nous clamons donc que l’intrication révèle le caractère non local de la mécanique quantique. Jusqu’à présent, il n’en n’a pas été conjecturé pour autant que la nécessité de localiser dans l’espace-temps était une nécessité univoque de l’observateur, donc une propriété du sujet pensant. Tant que l’on refusera de discriminer les propriétés que l’on attribue à la nature, alors qu’elles ne sont que les projections de propriétés qui nous sont propres en tant que sujet pensant ‘Présent’ dans le monde, de celles qui seraient propres à la nature, nous ne pourrons pas franchir le ‘Rubicon’ qui nous permettra de sortir du tunnel de la pensée en panne de lumière. Pourtant, si on considère que l’espace et le temps ne sont pas donnés dans la nature mais sont des propres de l’homme ont peut rendre compte des propriétés de l’intrication. Mais l’illusion que le physicien est un sujet absolument objectif, puisqu’il considère que son discours ne comprend que des éléments et composants qui sont extérieurs à son être cogitant, éduqué à cette pensée il ne peut admettre que l’espace et le temps seraient des témoins de sa contribution au développement de son discours scientifique. J’ai pensé, qu’a priori, ce sujet pouvait être discuté avec C. Rovelli car, pour lui, avec sa théorie de la gravité quantique, le temps n’est pas fondamental mais émerge et l’espace-temps est subordonné au champ gravitationnel qui, lui, est absolument fondamental : Eh bien, que nenni !

Nous n’avons aucun début de compréhension de l’intrication ; dans les technologies, aujourd’hui, à la pointe des nouveautés, on l’utilise largement et ceci est engagée depuis une quinzaine d’années, notamment pour les besoins de la cryptographie, entre autres. L’engouement pour exploiter les propriétés de l’intrication n’est pas près de se tarir. Plus elle sera à la source de nouveautés technologiques, moins l’envie d’élucider la théorie explicative sous-jacente sera entretenue. Ce sera l’étape du ‘calcule et tais-toi’ qui prendra finalement le pas. C’est ainsi, comme on a déjà pu le constater.

Si on observe bien les choses, il est malheureusement désagréable de constater que nous quittons l’ère de la pensée pour comprendre la nature, et c’est l’ère de la technologie qui s’impose comme substitut à la défaillance de la confiance, en sa propre pensée, du sujet pensant physicien. Peut-être est-ce l’ère d’une grande paresse intellectuelle redoutable qui s’ouvre. Personnellement, j’ai vécu une première alerte de cette problématique avec l’avènement du LHC au Cern, à Genève (voir article du 16/01/2016 : ‘Et si notre pensée était mal placée.’). Dans ce sens je me permets de citer F. Combes qui termine un article dans ‘Pour la Science’ du mois de Novembre : « Ces résultats sont fantastiques et s’accompagnent d’une compréhension plus fine de l’Univers. Certes, il reste encore de nombreuses questions fondamentales. Mais de nouveaux instruments, très puissants, scrutent déjà le ciel ou le feront bientôt. C’est le cas des satellites Euclid et du James-Webb télescope, de l’observatoire Vera-Rubin (LSST) ou l’Extremely Large Telescope, au Chili, sans parler des radiotélescopes SKA ou Alma, également au Chili. Nous avons beaucoup de chance de vivre à cette époque pour trouver des réponses aux mystères de l’Univers. » Cette citation est vraiment dans la continuité de ses cours successifs au Collège de France dans lesquels elle pouvait terminer une séance avec un dernier commentaire : « Perspective », puis uniquement lister des matériels qui allaient répondre à cette perspective.

Je recite : « Au sein d’une éternité, parmi tous les possibles… », la causalité, évidemment, doit être inclue en tant que moyen possible pour décrypter les phénomènes et les lois de la nature, mais je suis convaincu que la nature ne peut pas être décrite exhaustivement en exploitant uniquement ce moyen. Elle peut répondre et nous offrir des réponses différentes, plus riches, franchement nouvelles, en exploitant d’autres moyens de lecture.  

 

[1] Dominique Lecourt, p148, dans le ‘Dictionnaire d’histoire et philosophie des sciences’

[2] Je partage totalement l’usage du verbe : déterminer, par D. Lecourt car cela correspond à ma conception du sujet pensant qui est un être déterminé, il n’est pas un être universel, il véhicule avec lui, des points aveugles, des déterminations, qui résultent de son évolution de son état originel : être de la nature, à celui sans cesse en cours d’être dans la nature. C’est-à-dire sans cesse en cours de s’élever sur le socle de l’être dans la nature, de l’observateur qui délimite et façonne progressivement moindrement les phénomènes qu’il étudie.

[3] 1926-2016, Il est une figure centrale de la philosophie occidentale à partir des années 1960, particulièrement en philosophie de l'esprit, du langage et des sciences dures.

[4] Un qubit possède deux états de base (vecteurs propres), nommés par convention, et par analogie avec le bit classique, I0> et I1 >{\displaystyle \left|0\right\rangle }{\displaystyle \left|1\right\rangle } (prononcés : ket 0 et ket 1). Alors qu'un bit classique est numérique et a toujours pour valeur soit 0 soit 1, l'état d'un qubit est une superposition quantique linéaire de ses deux états de base,

[5] Il existe une autre voie intéressante et scientifique visant à élucider cette problématique, c’est la voie des neurosciences et je renvoie à l’article que j’ai publié du 24/03/2013 : « Scientifiques, façonnés dès la naissance ? » En effet, à cette époque, au cours d’un de ses séminaires S. Dehaene avait traité ce sujet et cela m’avait servi de point d’appui pour affiner ma réflexion personnelle. Je rappelle que tous les séminaires sont enregistrés et accessibles rétroactivement sur la base de données du C.de F.

[6] Dans : ‘Les fondements philosophiques de la mécanique quantique’ 1996, édit. J Vrin : Heisenberg, conférence du 17/09/1934 : « Car il nous est absolument impossible de communiquer le déroulement et le résultat d’une mesure autrement qu’en décrivant les manipulations et les lectures de cotes nécessaires pour cela comme des processus objectifs qui se jouent dans l’espace et dans le temps de notre intuition, et nous ne pourrions pas déduire d’un résultat de mesure les propriétés de l’objet observé si le principe de causalité ne garantissait pas une corrélation univoque entre les deux.  

De Grete Hermann (1901-1984), dans le même ouvrage : « La causalité sans lacune, illimitée, n’est pas seulement conciliable avec la mécanique quantique mais, comme on peut le prouver, elle est même présupposée par cette dernière »

Partager cet article
Repost0
4 novembre 2020 3 04 /11 /novembre /2020 11:24

Quantique

            ‘Quantique’, tel est le titre du N° Hors-Série d’Octobre de ‘Science et Vie’, avec les sous-titres qui en (pré)disent long sur les ambitions de ce N° : « Le nouvel âge d’or » ; « Comment les physiciens réinventent le monde ». 

            En effet ce N° relate le foisonnement d’interprétations de la mécanique quantique, les perspectives en vue des applications futures qui, selon N. Gisin : « Je pense que les technologies quantiques vont changer le monde, et que le meilleur reste à inventer. » Il est remarquable de constater que la mécanique quantique se prête toujours à des interprétations multiples parce que la fonction d’onde, et conséquemment sa réduction, est depuis le début de son invention chargée d’indéfinitions. Il est impressionnant de constater qu’un corpus théorique aussi prolifique puisse toujours se prêter, après un siècle d’applications, à des extensions d’interprétations aussi multiples qui n’aboutissent pas mais quand même laissent prévoir des nouvelles énigmes tout autant que des nouveaux chemins de connaissances scientifiques. ‘Science et Vie’ a tenté, dans ce N° patchwork d’être le plus exhaustif possible de ce foisonnement. Après un gros mal de tête à la fin de cette lecture, j’ai décidé de n’évoquer que les points qui font sens pour mon propre compte, parce que cela concerne des thèmes pour lesquels j’ai déjà engagé une réflexion, ou bien sur des thèmes nouveaux qui ouvrent des nouvelles promesses. Je me propose de vous les faire partager mais c’est encore mieux de lire directement et… entièrement ce numéro qui bouscule.

            Pour commencer, je propose de citer Serge Haroche qui vient de commettre un livre, qui raconte son parcours personnel de physicien, avec le titre : « La Lumière révélée’, édit. O. Jacob, (à lire). A la page 44, à propos de l’expression qui concerne l’attitude controversée de certains physiciens avec leurs étudiants et leurs doctorants à propos de la mécanique quantique, ‘tais-toi et calcule’, S. Haroche préconise : « Je pense qu’il est sans doute plus efficace de commencer par « tais-toi et calcule » avant d’aborder des questions qui n’auront jamais de réponses définitives (sic) dans nos cerveaux câblés par l’évolution darwinienne pour comprendre intuitivement le monde des objets macroscopiques et pas celui des atomes ou des photons. » Je suis en désaccord avec ce pessimisme de Haroche, voir mon article du 26/09/2015 : ‘Non, on ne pense pas quantique. Pas encore !’ car nos cerveaux ne sont pas câblés définitivement et à force de nous frotter intellectuellement à la mécanique quantique, progressivement, nous finirons par penser quantique. Je rencontre une belle confirmation de mon optimisme scientifique en lisant, dans le N° de Science et Vie, p 109, John Martinis, physicien, ex-responsable du développement de l’ordinateur quantique chez Google : « Certes, la quantique est bizarre, mais quand on utilise un ordinateur quantique, ça finit par devenir naturel (sic). Le cerveau s’adapte. »

            Avant de me concentrer sur le dossier de fond de Sc. et Vie, je veux exprimer ma satisfaction de rencontrer dans celui-ci la rigueur intellectuelle qui avait fait, à mes yeux, lourdement défaut dans le N° hors-série de ‘Pour la Science’ (voir article du 05/05/2020) en mélangeant les fondements de la mécanique quantique de l’Ecole de Copenhague avec la physique ondulatoire qui est un atavisme bien Français. Cette rigueur intellectuelle nous la lisons p98 : « Et pour cause, avec la mécanique quantique, un même objet, onde ou particule, semble pouvoir être tour à tour une chose et son contraire… »

            Parmi les nombreux questionnements posés par la mécanique quantique, je vous propose de nous concentrer, page 80, ‘Une effervescence incroyable’, sur le questionnement révélé par cette percée aux confins de la quantique : la relation de cause à effet, principe pourtant fondamental de la science (et du bon sens) peut être soumise à la propriété quantique de superposition ! Tout comme une particule (électron, atome, photon…) peut avoir une infinité d’états, de positions, ou de trajectoires, cause et effet peuvent être superposés (sic) ! Ce sont trois théoriciens, qui ont, les premiers, eut l’idée d’appliquer la superposition quantique à la relation de cause à effet : en 2012, ils proposent une généralisation du formalisme quantique dans laquelle aucune hypothèse est faite sur cet ordre causal, juste histoire d’observer ce qui se passe… Résultat : ils découvrent des configurations étranges dans lesquelles, justement, cet ordre apparaît indéterminé. Autant de configurations qui ont, quelques années plus tard été observées en laboratoire !

            L’expérience, qui a été réalisée successivement à Vienne il y a cinq ans, puis à Brisbane, il y a trois ans, se présente comme un circuit photonique quantique, où l’ordre des opérations est contrôlé par un état quantique (ou qubit de contrôle) : si ce qubit est préparé dans l’état 0, il va diriger les informations d’abord vers A, qui les enverra ensuite vers B. Mais s’il est préparé dans l’état 1, il va diriger les informations vers B, qui les enverra alors vers A… Sauf que ce qubit de contrôle, justement, est placé dans un état de superposition : il prend à la fois les valeurs 0 et 1 ! Les informations sont donc à la fois dirigées vers A puis B, et en même temps vers B puis A. En bref, il y a une superposition d’ordres causaux : chacun est à la fois l’effet et la cause de l’autre. La logique usuelle est balayée.

Voilà qui ouvre un gouffre ! Un gouffre qui pourrait être un pont reliant enfin la quantique à la relativité, le Graal des physiciens (lire p. 90).

Je suis très heureux de retrouver ce sujet car je l’ai déjà traité, il y a plusieurs années, dans l’article du 10/11/2015 : ‘Principe de causalité : construction de l’esprit ou loi de la nature ?’, dans lequel j’affirme : « En résumé, je propose de considérer que le principe de causalité est un principe sélectionné, élaboré, témoin de l’intelligence humaine embryonnaire, sélection et élaboration qui ont été validées au cours d’un processus empirique et conduisant à la capacité de survivance. Ce principe ne serait donc pas dans la Nature, il correspondrait à une spécialisation sélective de l’intelligence humaine qui doit être franchement identifiée pour être prise en compte voire être dépassée. Ce principe doit être considéré comme une détermination véhiculée par l’intelligence humaine actuelle. »

Quant à mon article du 03/07/2017 : ‘Comment la ruse quantique peut brouiller cause et effet’, j’évoque pleinement l’expérience (que je cite déjà le 10/11/2015) citée dans Sc. et Vie et j’ai mis particulièrement en exergue une des conclusions proprement renversante des expérimentateurs : « … en mécanique quantique, ce n’est pas exactement ce que vous faites qui importe, mais ce que vous savez. »

Je me souviens que quelques semaines après, j’ai rencontré un éminent physicien à Genève dans son labo et lorsque j’ai évoqué ce sujet, il l’a broyé en affirmant du haut de son autorité que c’était de la com. et certainement pas de la science. Je suis resté sans voix.

Autre question radicalement nouvelle posée, page 82, que je ne développe pas car vraiment abscons mais qui conclut « qu’une place est donné à l’observateur, celui-ci n’est plus extérieur à la théorie qui décrit le monde. Abolissant la frontière jusque-là infranchissable entre la nature et celui qui la regarde. »

Selon moi, il n’y a pas à développer une théorie supplémentaire abscons pour arriver à cette conclusion. Avec mon hypothèse de l’intelligence humaine qui est déterminé à cause de sa relation des plus intimes avec la nature qui par là même conditionne son évolution, de facto l’être humain, observateur, est dans le monde qu’il cherche à décrire. Cette idée est parfaitement concomitante avec ma thèse que l’être humain est à la fois un être de la nature et un être dans la nature. Ce qui me réjouit c’est que pour la première fois, cette même idée se trouve être, ici, exposée par un chemin différent, scientifique, très différent ! Grâce à mon hypothèse, je peux extraire, parmi d’autres, deux données déterminantes qui abolissent la frontière entre la nature et celui qui la pense. Celles-ci comprennent ce que j’ai identifié comme étant le ‘Temps propre du Sujet’ (TpS) de l’ordre de 10-26 à -28s voire moindre[1], puis la conviction que le temps est un propre de l’Homme et en conséquence il n’est pas donné dans la nature mais il est la confirmation de la ‘Présence’ du sujet pensant dans la nature. A cet égard, je cite un propos de N. Gisin rapporté dans Sc. et Vie, p.108 : « Mais dire que le temps n’est qu’illusion, c’est terrifiant (sic). Il faut raconter des choses plus belles. La science, c’est aussi savoir raconter des histoires. » Je ne sais que penser de cette réflexion dramatique de Gisin qui me paraît opportuniste car au cours d’une rencontre, après avoir ensemble identifié des points de convergences sur ce sujet, et à l’occasion de la sortie du livre au titre explicite : ‘Your Brain Is a Time Machine’ ; ‘The Neuroscience and Physics of Time’, de Dean Buonomano, en 2017, lorsque je lui ai proposé d’écrire un premier article sur ce sujet, il s’est immédiatement rétracté, arguant qu’il était un physicien surchargé de travail (sic).

Enfin, je cite un troisième exemple produit par cette incroyable effervescence : « La troisième révélation, enfin, est peut-être la plus fascinante : elle concerne l’intrication, cette propriété quantique qui lie deux particules comme si elles ne faisaient qu’une, quelle que soit la distance qui les sépare, comme si l’espace n’existait pas. Toute mesure sur l’une affecte simultanément l’état de l’autre, aussi éloignée soit-elle de la première. Ces liens ont été maintes prouvés par l’expérience. Mais depuis quelques années, des chercheurs dévoilent qu’ils sont plus intenses encore qu’imaginés. Il existe des intrications plus que quantiques ! Car cette ubiquité peut être quantifiée. Cela découle directement du fameux théorème de Bell : dans un monde classique, où tous les objets sont parfaitement localisés et indépendants, ce théorème prévoit que la corrélation entre deux particules est toujours inférieure ou égale à 2 (l’intrication est nulle). Mais dans un monde quantique, ou des particules peuvent s’intriquer, cette intensité devient ‘plus que classique’ et peut s’élever à 22. Ces valeurs ne quantifient pas une force, au sens de force de gravité ou force magnétique, mais plutôt une quantité de non-localité (sic) entre particules. Sauf qu’aujourd’hui les physiciens de la théorie quantique réalisent que, théoriquement, rien ne s’oppose à ce que cette non-localité dépasse cette valeur de 2,83. Les chercheurs ont même prouvé qu’il est possible d’aller jusqu’à 4 ! Ce qui veut dire qu’entre 22  et 4, il existe – du moins sur le papier – des corrélations ‘plus que quantique’…

Avant de terminer de faire référence à ce N° Hors-Série, je veux citer le Physicien Robert Spekken, du Perimeter Institute : « Je suis convaincu que la fonction d’onde décrit un état (parmi d’autres) de la connaissance que nous avons de la réalité. » Vous comprenez qu’avec cette conviction de R. Spekken on entend aussi : « … parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance de l’univers. » Aucune théorie physique ne peut nous permettre de décrypter valablement les lois de la nature si elle ne situe pas la place et la contribution de l’intelligence humaine qui ne cesse de s’émanciper de ses origines d’être de la nature pour atteindre l’idéal de l’être dans la nature. Cette dynamique, qui n’a pas de fin et qui évidemment contredit l’affirmation de court terme de S. Haroche, situe l’enjeu des développements à venir de notre connaissance de ce qu’est naturellement la nature. Au cours de la lecture de ce N), j’ai rencontré des tentatives multiples de définition de la : Réalité, et beaucoup d’interrogations à son sujet. Pour moi : la Réalité, c’est ce qui nous conduit à des confrontations avec des événements et des phénomènes naturels. Ces confrontations n’ont pas et n’auront pas de limites parce que chacune des confrontations traitées, accroît notre capacité de nous interroger sur de nouvelles.  

 

[1] Pour la première fois, j’ai rencontré une publication le 19/06/2020 qui fait fi du temps de Planck et les auteurs conjecturent d’un battement fondamental de 10-33s, maximal dans l’univers. Cette publication laisse présager qu’il y a un pont de convergence avec mon hypothèse et celle des auteurs. Voir article du 08/07/2020.

Partager cet article
Repost0
28 octobre 2020 3 28 /10 /octobre /2020 09:03

Pensée unique en physique. Est-ce possible ?

J’ai sélectionné les quelques pages de 142 à 148 du nouveau livre de Jean Pierre Luminet : « L’écume de l’espace-temps », édit : O. Jacob, dont je conseille la lecture. Ces quelques pages illustrent des dérives qui deviennent de plus en plus fréquentes dans le domaine de la recherche. Ces dérives sont souvent dues à la recherche d’une notoriété rapide, à la pression de la recherche de moyens financiers, et puis surtout à cause de la faible consistance du modèle théorique tel que celui qui veut rendre compte de l’émergence de l’univers. A partir de là, de grosses bêtises sont possibles. L’exemple de la dérive, très contemporaine, relatée par J.P. Luminet est aussi authentiquement illustrative des risques que représentent un fonctionnement ‘corporatiste’ de la communauté scientifique. A un certain niveau ceci a déjà été dénoncé par Lee Smolin à propos de la tyrannie des adeptes de la Théorie des Cordes car il fut un temps pendant lequel de jeunes thésards devaient impérativement faire une thèse sur ce sujet pour être recrutés dans un laboratoire sinon ils devaient aller voir ailleurs. Plus récemment Sabine Hossenfelder, à un autre niveau, avec son livre ‘Lost in Maths’ ; ‘Comment la beauté égare la physique’, avait montré « que la plupart des physiciens décrètent des modèles, développent des théories stupéfiantes qui sont tout bonnement invérifiables, résultat : la discipline est aujourd’hui dans l’impasse. » (Voir article du : 09/07/2019 : ‘Un début de démystification.’

Cette période d’errance théorique qui commence sérieusement à durer est peut-être le symptôme d’un changement d’ère radical de la recherche en physique dans le sens où les sujets que l’on traite actuellement sont très pointus, très complexes, et il n’est plus possible d’envisager qu’une seule et même théorie puisse embrasser la totalité d’un sujet voire d’un objet de l’univers. A l’ère des théories et des modèles forgés se substituent l’ère de la technologie qui nous permet de construire des instruments d’observation si performants qu’ils nous font voir concrètement plus que ce que notre propre pensée ne peut embrasser[1]. On le constate lorsque l’on tente de reproduire, de simuler, ce que l’on a observé, et bien, on fait appel, on combine empiriquement plusieurs ‘corpus théorique’ simultanément pour tenter d’être au plus près de ce que l’on a observé. Je prends comme exemple la simulation de la collision multi-message des deux étoiles à neutrons du 17/08/2017, simulation qui réussit à calquer effectivement ce qui a été observé parce que l’équipe d’astrophysiciens auteur : « … a considéré parmi différentes choses, la théorie de la relativité, les lois des gaz, des champs magnétiques, de la physique nucléaire, et les effets des neutrinos. » (Voir article de Phys.Org, du 21/10/2020: « Improved model shows gamma rays and gold at merging neutron stars”

Citons, page 142, J.P. Luminet : « Les critiques contre l’inflation ne sont pas nouvelles. Elles ont pris naissance dans toute une série d’articles techniques remontant à plusieurs années. Au premier rang des contestataires, Paul Steinhardt, devenu l’un des critiques les plus virulents de la théorie dont il avait été pourtant l’un des premiers promoteurs. Il fit valoir les sérieux problèmes concernant les bases théoriques, comme l’identification de l’inflation par un champ bien défini d’une théorie physique des hautes énergies, la forme arbitraire de l’inflation, et surtout le besoin de conditions initiales très particulières pour que l’inflation se déclenche, alors qu’elle était censée au départ les éliminer. Steinhardt et quelques rares autres voix dissidentes en concluaient que l’inflation n’était pas une théorie précise, mais un cadre de pensée tellement flexible que n’importe quel résultat pouvait en sortir, la rendant non vérifiable et non réfutable.

La très grande majorité des cosmologistes a refusé d’examiner ces critiques et encore plus d’étudier des alternatives à leur modèle chéri (sic). Un examen approfondi de pareille situation ouvre d’intéressants aperçus sur la sociologie de la science, ignorés non seulement du public, mais aussi le plus souvent des médiateurs que sont les journalistes scientifiques. La science, et en particulier la cosmologie, n’est pas à l’abri d’un fléau universel : la pensée unique – dont par les temps qui courent, nous ressentons plus que jamais les ravages sociétaux et culturels. La science fonctionne sur des consensus provisoires, c’est-à-dire sur des opinions partagées par le plus grand nombre. Elles résultent d’un accord satisfaisant entre la théorie et l’expérience. Mais un consensus qui survit assez longtemps, a tendance à se transformer en pensée orthodoxe[2]. Il se met alors à exercer un véritable terrorisme intellectuel envers toute pensée contraire… » ; « La théorie de l’inflation joue depuis plus de trente ans le rôle d’un concept cosmologique original qui s’est transformé en pensée totalitaire. Voir article du 31/03/2015 : « L’objectivité scientifique exclut qu’elle soit parasitée par des problèmes de doctrine », dans cet article la pensée totalitaire concerne, selon mon point de vue, la pensée à propos de la matière noire.

 Cette tendance s’est nettement accentuée en 2016, lorsqu’une conférence de presse internationale organisée sous l’égide de l’Agence spatiale européenne a annoncé les résultats obtenus après trois années d'exploitation des données recueillies par la mission Planck Surveyor, une collaboration rassemblant pas moins de 260 chercheurs. Ce remarquable télescope, embarqué dans l’espace, a cartographié le rayonnement du fond cosmologique avec une précision sans précédent. Le message principal délivré a été que les résultats de Planck s’accordaient parfaitement aux prédictions des modèles d’inflation les plus simples, renforçant la conviction que la théorie était fermement établie et que le grand livre cosmologique était définitivement écrit. Les clameurs de la presse spécialisée ont suivi : « victoire de l’inflation », « l’inflation confortée » ont fait les gros titres des journaux.

En compagnie de deux collègues de l’Université Harvard, Paul Steinhardt a entrepris de réanalyser méticuleusement les données de Planck, et ils sont parvenus à une conclusion toute différente : les données de Planck vont à l’encontre des modèles d’inflation « les plus simples », c’est-à-dire présentant une forme d’inflation simple et régulière. Or ces derniers prédisent des déviations à l’invariance d’échelle plus grandes que celles qui ont été observées, ainsi que des ondes gravitationnelles suffisamment fortes pour laisser des traces détectables dans le rayonnement fossile, traces qui n’ont pas été détectées. En réalité, si l’on tient absolument à l’inflation, les résultats de Planck requièrent que le champ d’inflation épouse un profil de densité d’énergie plutôt tarabiscoté… »

« L’autre article, cette fois non technique mais de nature épistémologique, paru en 2017 dans la très populaire Scientific American, concluait que les adeptes de l’inflation formaient une véritable secte de croyants dépourvue de tout esprit critique. Les défenseurs de la théorie ont réagi tout aussitôt, allant jusqu’à signer une lettre collective dans laquelle ils s’indignaient qu’une grande revue américaine ait osé donner la parole aux dissidents ! Face à l’argument selon lequel l’inflation n’est pas testable parce que ses prédictions changent complètement quand on fait varier de façon arbitraire la forme de l’inflation ou les conditions initiales, ils ont rétorqué que la testabilité d’une théorie n’exigeait en aucune façon que ses prédictions soient indépendantes du choix des paramètres. Si une telle indépendance paramétrique était requise, ajoutaient-ils, alors il faudrait aussi remettre en cause le statut du modèle standard des particules, lequel est déterminé par un ensemble de 19 paramètres.

Il y a de quoi rester perplexe quand on sait que les 19 paramètres arbitraires du modèle standard sont justement considérés par beaucoup de chercheurs comme « La plus douloureuse humiliation de la physique d’aujourd’hui. » La liste comprend des grands noms de la physique théorique actuelle. A noter cependant que Mukhanov, l’un des premiers à avoir tiré des prédictions cosmologiques à partir de la théorie, n’a pas signé la lettre. Lors d’un séminaire donné en 2017 à l’occasion d’une conférence organisée pour l’anniversaire de S. Hawking, il a déclaré très clairement que la plupart des constructions des modèles inflatoires n’étaient que gaspillage de temps. »

Une poussière dans l’œil.

« En même temps que les fluctuations quantiques produisent des variations aléatoires de l’énergie inflatoire, elles produisent des distorsions aléatoires de l’espace qui se propagent sous forme d’ondes gravitationnelles traversant l’univers après la phase d’inflation. Ces perturbations ont pour effet de laisser une empreinte dans le rayonnement de fond cosmologique sous forme d’une polarisation de la lumière qui nous parvient. La polarisation est une orientation préférée des champs électrique et magnétique de l’onde lumineuse. Elle peut se faire selon deux modes : le mode E, qui forme des configurations ressemblant à celles des champs électriques et le mode B, qui forme des configurations ressemblant à celles des champs magnétiques. Dès 1968, le cosmologiste Martin Rees avait calculé que les fluctuations de densité de l’univers primordial devaient polariser le rayonnement fossile selon les deux modes. Les modes E ont bien été observés par les télescopes WMAP et Planck. Comme les ondes gravitationnelles issues de l’inflation peuvent engendrer des modes B, leur détection était considérée comme une preuve très convaincante de la théorie, même si d’autres phénomènes physiques complètement différents peuvent aussi induire une polarisation de type B dans le rayonnement fossile. Mais en dépit de recherches intensives, les cosmologistes ne trouvaient pas de trace des ondes gravitationnelles primordiales impliquées par l’inflation. Jusqu’à ce que le 17 mars 2014 les scientifiques de l’expérience BICEP2, installée sur la base Amundsen-Scott au pôle Sud, annoncent leur détection !

Branle-bas de combat dans le petit monde de la cosmologie théorique. Le jour même est postée sur YouTube une vidéo prétendument improvisée. On y voit un jeune chercheur chinois, assistant d’Andrei Linde, sonner au domicile privé de son mentor et faisant semblant de lui annoncer l’extraordinaire nouvelle : l’expérience BICEP2 a découvert les ondes gravitationnelles d’origine primordiale, l’inflation est définitivement prouvée ! Linde feint la surprise. On ouvre une bouteille de champagne. Tout le monde a en tête le prix Nobel de physique… »

« En France, une émission de radio pour La Tête au carré est vite programmée. J’y suis invité en compagnie de mon ancien collaborateur Alain Riazuelo, membre de l’équipe Planck qui travaille sur la polarisation du rayonnement fossile. Nous faisons valoir que la prudence est de mise car il y a d’autres sources possibles susceptibles de polariser le rayonnement fossile. Avant de crier victoire, mieux vaut attendre les résultats du télescope Planck attendus pour les mois suivants, ce dernier étant mieux équipé pour étudier la polarisation sur sept bandes de fréquences que le télescope BICEP2, qui n’en a qu’une. En septembre, la sentence tombe : les chercheurs avaient en réalité observé une polarisation entièrement due à aux grains de poussière de notre Voie Lactée (sic)… Le verdict sera confirmé de façon irréfutable en 2016 par une analyse conjointe entre Planck et BICEP2. En somme, une poussière dans l’œil avait fait croire à la réalité de l’inflation ! »

Avant ce chapitre, les quelques phrases précédentes de Luminet présentent un panorama de la recherche pas très reluisant, qui malheureusement est plutôt fondé : « Une telle théorie (inflation) qui n’exclut rien ne peut pas être mise à l’épreuve expérimentale. Si elle reste une pratique scientifique courante, c’est, pour le dire crûment, qu’elle permet de produire des articles à la chaîne et de fournir des centaines de sujet de thèse[3], et non pas parce qu’elle fait vraiment progresser notre compréhension de l’Univers. Selon la base de données en physique des hautes énergies INSPIRE-HEP, on compte plus de 20 000 articles (sic) dans la littérature scientifique qui utilisent les mots « inflation » ou « inflatoire » dans leurs titres et résumés. »

Je me souviens de l’abus inacceptable de ce que l’on appelle : ‘la communication’, dans le domaine scientifique, lorsqu’au CERN, avec la mise en route du LHC, le site du CERN annonçait : on va reproduire les conditions du Big Bang. Ce slogan n’est resté que quelques jours. Cela montre bien que l’on est capable de vouloir mystifier les gens avec la science.

 

 

 

[1] Einstein a plusieurs fois proclamé sa foi en la supériorité théorique pour accéder à la compréhension des phénomènes naturels ; l’expérience, l’observation n’étant que subordonnées à celle-ci. « Ma conviction est que nous sommes en mesure, grâce à une construction purement mathématique, de trouver les concepts, ainsi que les lois qui les relient, propres à nous ouvrir les portes de la compréhension des phénomènes naturels. » Il se pourrait que cette conviction einsteinienne ne soit plus d’actualité.

2 On a déjà abordé cette problématique, très récemment, avec les postulats de l’homogénéité et de l’isotropie de l’univers, postulats consensuels utiles pour avoir une référence commune entre les cosmologistes et cela a été productif. Il se trouve, étant donnés les progrès de notre savoir accumulé et les progrès des instruments d’observation, que nous ayons les moyens de mettre en doute ces postulats pour l’ensemble de l’univers observable. Mais on peut constater que pour de nombreux physiciens c’est sacrilège car ils ont tellement intégré ces postulats qu’ils sont devenus pour eux la réalité de l’univers.

[3] On rencontre, avec cet exemple, typiquement le mode de fonctionnement corporatiste. Les intérêts du corps a plus de valeur que toute autre chose. Le reste lui est subordonné.

Partager cet article
Repost0
18 octobre 2020 7 18 /10 /octobre /2020 09:04

 

Au sommet de la montagne on découvre l’étendue océanique d’une liberté de penser peu commune.

Dans l’article-interview du journal hebdomadaire ‘Le journal du Dimanche’ du Dimanche 4 Octobre, Etienne Klein nous fait partager son approche et sa compréhension de la science avec le titre suivant : « La science est victime d’une crise de la patience. »

            Quand on lui demande : « En quoi la montagne permet-elle de penser différemment notre rapport au monde ? », il répond : « Les pères fondateurs de la mécanique quantique, dans les années 1920-1930, faisaient tous de la montagne. Le fait d’être attiré par les sommets est-il le signe d’un certain tempérament ? Je n’ai pas la réponse, mais le pari que je fais est que si l’Europe était plate comme la Beauce, il n’y aurait pas eu de physique quantique (sic). Pour penser des choses un peu radicales, il faut un paysage escarpé. Pour que la pensée ait du relief, il faut du relief. L’exploration intellectuelle a besoin de variation de régime. En altitude, quand il fait beau, on voit la Voie Lactée. Le spectacle du cosmos à l’œil nu a structuré la pensée de Grecs de l’Antiquité. Aujourd’hui, le fait d’être coupé du ciel change des choses très profondes dans notre psyché. On ne parle d’ailleurs plus de la nature mais d’environnement. C’est une sorte de bifurcation dans l’histoire de l’humanité. »

            E. Klein, exagère, mais il a le mérite de rendre compte que notre cerveau n’est pas une île et il y a de la cogitation scientifique avec, grâce, dans, une relation avec la nature. Dans cette relation avec la nature c’est le corps en mouvement qui provoque la circulation des idées, des images, des parfums, des rumeurs et des couleurs. Les pères de la physique quantique faisaient aussi beaucoup de bateau. En physique, la curiosité intellectuelle de connaître les lois de la nature peut survenir dans des situations variées. Il est vrai que si à 4000 mètres d’altitude sur le dôme des Ecrins dans les Alpes on assite au spectacle de la première lumière de l’aube avec ensuite le premier flash des rayons de soleil de l’aurore on est saisi par la puissance de l’émotion qui nous envahit parce qu’on est plus un simple spectateur, on est traversé, on est touché comme par une régénérescence et on ressent que l’on est inclus dans un tout d’une richesse sous-jacente extraordinaire. Et c’est ce sous-jacent extraordinaire qui aiguise une curiosité bien placée, une envie de savoir ce que sont ces phénomènes en interaction qui nous font comprendre que l’être humain est intimement relié à un monde qui a des modalités qui nous déterminent. Cette impression on peut la vivre avec la même intensité et la même réflexion finale, lorsque sur un voilier, de quart, la nuit, sous un ciel étoilé, le bateau est porté par les éléments naturels vers la destination établie. A cette occasion s’installe une grandiose complicité allant jusqu’à une véritable osmose que l’on ressent avec l’étendue océanique et l’étendue céleste. Grâce à cette communion, l’esprit peut atteindre une liberté de penser peu commune. Les possibilités d’éprouver un rapport intime et celui d’interdépendance avec la nature sont multiples. J’en fais régulièrement l’expérience en parcourant à vélo des paysages variés qui ont toujours un relief particulier lorsqu’ils sont conquis à la force du mollet. Comme l’exprime Klein : « Pour que la pensée ait du relief, il faut du relief. » Je partage le propos de l’auteur mais selon mon expérience, il n’y a pas que le relief topographique qui soit source de pensée avec relief, il y a aussi le relief mental et sans retenue j’inclus celui vécu par la satisfaction mentale d’une conquête physique qui à cette occasion, en soi, élève le niveau des possibles.

            A propos du constat de l’anthropocène et d’une opinion publique qui s’installe demandant que l’on fasse machine arrière et abandonner toute idée de progrès technique, lorsque le journaliste demande à E. Klein : « Est-ce votre cas ? », celui- ci répond :

            « Je défends une position médiane. La situation à laquelle nous sommes arrivés est une conséquence indirecte de la coupure galiléenne (sic). Pour Galilée, il y a la nature avec des lois que l’on peut comprendre, et puis il y a l’homme. Et l’homme est transcendant par rapport à la nature. Le christianisme, lui, décrit l’homme comme un être d’antinature dans le sens où il échappe aux lois de la nature. Il peut modifier son environnement naturel par la compréhension qu’il en a. Mais la pandémie nous a rappelé à notre socle biologique. Nous ne sommes pas simplement des corps dont la technologie pourrait augmenter les performances. Si l’homme est la seule espèce capable de connaître les lois de la nature, il y est aussi soumis (sic et re-sic). La nature rétroagit sur nous et nous devons ajuster le tir pour que notre environnement ne devienne pas invivable. » Je ne peux qu’être satisfait de ce commentaire car pour ceux qui me lisent, depuis plus de dix ans, ils ont pu mesurer à quel point je propose et défends l’idée que l’être humain est à la fois un être dans la nature et un être de la nature. Être dans la nature, c’est la position que développe progressivement l’être humain grâce au processus du développement de ses connaissances des lois de la nature. C’est une transcendance qui est en mouvement et selon moi il n’y a pas de raison qu’il y ait une fin. Être de la nature, c’est parce qu’il est impossible d’ignorer notre origine fondamentale et il n’est pas possible de prétendre que nous sommes totalement émancipés des lois originelles qui ont contribué à notre éclosion et à notre évolution. En conséquence nous sommes soumis à des déterminations naturelles. Là encore, il n’y a pas de point final, au fur et à mesure que nos connaissances des lois de la nature progressent, le socle de l’être de la nature se réduit et celui de l’être dans la nature s’accroît et se consolide. Avec ce processus le poids des déterminations naturelles reflue et l’intelligence des lois ‘objectives’ de la nature s’accroît. Les physiciens ne devraient pas ignorer ce processus car il nous dit que nous ne sommes pas de purs observateurs de la nature car elle n’est pas pure extériorité à l’être humain. C’est la raison pour laquelle je considère que le temps n’est pas donné dans la nature, comme le prétend Lee Smolin et l’a prétendu sur-naturel : Isaac Newton, mais qu’il est un propre de l’homme et cette contribution proprement humaine constitue le lien indispensable qui nous permet d’accéder à l’intelligence et à la description des lois de la nature.

            A la question : « Les scientifiques n’ont jamais été aussi présents et pourtant, parfois, on s’y perd. Pourquoi ? » E. Klein répond : « La confusion générale vient du fait qu’on n’a pas montré la distinction fondamentale entre la science et la recherche. La science est un corpus de connaissances éprouvées au cours de l’histoire des idées par des expériences, des observations, des théories qui ont validé certains résultats. Par exemple : la terre est ronde, l’atome existe, l’Univers est en expansion, les espèces évoluent. C’est la science. On n’a aucune raison de remettre en question ces résultats. La science est ce qui permet d’accéder à une certaine forme de vérité. Et puis il y a les questions qu’on se pose et auxquelles on ne sait pas répondre. C’est la recherche. »

Globalement sa définition de la science est acceptable sauf que personnellement je ne serais pas aussi tranché en ce qui concerne la relation science et vérité. Je parlerais plutôt de vérité provisoire car l’homme de science est capable de forcer le trait pour qu’une théorie perdure. Pensons par exemple, aux épicycles de Ptolémée, aux engrenages de Descartes pour justifier la chaîne de causalité et à la théorie de l’éther luminifère de Maxwell et j’en passe. La tendance de l’homme de science est de penser la nature en termes de mécanismes, de machineries, alors qu’à l’échelle quantique il est bien plus juste de penser en termes d’états probables. Il ne faut pas s’interdire de penser que cela puisse se généraliser aux autres échelles. Dans ce cas d’autres nouvelles vérités éclateront qui relativiseront les précédentes.

            A la question : « A trop vulgariser la science, la dénature-t-on ? » E. Klein confie : « Je fais de la vulgarisation depuis trente ans. Mais le Covid m’a aidé à comprendre plein de choses. De façon très naïve, j’étais persuadé qu’en connaissant la physique quantique et ses conséquences philosophiques je pouvais l’expliquer à tout le monde. J’avais l’impression que quand la transmission est faite clairement – et non pas simplement – le message émis est reçu à peu près à l’identique, sans être trop déformé… La méthode à laquelle j’ai consacré ma vie ne marche pas. » Pourquoi ? : « Parce qu’il y a des biais cognitifs, ceux par lesquels notre cerveau déforme les phrases qu’il entend, les accommode. Le cerveau a besoin non pas de connaître la vérité mais d’un certain confort psychique… »

            Personnellement, je n’ai jamais été convaincu par le projet d’une vulgarisation possible des connaissances quel que soit le domaine en question. Considérer que dans le cerveau humain, il y a des cases disponibles pour y entasser des connaissances packagées, d’une certaine façon cela m’horripile parce que cela ressemble à du mépris. Vulgarisation ! certainement pas en physique et cela n’a jamais été mon propos. Ces connaissances packagées ne sont que des connaissances académiques dégradées. Par contre faire découvrir et faire participer progressivement le processus par lequel les connaissances émergent, cela est envisageable et même souhaitable. Sur la base de l’exposé du développement des connaissances en physique, contribuer à ce que les personnes qui en ont la curiosité découvre le fonctionnement de la pensée scientifique voire se l’approprient, c’est de l’ordre du possible et c’est ce que je souhaite partager. La compréhension des lois de la nature est une aventure tellement humaine qu’aux personnes à qui je m’adresse lorsqu’elles parviennent à s’inscrire personnellement dans cette histoire, je m’en réjouis. C’est une aventure intellectuelle dont les prémisses remontent très loin dans le temps et nous sommes présentement des acteurs qui assurons cette continuité qui en même temps nous projette dans le futur grâce à de nouvelles interrogations, de nouvelles hypothèses, de nouvelles expériences et observations qui se préparent.

            A vrai dire je suis étonné qu’E. Klein comprenne cela que maintenant. En effet vers la fin de l’article, il déclare : « J’ai pensé à tort que la vulgarisation aidait les gens à comprendre les découvertes. Mais l’enjeu maintenant est de montrer comment les connaissances se sont construites dans l’histoire des idées. Car si on a tous des connaissances on ignore comment elles le sont devenues (sic). » Personnellement, pendant une dizaine d’années, en formation initiale, j’ai programmé à des étudiants de L2, L3, un cours : « Préalables philosophiques à la création scientifique. » J’ai eu de leur part des retours gratifiants.

            Dans une autre partie de l’interview, je partage l’avis de Klein : Question : « Dans cette pandémie, notre esprit critique nous a-t-il fait défaut ? » ; Réponse : « Aujourd’hui, on fait l’éloge de l’esprit critique mais on se trompe sur le sens du terme. L’esprit critique, c’est penser contre soi (sic). C’est soumettre son cerveau à des arguments qui viennent bousculer ses croyances, ses intuitions, son ressenti. Une fois qu’on l’a bousculé, on voit ce qui reste. J’aime bien l’expression « se forger une opinion ». Ce n’est pas la même chose qu’exprimer un avis. Or, aujourd’hui, l’esprit critique, c’est critiquer ce que disent les autres. Tout ce à quoi on est invité, c’est à penser avec son cerveau, et on va dès lors retrouver la communauté des gens qui pensent comme nous. Certes, notre cerveau ne sera jamais mal à l’aise mais il n’aura aucune jouissance (sic), sauf celle d’être conforté dans ce qu’il sait déjà. Internet nous met dans des silos avec des gens d’accord avec nous. C’est exactement le contraire de faire société. On est en train de fabriquer un communautarisme de la vérité et il n’y a plus de lien social. Mais une République, c’est un lieu où l’on doit souffrir intellectuellement. Il y a une forme de rationalité à refonder. »

           

Partager cet article
Repost0
8 septembre 2020 2 08 /09 /septembre /2020 08:23

Pas croyable... Découverte d’un trésor…

C’est un florilège de titres d’articles dithyrambiques qui ont été publiés en concert le 02 septembre. Ces articles annoncent qu’’Anthrôpos n’a pas fini de creuser…’ et qu’Homo-Sapiens n’est pas près d’avoir une pensée scientifique enfermée par des limites car ce qui a été décrypté et annoncé remet en cause un savoir en astrophysique considéré abusivement établi.

Les derniers articles que j’ai postés indiquaient que de nombreuses compréhensions récentes nous disaient que l’univers-contenant était à revoir sérieusement parce que le scénario du Big Bang et ce qui rationnellement semblerait en découler présente des failles significatives. Toutefois les ayatollahs du modèle standard de la cosmologie continuent de mettre des rustines parce que ce modèle standard est toujours intellectuellement, pour eux, confortable.

A l’unisson les articles du 2 septembre reconnaissent que le contenu supposé de l’univers ne répond pas à la croyance établie en ce qui concerne les critères théoriques attribués à l’ensemble de la famille des trous noirs et relatifs aux différents processus de leurs formations.

C’est une ère nouvelle autant théorique que d’observations qui s’ouvre en astrophysique voir en cosmologie. Je vais tenter de vous proposer ci-dessous une synthèse de toutes les perspectives qui sont sous la lumière de cette ère nouvelle.

La source d'ondes gravitationnelles GW190521 (ondes enregistrées sur LIGO et Virgo le 21 Mai 2019) est à ce jour la plus lointaine détectée puisqu'elle s'est produite à environ 7 milliards d'années-lumière de la Voie lactée. Les détecteurs ont en effet révélé qu'il s’agissait de la fusion de deux trous noirs, respectivement de 85 et 65 fois la masse du Soleil environ. Le produit final de cette fusion serait un trou noir de 142 masses solaires, ce qui veut dire que c'est l'équivalent de presque huit masses solaires qui ont été converties en rayonnement gravitationnel pur.

Cette source est Atypique, il semble qu'elle soit quand même le produit de la fusion de deux trous noirs et surtout qu'il en aurait résulté la formation du premier trou noir de masse intermédiaire (IMBH) directement détecté, contenant 142 masses solaires. Mais il ne faut pas exclure qu’il pourrait s’agir de tout autre chose…

En effet, les astronomes ont détecté la collision la plus puissante, la plus lointaine et la plus déroutante des trous noirs à l’aide d’ondes gravitationnelles. Parmi les deux mastodontes qui ont fusionné lorsque l’Univers avait la moitié de son âge actuel, au moins un — pesant 85 fois plus que le Soleil — a une masse que l’on croyait trop grande pour être impliquée dans un tel événement. Et la fusion a produit un trou noir estimé de près de 150 masses solaires, le plaçant dans une gamme où aucun trou noir n’avait jamais été vu de façon concluante auparavant.

« Tout ce qui concerne cette découverte est ahurissant », explique Simon Portegies Zwart, astrophysicien à l’Université de Leiden aux Pays-Bas. En particulier, dit-il, il confirme l’existence de trous noirs de « masse intermédiaire » : des objets beaucoup plus massifs qu’une étoile typique, mais pas aussi grands que les trous noirs supermassifs qui habitent les centres des galaxies.

Deux aspects rendent cet événement exceptionnel. Tout d’abord, la taille de l’ancêtre plus grand (85 masses solaires) tombe dans un « l’écart » où les trous noirs ne sont pas censés se former par des mécanismes conventionnels. Deuxièmement, la détection du reste de masse solaire de 142 est la première observation directe d’un trou noir de masse intermédiaire (IMBH) — une classe de trous noirs avec des masses entre cent et des dizaines de milliers de masses solaires.

Selon les équations d’Einstein, les trous noirs peuvent avoir n’importe quelle masse (sic, cela est vrai). Cependant, dans notre Univers, les trous noirs d’une certaine masse ne peuvent exister que s’il existe un processus astrophysique pour les créer. L’effondrement d’étoiles massives fournit une voie clé à la formation de trou noir qui impose certaines contraintes sur les masses prévues de trou noir.

Un trou noir de masse stellaire se forme lorsqu’une étoile meurt dans une explosion spectaculaire de supernova. L’explosion se produit une fois que la fusion nucléaire a transformé la majeure partie du noyau de l’étoile en fer. À ce stade, l’étoile est hors de combustible nucléaire, et son noyau commence à s’effondrer sur lui-même. Si la masse stellaire est supérieure à une certaine valeur (estimée à au moins 2,17 masses solaires), son noyau est condamné à s’effondrer dans un trou noir. Les trous noirs formés de cette façon peuvent avoir un large éventail de masses, mais seulement jusqu’à une valeur maximale définie par ce qu’on appelle ‘la paire-instabilité’.

La paire-instabilité’ est un phénomène qui draine l’énergie d’une étoile grâce à la production de paires d’électrons-positrons. Dans une étoile chaude, le noyau produit des rayons gamma qui exercent une « pression de (radiation) de photons » sur les couches stellaires extérieures, s’opposant ainsi à l’attraction gravitationnelle. Si le noyau de l’étoile est plus grand qu’environ 65 masses solaires, cependant, les rayons gamma se convertissent efficacement en paires électron-positron, et en conséquence la pression de radiation des photons diminue. Les couches extérieures s’effondrent alors vers l’intérieur, la combustion nucléaire s’accélère d’une manière galopante et l’étoile explose sans laisser derrière elle aucun reste de trou noir. Ce mécanisme convient jusqu’à environ 135 masses solaires, au-delà desquelles l’étoile s’effondre directement dans un trou noir. La paire-instabilité crée ainsi un écart de masse entre 65 et 135 masses solaires, où les trous noirs ne sont pas théoriquement attendus. Jusqu’à présent, aucun des trous noirs progéniteurs détectés par LIGO et Virgo ne s’est trouvé dans cet écart.

Faut-il revoir la théorie des supernovas pour des étoiles massives ? Pas nécessairement parce qu'un trou noir de 142 masses solaires est précisément ce que l'on appelle un trou noir de masse intermédiaire, compris entre une centaine et quelques centaines de milliers de masses solaires tout au plus. Or, il existe des scénarios de fusion à répétition de trous noirs stellaires et de capture pour former des systèmes binaires qui permettraient de faire naître des astres compacts de ces masses. C'est d'autant plus intéressant que l'on s'interroge sur la possibilité de faire naître les trous noirs supermassifs, qui dépassent les quelques centaines de milliers de masses solaires, justement par fusion de trous noirs de masses intermédiaires. Leur croissance viendrait ensuite dans l'Univers observable jeune des courants froids de matière dans le cadre du paradigme devenu dominant de la croissance des galaxies et des trous noirs supermassifs qu'ils hébergent.

Il existe une autre possibilité fascinante, les trous noirs détectés par Ligo et Virgo pourraient être la pointe émergée d'une population de trous noirs primordiaux nés pendant le Big Bang. Cette population pourrait même contribuer à résoudre l'énigme de la nature de la matière noire. Ce qui est sûr, c'est que nous sommes devant la première preuve directe de l'existence de trous noirs intermédiaires, les précédentes étant indirectes et via le rayonnement électromagnétique.

Dans un communiqué du MIT, Alan Weinstein, membre de Ligo et professeur de physique à Caltech, se prononce : « Cet événement ouvre plus de questions qu'il n'apporte de réponses ». Weinstein précise que : « Depuis que nous avons activé Ligo pour la première fois, tout ce que nous avons observé avec crédibilité a été une collision de trous noirs ou d'étoiles à neutrons. C'est le seul cas où notre analyse permet la possibilité que cet événement ne soit pas une telle collision. Bien qu'il soit cohérent avec une fusion de trous noirs binaires exceptionnellement massive et que les explications alternatives soient défavorisées, il repousse les limites de notre connaissance. Et cela le rend potentiellement extrêmement excitant. Parce que nous avons tous espéré quelque chose de nouveau, quelque chose d'inattendu, cela pourrait remettre en question ce que nous avons déjà appris (sic). Cet événement a le potentiel de le faire. »

Citons aussi ce que pense Jean-Pierre Luminet de cette découverte :  « Je ne suis pas convaincu qu'il faille parler de trou noir de masse intermédiaire (IMBH), (pour moi c'est au-dessus de 1.000 masses solaires) en lieu et place de trous noirs stellaires exceptionnellement massifs. Pour expliquer la formation de ces derniers je ne crois guère à des fusions successives de petits trous noirs stellaires, qui me semblent bien improbables (ne parlons même pas des cordes cosmiques, éliminées depuis belle lurette avec la débandade des théories supersymétriques), je privilégierai les trous noirs primordiaux (sic, moi-même je serais plutôt en phase avec cette hypothèse), formés moins d'une seconde après le Big Bang dans cet intervalle de masse (sans compter les bien plus massifs formés quelques secondes plus tard, qui permettraient de rendre compte des premiers quasars). Sans oublier, non plus  la possibilité de trous noirs de 50-100 masses solaires formés par effondrement gravitationnel d'étoiles très massives car de première génération et de très faible métallicité, et qui ne se seraient pas forcément désintégrées par instabilité de paires ».

 

En final de cet article, je vous propose la traduction par mes soins de quelques extraits du suivant obtenu dans Physics.aps.org, annonçant un avenir prometteur : ‘Gravitational-Wave Astronomy Stills in its Infancy’ ; ‘L’astronomie des ondes gravitationnelles est encore à ses débuts’ et en sous-titre : « Les détecteurs d’ondes gravitationnelles ont à peine effleuré la surface du trésor de découvertes qu’ils peuvent produire. »

 

« Une nouvelle ère en physique fondamentale et en astronomie

LIGO et Virgo ont été construits pour observer les ondes gravitationnelles émises par la fusion de binaires compacts, tels que deux trous noirs ou deux étoiles à neutrons. Et ces types de fusions sont les seuls événements que les détecteurs ont repéré en toute confiance dans les deux premières séries d’observation. Ces détections ont permis aux scientifiques de réaliser d’importantes découvertes astrophysiques, dont certaines ont ébranlé la sagesse établie.

L’une des premières découvertes est que les ondes gravitationnelles voyagent à la vitesse de la lumière. Ce résultat, bien qu’il soit compatible avec la Relativité Génerale, pose un défi pour les théories de la gravité inspirées par l’énergie sombre parce que ces théories exigent que les ondes gravitationnelles se déplacent à des vitesses plus lentes (sic). Une autre avancée sur le terrain a été l’observation que les fusions binaires d’étoiles à neutrons sont des ancêtres des sursauts gamma, dures, et courts, résolvant ainsi un puzzle vieux de plusieurs décennies sur l’origine de ces événements astrophysiques transitoires de haute énergie. Et puis, comme annoncé aujourd’hui, LIGO et Virgo ont repéré un trou noir qui se trouve dans le soi-disant écart de masse où aucun trou noir n’était censé se former à cause de la théorie de la ‘Paire-Instabilité’. Ainsi, cette détection remet en question les modèles astrophysiques actuels qui prédisent la formation des grands trous noirs et les environnements dans lesquels ils se forment.

 Considérés dans leur ensemble, ces progrès résolvent de vieilles questions, remettent en question ce que nous pensions savoir sur les processus fondamentaux de l’évolution stellaire, et jettent des doutes sur les solutions proposées aux problèmes actuels en astrophysique observationnelle.

Les observatoires du futur

Au cours des prochaines années, les mises à niveau prévues de LIGO et de Virgo devraient donner lieu à une multiplication de 5 à 10 fois le taux de détection des fusions binaires compactes. L’activation d’autres détecteurs d’ondes gravitationnelles pourrait également augmenter ce taux. KAGRA au Japon, premier détecteur d’ondes gravitationnelles en Asie et premier détecteur à être construit sous terre, a récemment commencé ses opérations…!?. LIGO et Virgo seront également bientôt rejoints par LIGO-India, dont la construction a commencé cette année. (LIGO-India utilise l’instrumentation développée par LIGO). On espère que LIGO-India sera opérationnelle après 2025.

D’autres améliorations et installations sont également à l’étude. Par exemple, une mise à niveau sur les sites LIGO existants, appelée LIGO-Voyager, vise à accroître la sensibilité du LIGO avancé, ce qui entraîne une augmentation d’un facteur 8 de la couverture en volume et donc une augmentation similaire du taux de détection. Il y a aussi le télescope européen Einstein (ET), qui a été initialement conçu en 2008 et qui est actuellement à un stade avancé de conception. Le projet ET est la proposition d’un observatoire souterrain qui abrite trois détecteurs en forme de V aux coins d’un triangle équilatéral avec des côtés de 10 km de long. Et puis il y a des idées pour le ‘Cosmic Explorer’ aux États-Unis, dont les bras seraient 10 fois la longueur de ceux de LIGO, et puis NEMO en Australie, qui ciblerait les signaux post-fusions des étoiles à neutrons binaires. Ensemble, ces nouvelles installations seront en mesure de détecter les événements jusqu’au bord même de l’Univers observable (sic). Ils enregistreront également les signaux de l’univers proche avec une fidélité plus élevée qu’il est actuellement possible.

Plus d’installations aideraient également à identifier l’endroit exact à partir duquel les ondes gravitationnelles émanent. Avec KAGRA et LIGO-India en fonctionnement, les chercheurs pourraient enregistrer un « coup quintuple » — les mêmes ondes déformant les cinq détecteurs. Cela permettrait aux astronomes de regarder plus facilement les fusions avec des télescopes conventionnels, réduisant la zone du ciel qu’ils auraient besoin d’examiner d’un facteur 4. Ces observations multimessages pourraient révéler beaucoup plus d’informations sur la nature et le comportement des sources que celles qui peuvent être glanées à partir des seuls détecteurs d’ondes gravitationnelles.

Questions sur l’astronomie GW de la nouvelle génération

Au fur et à mesure que de nouveaux observatoires, tels que l’ET ainsi que l’Explorateur cosmique, seront mis en ligne, les observatoires d’ondes gravitationnelles sauteront de la surveillance de l’Univers proche à l’arpentage de l’Univers entier pour les fusions de trous noirs. Cet accroissement permettra aux détecteurs de remonter plus loin dans l’histoire et de capturer les fusions de trous noirs et d’étoiles à neutrons à partir d’époques où la formation d’étoiles n’en était qu’à ses balbutiements.

Il est difficile de délimiter les découvertes que cette avancée pourrait permettre et le potentiel qu’elle offre pour percer les remarquables mystères de l’Univers, ainsi que pour découvrir de la nouvelle physique et des nouveaux phénomènes astronomiques. Par exemple, les générations futures d’observatoires d’ondes gravitationnelles terrestres peuvent permettre aux chercheurs de déterminer l’équation d’état de la matière à densité la plus élevée, de détecter la matière noire autour des trous noirs et de tester des théories modifiées de la gravité. Nous allons maintenant décrire ces possibilités en détail :

Gravité extrême et physique fondamentale : Les ondes gravitationnelles émanent de régions de l’espace-temps avec une gravité forte et une grande courbure de l’espace-temps et transportent avec elles des informations non corrompues sur leurs sources. La nature de la source, ses caractéristiques physiques (telles que les masses des objets en collision) et les propriétés de l’environnement dans lequel réside la source sont imprimées dans le signal.

La détection des sources avec les nouveaux observatoires pourrait soumettre la Relativité Générale à des tests les plus contraignants à ce jour et pourrait aider à explorer les violations potentielles de la théorie avec des champs (gravitationnels) forts. Par exemple, les observations pourraient révéler de nouvelles particules et des champs qui violent le principe d’équivalence fort, qui, rapidement parlant, prédit que la chute libre simule avec précision les conditions de gravité zéro dans tous les référentiels inertiels. Les chercheurs pourraient également découvrir des violations de l’invariance de Lorentz (une symétrie fondamentale dans la relativité) ou détecter des polarisations d’ondes gravitationnelles (le modèle caractéristique de la distorsion de l’onde de l’espace-temps) qui ne sont pas prédites par la RG. Nous pourrions aussi déduire des signatures de gravité quantique. Par exemple, certaines théories de la gravité quantique prédisent les configurations pseudoscalaires des ondes gravitationnelles qui violent la parité (une symétrie fondamentale qui dit que la physique d’un système et de son image miroir devrait être la même), tandis que d’autres prédisent des ondes gravitationnelles biréfringentes. Les observatoires de nouvelle génération pourraient également détecter les champs bosoniques ultralégers proposés dans certaines extensions du modèle standard. Les preuves de ces champs devraient provenir de la dynamique orbitale des binaires de trou noir ou des propriétés de spin des trous noirs.

  Matière extrême et environnements extrêmes : D’autres systèmes astrophysiques que les physiciens pourraient explorer avec de nouveaux détecteurs sont les étoiles à neutrons, qui sont les objets les plus denses de l’Univers et qui ont des champs magnétiques jusqu’à des milliards de teslas de magnitude. Six décennies après leur découverte, nous ne comprenons toujours pas pleinement l’équation d’état des noyaux de ces étoiles, et nous ne connaissons pas l’origine de leurs grands champs magnétiques. Ces champs pourraient déformer une étoile à neutrons, ce qui provoquerait l’émission d’ondes gravitationnelles, ce que les futurs observatoires pourraient découvrir.

Lorsque deux étoiles à neutrons sont prises dans une spirale entrante binaire et fusionnent, elles se soumettent à des champs de marée. L’état de la matière du noyau de chaque étoile détermine l’ampleur de sa déformation des marées, ce sont des informations qui devraient être imprimées dans les ondes gravitationnelles émisent. En outre, la fusion des étoiles pourrait laisser derrière elle une étoile à neutrons hypermassive de courte durée, un objet qui se forme à la suite d’une fusion binaire d’étoiles à neutrons et, pendant quelques dizaines de millisecondes, est soutenue par une rotation contre l’effondrement en raison de sa propre gravité. Le rayonnement gravitationnel émis par cette étoile à neutrons hypermassive pourrait également révéler une physique inconnue sur l’état de la matière ultra-haute densité et si cette matière est composée d’un plasma quark-gluon.

Le suivi électromagnétique des observations d’ondes gravitationnelles offrira des occasions de faire la lumière sur l’origine des éléments du processus-r, qui se forment lorsqu’un noyau grandit en capturant rapidement plusieurs neutrons (voir Point de vue : Out of the Neutron Star Rubble Comes Gold). Trouver l’origine des éléments lourds dans l’Univers est un problème de longue date. L’observation électromagnétique de GW170817 a fourni la première preuve irréfutable que les fusions binaires d’étoiles à neutrons produisent des lanthanides et d’autres éléments lourds. Mais beaucoup plus d’observations sont nécessaires pour confirmer si les fusions seules expliquent l’abondance d’éléments lourds dans l’Univers ou si d’autres canaux de production sont nécessaires.

Trous noirs à partir du bord de l’Univers : Les observatoires de nouvelle génération traceront un recensement complet des trous noirs de masse stellaire à partir du temps présent jusqu’à ce que l’Univers n’ait que quelques centaines de millions d’années et que se formaient et se rassemblaient ses premières étoiles. Ce recensement fournira des renseignements clés sur la taille des trous noirs et permettra aux chercheurs de découvrir comment ces objets se forment et se développent.

Il y a de plus en plus de preuves que des trous noirs massifs existent au centre de toutes les galaxies. Les masses de ces trous noirs (souvent appelés trous noirs supermassifs) varient de 105 à 1010 fois celle du soleil et leur taille est largement corrélée avec celle de la galaxie hôte. Mais nous ne savons pas comment ces trous noirs se sont formés ni comment ils sont devenus si énormes. Le modèle de fusion dit hiérarchique postule que ces trous noirs massifs ont d’abord été ensemencés par de lourds trous noirs de masse stellaire, qui ont ensuite fusionné en trous noirs plus grands. Un modèle alternatif suggère que des trous noirs massifs ont été ensemencés par l’effondrement direct de nuages de gaz massifs. Une troisième théorie intrigante spécule que des trous noirs massifs se sont formés dans l’Univers primordial et ont conduit à l’effondrement de la matière noire et des baryons, déclenchant la formation de galaxies. Les données LIGO et Virgo sont jusqu’à présent insuffisantes pour confirmer l’un ou l’autre de ces modèles, mais les informations supplémentaires provenant des futurs observatoires, y compris les masses des premiers trous noirs dans l’Univers et la vitesse à laquelle les fusions se produisent, pourraient identifier l’origine des trous noirs supermassifs.

La cosmologie et l’histoire primordiale de l’Univers : la cosmologie du Big Bang est en grande partie compatible avec la RG, mais l’expansion accélérée de l’Univers dans son histoire récente ne peut pas être expliquée par la théorie d’Einstein. Ce problème indique soit une défaillance de la théorie, soit la présence d’une forme d’énergie exotique, encore inconnue appelée énergie noire. En outre, les observations de l’échelle galactique à l’échelle du cosmos fournissent des preuves indirectes d’une forme exotique de matière, appelée matière noire, mais nous manquons encore de preuves directes pour ces deux choses.

Les futurs observatoires pourraient aider à détecter directement la matière noire autour des trous noirs et autour des étoiles à neutrons. La présence de matière noire pourrait modifier la rotation d’un trou noir. Elle pourrait également modifier la dynamique orbitale des trous noirs binaires. Alternativement, la matière noire pourrait provoquer l’implosion des étoiles à neutrons, faisant des trous noirs de masse solaire qui ne peuvent se former d’aucune autre manière. En outre, avec la détection d’une plus grande population de fusions binaires compactes, et avec des observations électromagnétiques de suivi des décalages rouges des fusions, il sera possible de mesurer avec précision les paramètres cosmologiques, tels que le paramètre Hubble, les densités de matière noire et d’énergie sombre, et l’équation d’état de l’énergie sombre. Ces mesures sont possibles puisque les fusions binaires compactes sont ce que l’on appelle les sirènes standards dont la luminosité peut être utilisée pour apprécier leurs distances. Et comme la RG détermine complètement la luminosité, aucune modélisation astrophysique n’est nécessaire dans de telles mesures. Ces résultats fourniront une mesure totalement indépendante et complémentaire de la dynamique de l’Univers.

Des détecteurs plus sensibles pourraient également capter les ondes gravitationnelles dites stochastiques, qui devraient avoir été produites au début de l’Univers. Comme l’Univers a refroidi à partir de son état primitif chaud et dense, il est censé avoir subi plusieurs transitions de phase qui pourraient avoir généré un signal de fond d’onde gravitationnelle. La détection de ce fond d’onde transformerait considérablement notre connaissance de la physique des particules à des échelles énergétiques inaccessibles aux accélérateurs terrestres. On prévoit également que les ondes gravitationnelles stochastiques émanent de « cordes cosmiques », des défauts topologiques 1D hypothétiques associés à une transition de phase de rupture de symétrie dans l’Univers primitif.

Sources à la frontière des observations : Enfin, les futurs observatoires pourraient aider à comprendre le comportement des supernovas, des pépins stellaires et des tremblements d’étoiles, trois phénomènes astrophysiques mal compris. Ces systèmes devraient générer des ondes gravitationnelles qui pourraient être détectables avec des détecteurs plus sensibles. Les observations multimessages combinant des observatoires gravitationnels avec des télescopes électromagnétiques et avec des observatoires de neutrinos, nous permettront de sonder différents aspects de ces événements astrophysiques extrêmes.

En résumé, l’astronomie des ondes gravitationnelles promet de répondre à des questions clés en physique et en astronomie dont les solutions pourraient considérablement améliorer notre compréhension de l’Univers. Avec ces récompenses potentielles massives, les exemples scientifiques pour la construction de nouveaux détecteurs sont extrêmement convaincants.

 

Partager cet article
Repost0
28 août 2020 5 28 /08 /août /2020 10:25

Au-delà de la Relativité Générale ? Que Nenni !

C’était avec la problématique clairement annoncée : ‘ Au-delà de la Relativité Générale’ que j’avais organisé la programmation du séminaire 2019-2020. Que nenni ! quant à la mise en évidence objective d’un quelconque indice qui indiquerait le chemin théorique à suivre menant à cet au-delà. Pourtant un certain nombre d’événements nouveaux à étudier donnaient à formuler l’hypothèse que des failles pouvaient être enregistrées dans le bloc de cohérence et de pertinence théoriques que constitue la théorie d’Einstein. Cela finira par se produire un jour, peut-être demain ou dans un temps bien plus lointain.

Je soumets à votre lecture cet article du 24 Août qui va dans le sens d’une confirmation de la R.G. bien qu’il traite de l’événement d’une collision de trous noirs avec des caractéristiques jamais constatées jusqu’à présent.

Titre de l’article, sur le site Physics.aps : ‘Une fusion déséquilibrée’, de Stephen Taylor, du Département de physique et d’astronomie, Vanderbilt University, Nashville TN, États-Unis.

« La fusion de deux trous noirs avec des masses significativement différentes permet aux chercheurs de mieux caractériser les paramètres du trou noir et d’effectuer de nouveaux tests sur la relativité générale. Ainsi, le 12 Avril 2019, les détecteurs LIGO et Virgo ont enregistré la fusion d’un duo de trous noirs remarquablement asymétrique, dont les composants pèsent respectivement 8 et 30 masses solaires.

Depuis que LIGO et Virgo ont observé pour la première fois la fusion de deux trous noirs en septembre 2015, (voir ‘Point de vue’ : Les premiers sons de la fusion des trous noirs), la détection des ondes gravitationnelles est devenue une occurrence régulière. Maintenant, les collaborations LIGO et Virgo rapportent que, à peine deux semaines après leur troisième période d’observation, les détecteurs LIGO et Virgo ont repéré une fusion de trous noirs, baptisée GW190412, qui était remarquablement différente de celles précédemment mesurées : avec 8 et 30 masses solaires, respectivement, ce duo « Laurel et Hardy » est le premier système binaire de trou noir vraiment asymétrique jamais repéré. La détection d’un tel binaire asymétrique a permis une foule de nouvelles possibilités scientifiques, allant de l’imposition de fortes contraintes sur les rotations des trous noirs, à la suggestion de nouveaux scénarios astrophysiques pour la formation de tels systèmes déséquilibrés, à l’essai de la théorie d’Einstein de la relativité générale dans des régimes précédemment inexplorés.

Les ondes gravitationnelles apparaissent naturellement dans la théorie de la relativité générale, qui relie la gravité à la déformation de l’espace-temps en présence de matière. Une paire d’objets compacts comme les étoiles à neutrons ou les trous noirs déforment l’espace-temps pendant qu’ils orbitent les uns autour des autres, formant une spirale entrante, et en conclusion finissent par fusionner, créant des ondulations de l’espace-temps qui rayonnent vers l’extérieur à la vitesse de la lumière. Des milliards d’années plus tard, les ondes atteignent nos détecteurs d’ondes gravitationnelles, où elles déforment légèrement les bras longs, de quelques kilomètres, et orthogonaux du détecteur. Un tel modèle de déformations encode la dynamique du système de fusion, y compris la géométrie orbitale et les propriétés de chaque étoile à neutrons ou trou noir.

Jusqu’à présent, la plupart des détections montraient des paires de trous noirs avec des masses à peu près comparables : même les fusions les plus asymétriques détectées impliquaient des ratios de masse inférieurs à 2. Comme il est prédit par la relativité générale, le signal de l’onde gravitationnelle dans ces cas symétriques est dominé par une seule fréquence — la deuxième harmonique de la fréquence orbitale binaire. De plus, les signaux de toutes les détections, sauf deux (GW151226 et GW170729) ont été compatibles avec le système binaire ayant un spin effectif de zéro. Ce paramètre est une somme pondérée en masse du composant de rotation (spin) de chaque trou noir perpendiculairement au plan orbital. Un spin effectif en voie de disparition pour les trous noirs de même poids signifie que les deux corps ne tournent pas ou bien qu’ils tournent dans des directions opposées. Un spin effectif différent de zéro affecterait significativement la dynamique des fusions.

À première vue, GW190412 est en ligne avec les découvertes précédentes, c’est une paire de trous noirs avec des masses individuelles compatibles avec les détections précédentes et avec les voies de formation de trous noirs considérés par la théorie. Dans le même temps, l’asymétrie des deux masses du système binaire en fait un système magnifiquement divergent comparé à tout ce qui a été vu auparavant. LIGO et Virgo ont utilisé une variété de modèles (calibres[1]) de forme d’onde différents pour déterminer que l’un des trous noirs était environ 3,5 fois plus massif que l’autre. En accord avec la relativité générale (sic), cette asymétrie signifie qu’en plus de la fréquence d’émission principale de seconde harmonique, des notes plus élevées d’émission d’ondes gravitationnelles, en particulier le mode de 3 fois la fréquence orbitale binaire, étaient détectables. Les ondes gravitationnelles ont souvent été appelées la musique du cosmos, et dans ce cas l’analogie est tout à fait appropriée : la collision de ces trous noirs dans l’immensité de l’Univers a produit un signal contenant un « cinquième parfait » — un intervalle musical, comme celui entre les notes G et C, correspondant à deux fréquences avec un rapport de 3:2.

Des simulations numériques réalisées de la spirale entrante et la fusion de deux trous noirs avec un rapport de masse de 3,5 sont compatibles avec l’observation GW190412.

Le duo de trous noirs déséquilibrés a permis aux chercheurs d’examiner avec soin et de vérifier la relativité générale dans des régimes auparavant inexplorés. A savoir, en testant les prédictions de la théorie pour les moments multipôles associés avec des émissions d’harmoniques plus élevées correspondantes à une fusion asymétrique. Tous les paramètres associés aux écarts par rapport à la relativité générale étaient compatibles avec le fait d’être nuls, même si les nuances de sa théorie sont testées de manière nouvelle, Einstein continue d’être correct (sic et re-sic).

En ajustant le signal plus complexe contenant les notes supérieures, les chercheurs ont considérablement amélioré, comparé aux détections précédentes, les contraintes sur les paramètres du système tels que la distance du système binaire de la Terre, son rapport de masse, et le spin des trous noirs. En fait, les scientifiques de LIGO et de Virgo rapportent la détermination la plus précise du spin d’un trou noir jamais extrait des données d’onde gravitationnelle, trouvant que l’horizon d’événement du plus grand trou noir tourne à environ 43% de la vitesse de la lumière. GW190412 est maintenant le troisième signal à montrer des preuves d’un spin différent de zéro, montrant qu’il y a un grand potentiel pour déterminer cette fonctionnalité proprement et directement en utilisant l’analyse des ondes gravitationnelles. D’autres techniques courantes de caractérisation des spins sont indirectes, car elles déduisent le spin d’un trou noir en exploitant l’émission de rayons X de matériaux tombant dans le trou noir et doivent donc s’appuyer sur des modèles difficiles à tester de la dynamique d’accrétion. Pour GW190412, l’analyse du signal a également laissé entrevoir un effet difficile à observer : une légère précession des rotations orbitales suggérant que les rotations de chaque trou noir n’étaient pas alignées avec l’axe du mouvement orbital.

La particularité de GW190412 parmi ses pairs — le spin mesurable et les masses asymétriques — en fait un ajout précieux qui informe sur la démographie des trous noirs. À partir de fusions précédemment détectées, les chercheurs ont montré que la probabilité de trouver des systèmes binaires de trous noirs avec certaines tailles peut être décrite par une loi de puissance. L’inclusion de ce duo asymétrique donne des contraintes beaucoup plus strictes sur la distribution des ratios de masse attendus. Alors que les analyses précédentes suggèrent qu’un système au moins aussi asymétrique que GW190412 ne devrait apparaître que dans 1,7 % des cas, la loi sur la répartition de la population qui explique la nouvelle détection révise cette probabilité à 25 %.

La détection de GW190412 montre à quel point nous avons encore beaucoup à apprendre de la fusion des trous noirs. Un résultat important serait l’extraction de notes encore plus élevées. En brisant d’importantes dégénérescences de paramètres, de telles notes amélioreraient les mesures des distances des systèmes binaires de trou noir, permettant ainsi d’être utilisées comme « sirènes sombres » pour inférer le taux d’expansion local de l’Univers. Cette approche pourrait aider les chercheurs à régler le débat sur la constante de Hubble : puisque les mesures de fond de micro-ondes cosmiques et des supernovas fournissent des valeurs contradictoires. De plus, les détections d’autres systèmes asymétriques et de leurs spins peuvent faire la lumière sur les canaux de formation possibles. Le non alignement des spins des trous noirs GW190412 peuvent suggérer, par exemple, que le duo ne vient pas directement d’un binaire stellaire. Au lieu de cela, l’un d’eux pourrait être le produit d’une fusion précédente de trous noirs. Une meilleure caractérisation du spin des trous noirs et de l’environnement dans lequel la fusion a eu lieu pourrait fournir des preuves concluantes de cette hypothèse. Certainement, nous pouvons nous attendre à ce que les détections à venir fournissent beaucoup plus d’informations étant donné l’assortiment de scénarios qui prévoient la fusion de paires de trous noirs. En effet, au cours de l’écriture de ce point de vue, les chercheurs ont signalé un système encore plus asymétrique, appelé GW190814, qui abrite soit l’étoile à neutrons la plus lourde, soit le trou noir le plus léger jamais découvert. »

            En effet cette dernière phrase de l’auteur nous renvoie à une série d’articles très récents, très interrogatifs sur ce fameux événement spécifique du 14/08/2019. Peut-être que j’aurais l’occasion d’évoquer cet événement et les interrogations actuelles qui l’accompagnent.

            En résumé Stephen Taylor publie un article positif et optimiste, à juste raison, en relation avec ces fusions de trous noirs détectées depuis 2015. Il est époustouflant de découvrir qu’à partir d’un simple ‘CHIIIRP’ qui nous arrive comme message de la fusion, il est possible de décrypter autant de données scientifiques. Je ne veux rien retirer à cet enthousiasme et à cet optimisme, mais il est souhaitable, à mon sens, de garder à l’esprit que les modèles des calibres ont été préétablis au moyen de la loi de la Relativité Générale et en conséquence ce qui est sélectionné dans l’opération de décryptage du signal enregistré par LIGO et Virgo ne peut être que conforme. Il ne faut pas s’interdire de penser que la totalité de ce qui est contenu dans le signal n’est pas décelable parce qu’au-delà, en dehors, de la Relativité Générale. Des informations contenues dans le signal peuvent encore être transparentes aux calibres exploités faute d’outils théoriques encore plus affinés. Il faut s’appuyer sur la perspective que l’accumulation d’événements non totalement conformes aux calibres fourniront des indices des incomplétudes prédictives de la R.G. et partant franchir un cap théorique historique car depuis 1915 la R.G. rend compte parfaitement de la physique à l’échelle classique qui nous permet de décrire avec fiabilité ce que nous observons dans l’univers.  

 

 

[1] Les calibres sont ces modèles qui ont été calculés et simulent effectivement le plus grand nombre (250.000) de scénarios possibles de fusion de trous noirs. Ce travail a été entrepris depuis plus d’une dizaine d’années en prévision du fonctionnement des détecteurs LIGO et Virgo. C’est donc une remarquable base de modèles constitués, très fournie, qui permet de calibrer (caractériser) les événements de fusion au fur et à mesure de leur détection. Sur ce sujet, il y a une conférence de Thibault Damour sur YouTube : ‘Théorie et détection des ondes gravitationnelles’ que je recommande. Il rappelle que l’école française du calcul analytique et de la relativité numérique a eu une contribution très importante, depuis 2000, pour déterminer ces calibres ce que Th. Damour nomme des ‘calques’.

Partager cet article
Repost0
22 août 2020 6 22 /08 /août /2020 10:55

A chacun sa propre lecture du ‘Fond diffus cosmique micro-ondes’

Récemment, le 22/o7, j’ai posté l’article : ‘Anthrôpos ne cessera de creuser’ dans lequel je rapportai, entre autres, qu’avec le Télescope de Cosmologie d’Atacama (ACT), ayant cartographié le fond cosmique micro-ondes, il était confirmé les résultats du satellite Planck à propos de la constante de Hubble relative à l’univers primordial. Ce résultat n’est pas surprenant car les outils théoriques et partant les algorithmes pour décrypter le rayonnement fossile et déterminer la constante de Hubble (H) sont identiques dans les deux cas. On est convaincu depuis plusieurs années que les résultats donnés par l’équipe Planck sont fiables et ACT vient à nouveau le confirmer. Ainsi, A. Riess a pu applaudir, à juste raison, la qualité du travail des expérimentateurs et en même temps laissé entendre que, selon lui, le modèle standard de la cosmologie est faux : « Mon instinct (sic) me dit qu’il se passe quelque chose d’intéressant. »

            Rappelons-nous que la première image du fond diffus cosmique micro-ondes fut obtenue par hasard à la fin des année 1970. L’humanité n’avait jamais observé une ‘photographie’ aussi profondément lointaine dans le temps passé de l’univers. Sondes, satellites, ballons sondes, bolomètres, ont été depuis envoyés dans l’espace pour recueillir le maximum de détails relatifs à cette première image (qui est encore, aujourd’hui, première image possible, accessible, de l’univers pour l’humanité.) C’est donc à partir de ce référentiel de signes à décrypter qu’il fut imaginé et conçu, avec les outils scientifiques théoriques disponibles, l’histoire de ce qui a pu se produire jusqu’à ce que cette empreinte se soit formée (380.000 ans après le Big Bang) dont sa relique occupe tout l’espace du passé de l’univers jusqu’à aujourd’hui[1]. C’est à partir de cette première image restituée que les physiciens ont théorisé une origine de l’univers sous forme d’avènement Big Bang, à partir de rien, 380.000 ans avant celle-ci. Entre le temps zéro de l’univers et 380.000 ans toute une chronologie, d’événements, de surgissements de propriétés, de produits, a été scientifiquement élaborée pour que ce qui est décrypté dans le rayonnement fossile et ce qui est conçu coïncident. L’inflation primordiale a aussi été accepté pour rendre compte du constat que notre espace est euclidien (plan). En à peine deux décennies c’est une extraordinaire machinerie naturelle qui a été inventée, dont la communauté scientifique éprouvait, à juste raison, de la fierté.

            La gravité quantique à boucles (LQG), a été développée sur une base totalement théorique, c’est-à-dire que ses inventeurs[2] se sont donnés pour objectif de construire la version quantique de la Relativité Générale, puis ensuite la confronter à la connaissance acquise et que nous continuons d’acquérir de l’univers primordial. Dans cette entreprise la gravité quantique à boucles étend son domaine de référence et devient la cosmologie quantique à boucles (LQC). C’est donc avec un recul intellectuel que les physiciens adeptes de la LQC testent leur théorie en regard de la première image de l’univers car celle-ci ne constitue pas leur calibre de vérité. Cette lecture différente qu’ils peuvent avoir du rayonnement fossile est très certainement utile. Ainsi leur interprétation des quatre anomalies recensées ne doit pas être ignorée par les autres non adeptes de la LQC.

            Il n’y a pas que A. Riess qui pense que le modèle standard de la cosmologie est moribond car les progrès de l’observation grâce à des instruments de plus en plus performants mettent en évidence des écarts significatifs entre ce que l’on observe et ce que l’on pensait être finalement établi. L’article que j’ai recueilli dans PhysicsWorld le 17/08, amène à réfléchir à ce propos. En aucun cas, il n’est nécessaire d’être un(e) adepte de la LQG et de LQC pour lire avec intérêt cet article traduit par mes soins.

            En lisant cet article, nous devons avoir présent à l’esprit qu’actuellement il y a la conviction que la première image de l’univers fournie par le satellite Planck, après celle de WMAP : 15 ans plus tôt, contient certaines informations que, présentement, nous ne sommes pas capables de décrypter, car trop ténues. Il n’existe pas de projet possible de concevoir un satellite ou une sonde plus performant soit pour des raisons technologiques et/ou financières. Le recours actuel c’est : ‘Une Avancée Théorique’. Le laboratoire actuel pour tester cette Avancée, n’est rien d’autre que l’histoire que l’on prête et que l’on prêtera à notre univers.

‘Les anomalies micro-ondes renforcent le cas de la cosmologie quantique à boucles, disent les physiciens’

Article sur le site ‘PhysicsWorld’ le 17 août 2020

 Qu’a vu le satellite Planck : le ‘Fond diffus cosmique micro-ondes’ abrite-t-il des preuves en faveur de la cosmologie quantique à boucles ?

Une théorie de la gravité quantique qui décrit l’univers comme commençant par un « Big Bounce », « Grand Rebond », plutôt qu’un Big Bang a réussi à expliquer plusieurs anomalies dans le rayonnement du fond diffus micro-ondes cosmique (CMB) encore appelé tout simplement : rayonnement fossile.

La gravité quantique à boucles, (Loop quantum gravity : LQG) est une alternative à la théorie des cordes et décrit l’espace lui-même comme étant quantifié aux plus petites échelles, connues sous le nom de longueur de Planck, d’environ 10-35m. Selon la LQG, l’espace ne peut pas être réduit en dessous de cette valeur, et l’application de LQG à l’Univers plus large est connue sous le nom de cosmologie quantique à boucles, (Loop quantum cosmology : LQC).

Dans la cosmologie standard du Big Bang, si nous faisions reculer l’histoire de l’univers pour qu’il s’effondre plutôt que de s’étendre, l’univers se contracterait en une singularité inconnaissable. Cependant, dans la LQC, l’univers qui s’effondre, cesserait de s’effondrer à la longueur de Planck, puis rebondirait. Cela suggère que si la LQC est correct, il n’y avait pas de singularité Big Bang, mais un Grand Rebond résultant de l’effondrement d’un univers précédent (sic).

Caractéristiques anormales

Maintenant, une nouvelle recherche menée par une équipe dirigée par Abhay Ashtekar à l’Université d’État de Pennsylvanie, a constaté que la LQC peut expliquer plusieurs anomalies dans le CMB qui n’ont pas pu être expliquées dans le cadre d’autres théories. La recherche est décrite dans le ‘Physical Review Letters’.

Les travaux portent sur deux anomalies. L’une concerne le spectre de puissance[3] du CMB, qui trace les minuscules variations de température dans le CMB par rapport à leur taille angulaire. L’autre anomalie étudiée concerne l’amplitude de l’effet de lentille gravitationnelle, c’est-à-dire le degré par lequel la lumière CMB a été gravitationnellement modifiée pendant qu’elle a voyagé à travers l’univers. L’effet lentille gravitationnelle est le résultat de la distribution et de la densité de matière qu’elle traverse, qui à son tour est reliée aux fluctuations quantiques qui ont ondulé à travers l’univers très tôt, avant l’inflation.

Si la LQC est correct, alors le Grand Rebond devrait avoir influencé les propriétés du CMB. En particulier, la LQC décrit comment, au moment du Grand Rebond, la courbure de l’espace-temps était plus grande qu’à tout autre moment de l’histoire cosmique.

« La cosmologie quantique à boucles prédit une valeur spécifique pour la courbure au rebond, » Ashtekar dit à Physique World : « Cette valeur est essentielle pour obtenir ce que nous voyons, à savoir qu’il y a certaines modifications de l’inflation, précisément à ces grandes échelles angulaires, qui proviennent de la nature spécifique de la cosmologie quantique à boucles. »

Empreinte du Grand Rebond

La grande courbure de l’espace au Grand Rebond imprime des fluctuations spécifiques dans le CMB qui sont d’une longueur d’onde beaucoup plus grande que la taille de l’univers visible, et donc nous ne pouvons pas les détecter directement. Cependant, ils sont également en corrélation avec des modes de longueur d’onde plus petits qui ont un effet perceptible sur le CMB, sous la forme d’anomalies apparentes que le modèle du Big Bang ne peut pas expliquer adéquatement.

Il y a six paramètres fondamentaux qui déterminent ce que nous voyons lorsque nous regardons en arrière du fond diffus cosmique. Deux de ces paramètres sont primordiaux, relatifs à la fin de l’inflation, et leurs valeurs influencent le spectre de puissance fond diffus (CMB). Deux autres se rapportent à l’époque entre la fin de l’inflation, quand l’univers avait environ 10-32s, et le moment où la lumière du CMB a été émise, environ 379.000 ans plus tard. Les deux derniers paramètres décrivent ce qui se passe entre le moment où le CMB a été émis, et maintenant. Bien que le modèle standard de la cosmologie Big Bang soit capable de déterminer les valeurs de ces paramètres, la LQC modifie leurs valeurs de telle sorte que les anomalies sortent naturellement des données en tant que produits de l’empreinte de cette courbure extrême au Big Bounce.

« C’est assez étonnant qu’avec ces six paramètres, les cosmologistes soient en mesure de prédire ce que nous voyons aujourd’hui », dit Ashtekar.

Une troisième anomalie est hémisphérique – les deux hémisphères de la CMB ont des énergies moyennes différentes. Les travaux d’Ivan Agullo, de la Louisiana State University, ont déjà été en mesure d’examiner cette anomalie de la même manière, en exploitant les contraintes propres à la LQC. Agullo décrit le travail du groupe d’Ashtekar comme « fantastique », ajoutant : « Cela prouve que les processus physiques qui se produisent dans le passé lointain, avant l’époque inflationniste (sic), peuvent laisser des empreintes observables dans le ciel. »

Une quatrième anomalie – la tension entre les mesures de la constante de Hubble selon que vous la calculez en fonction du CMB ou via les chandelles standards plus locales telles que les supernovae de type Ia – attend toujours une explication. Ashtekar souligne toutefois que le travail d’Alejandro Perez de l’Université d’Aix-Marseille en France fait les premiers pas en utilisant la LQC pour résoudre ce problème.

 

[1] Les photons reliques ont actuellement une température de l’ordre de 2,725°K et une densité de 400/cm3. Lorsqu’ils furent émis, 380.000 ans après le Big Bang, ils étaient à la température de 3000°K. Ce refroidissement est dû essentiellement à l’expansion de l’univers.

[2] Citons parmi les principaux à ma connaissance : L. Smolin, C. Rovelli, A. Asthekar,

[3] Voir Wikipédia.

Partager cet article
Repost0
4 août 2020 2 04 /08 /août /2020 09:44

Nouvelle théorie sur la relation conscient et inconscient.

Dans le ‘Pour La Science’, hors-série : Août-septembre, de nombreux d’articles tentent de rendre compte de l’avancée de la recherche de L’Inconscient en exploitant les nouvelles théories des neurosciences (sic).

Les premières pages sont consacrées à un interview de S. Dehaene. Globalement ce n° HS est constitué d’articles qui n’ont pas obligatoirement de forts liens entre eux et donc en fin de lecture et relectures, j’ai eu une forte impression de flou frustrant. Ainsi, le projet d’écrire un article à propos de cette lecture n’est pas spontanée. Préalablement, il fallut que j’accepte l’idée que cette impression ‘patchwork’ était due au fait que les ‘neurosciences’ sont une science jeune, ce qui interdit qu’elle puisse émettre des propositions généralisantes sur le fonctionnement du cerveau. Secondairement, je sais que l’exercice d’écrire un article est bien plus contraignant qu’une lecture et cela oblige à investir avec plus d’attention le contenu des articles pour vous en restituer ce qui est le plus significatif, selon mon entendement, en tant qu’idées nouvelles pouvant fructifier et contribuer au développement de notre projet commun. A vous d’apprécier et peut-être lire directement le n° HS.

L’idée centrale à retenir c’est que la distinction profonde entre l’inconscient et la conscience n’est pas fondée, la frontière entre les deux est bien plus diffuse. Plus encore la conscience est le prolongement de l’inconscient. Aujourd’hui, l’inconscient n’est plus vu comme un sanctuaire d’idées refoulées (voir Freud), mais plutôt comme l’ensemble des processus automatiques de traitement des informations dans notre cerveau avant que certaines ne parviennent à la conscience. Comme le dit S. Dehaene : « La métaphore de l’ordinateur fait du cerveau un dispositif de traitement inconscient de l’information. » La psychanalyse nous a amené à considérer que l’inconscient constituait un vaste réservoir de pulsions, de désirs inassouvis, de souvenirs traumatisants, tous refoulés dans le but de préserver l’intégrité des procédés conscients. L’inconscient agirait comme un autre moi à l’intérieur de moi, avec sa volonté propre, ses raisons. Il s’agit maintenant de repenser les rapports entre conscient et inconscient d’une manière qui reflète le fait que la conscience que nous avons du monde est un phénomène dynamique[1], à différentes échelles temporelles.

Repenser les rapports entre conscient et inconscient est à l’ordre du jour parce que S. Dehaene peut déclarer en tant que neuroscientifique : « En fait, le modèle bayésien[2] de l’inconscient permet une sorte de réconciliation entre inné et acquis » Avant de faire l’exégèse de ce qui est réconcilié selon Dehaene, arrêtons-nous sur ce qui valide la rupture avec l’ancienne conception de l’inconscient et partant de l’ancienne conception du cerveau.

Pour les neuroscientifiques, ils considèrent qu’ils ont acquis suffisamment de données expérimentales pour affirmer que l’inconscient est cognitif, c’est-à-dire qu’il est le foyer d’un ensemble de processus de traitement de l’information et des représentations mentales dont le sujet n’a pas conscience mais qui influencent néanmoins son comportement. Cette théorie révolutionnaire attribue un rôle central aux automatismes de l’esprit. Ceux-ci auraient pour fonction de prédire les probabilités d’événements futurs avec rapidité et fiabilité. L’apprentissage, l’expérience et la conscience n’auraient finalement pas d’autre objectif que d’améliorer sans arrêt des pronostics implicites établis en continu par notre cerveau. Cela indique que des mécanismes innés influencent l’image que nous avons du monde, sans que nous puissions ne rien y faire. Comme on l’a ensuite découvert, cela ne concerne pas que la perception sensorielle, mais aussi l’ensemble des processus mentaux, de la formation de nos jugements jusqu’à la prise de décision, en passant par la réalisation de nos actions. A ce stade de l’article qui est à la page 34, je propose de sauter directement à la page 64 pour citer l’article : ‘Instincts : la marque de l’évolution’ car l’une de mes hypothèses centrales est de considérer, au sein de l’être humain cogitant, un rôle à l’être de la nature qui rappelle en permanence sa capacité d’inertie à l’être dans la nature qui ne peut être que dans la conquête de nouvelles connaissances réduisant ainsi le pouvoir qui est encore obscur de la nature sur l’être humain (à titre d’exemple et sans tomber dans la facilité opportuniste, je propose à chacun de réfléchir sur la nature et les causes de l’émergence et de la lutte actuelle entre le coronavirus et la recherche médicale). Et cette dynamique n’a pas de fin puisque c’est ce qui fait que l’être humain est un être vivant.

Effectivement on peut lire : « Les mécanismes inconscients qui sous-tendent l’univers mental des êtres humains dans leurs interactions avec l’environnement physique (voir article : ‘Décrypter la physique comme science de l’interface de l’être humain et de la nature’ le 18/03/2015) et social sont le fruit de la sélection naturelle ; nombre de comportements inconscients ont été façonnés par la sélection naturelle (sic), par gradations, indépendamment les uns des autres le plus souvent, pendant des millions d’années ; le cerveau, comme tous les organes, est le produit de l’évolution biologique ; nos mécanismes psychologiques ont été façonnés par la pression sélective de l’environnement de nos ancêtres. Ainsi, nos traits, émotionnels, capacités cognitives, et comportements sont fondamentalement adaptés (déterminés[3]) au mode de vie chasseur-cueilleur selon lequel Homo sapiens et ses ancêtres du genre Homo ont vécu, par petits groupes de quelques dizaines d’individus pendant 2,6 millions d’années… Au fil des révolutions techniques, la complexité de l’environnement physique et social n’a cessé de croître. Mais 12000 ans (début du néolithique, début de la sédentarisation), soit 400 à 500 générations, représentent un temps bien trop court pour que la structure fondamentale de notre cerveau, fruit de millions d’années d’évolution et objet le plus complexe de l’Univers connu, change radicalement.

A ce stade, je vous propose maintenant de nous concentrer sur l’article page 44 : ‘La vision contemporaine de l’inconscient qui serait bayésien’ (voir mes articles : ‘Thomas Bayes dans le cerveau ? 2/11/2012 ; ‘Scientifiques façonnés dès la naissance’ 24/03/2013 ; Stanislas Dehaene et suite 14/10/2014.).

« Une révolution bayésienne infuserait progressivement les sciences cognitives. Cette théorie fondée sur un célèbre théorème en statistique - le théorème de Bayes[4] – bouleverse notre vision de l’inconscient. Celui-ci reposerait sur une architecture hiérarchique du cerveau faisant de cet organe une machine à prédiction. » Comprenons bien, parce que c’est très spécial, et très orienté en signification car il est prétendu que le théorème de Bayes calque effectivement l’architecture du cerveau. Ce théorème décrit la méthode optimale pour mettre à jour une croyance dans des conditions d’incertitude. Il est largement utilisé en intelligence artificielle, en ingénierie comportementale, en neuro économie, en sciences sociales, en psychologie expérimentale, et en neurosciences cognitives pour décrire ou modéliser des comportements.

Dans le paragraphe : de Freud à Bayes, page 48, les auteurs précises : « L’influence causale de l’inconscient a été illustré par de nombreuses preuves expérimentales… Les théories neurocognitives de l’inconscient favorisent l’émergence de l’inconscient cognitif dont la formulation bayésienne en est une des illustrations… Dans l’hypothèse du cerveau bayésien hiérarchique, l’inconscient est « structurel » au sens où il repose sur l’architecture fonctionnelle du cerveau (sic), c’est-à-dire l’organisation et la connectivité des neurones et des synapses. Page 49, on peut voir un schéma représentant le cerveau et attaché à ce schéma les flèches de couleurs différentes qui tracent, la circulation du contenu significatif des actions et des réactions inconscientes, dans les différentes aires du cerveau qui sont sollicitées, selon les modalité induites par cette description bayésienne. Finalement quelle conséquence sur notre démarche humaine effective : « A mesure que nous évoluons dans notre environnement, notre cerveau inscrit la structure statistique du monde dans son anatomie fonctionnelle, afin de simuler ensuite la charpente causale de son environnement. Les modifications de la connectivité synaptique nous permettent d’encoder cette expérience en modifiant nos croyances. » (Je vous propose de réfléchir à ce qui se produit dans le cerveau des cosmologistes quand ils découvrent dans leur environnement intellectuel que la constante de Hubble n’est pas celle que l’on croit et provoque une situation de crise qui peut avoir des conséquences importantes à propos du modèle standard. Il y a les cosmologistes qui s’enthousiasment de cette ouverture et de l’aventure d’une pensée qui devra évoluer et ceux qui rétropédalent et veulent conserver le confort de l’acquis et craignent cette aventure. Quelles sont ces connections synaptiques différentes, possibles et empêchées, qui engendrent une telle dichotomie ? Quels sont les antécédents synaptiques qui expliqueraient ces états intellectuels différents.)

De même pensons donc à l’inertie extraordinaire de l’évolution synaptique à cause de la tradition, de la religion, de toutes sortes de croyances si on fait référence au cerveau de Ptolémée (100-170) en comparaison avec celui de Copernic (1473-1543). Tant de siècles s’écoulent avant d’accepter scientifiquement que la terre n’est pas le centre du monde. On peut penser que les connexions synaptiques qui donnaient de la force à l’interdit de penser autrement étaient prépondérantes. Aussi, c’est extraordinaire de penser qu’une fois une telle vérité proférée par Copernic est reconnue, ceci engendre progressivement et silencieusement un basculement synaptique pour une grande partie de l’humanité concernée de l’époque.

Plus récemment pensons à la fixité intellectuelle d’Einstein provoquée par sa ferme croyance préalable qu’il y a un monde réel établi et que celui-ci est révélable par le physicien d’aujourd’hui. Avec son opposition à la mécanique quantique fondée par l’Ecole de Copenhague, il n’hésitait pas à dire de ses promoteurs qu’ils se vautraient dans des coussins moelleux qui montraient une paresse intellectuelle. L’aire(s) cérébrale(s) où s’installerai(en)t la/les croyance(s) aussi profonde(s) serai(en)t intéressante(s) à détecter. Je pense qu’une croyance préalable, solide, est nécessaire pour se lancer dans l’aventure d’une prospection intellectuelle inédite, disons que cela constitue un socle utile. Ce qui m’interroge, c’est pourquoi couramment cette croyance peut fossiliser la pensée alors que la prospection est à même de mettre en évidence des résultats qui contredisent, annulent, la croyance originelle. A propos d’Einstein, on peut considérer que sa fixité intellectuelle était compréhensible car sa croyance préalable l’a conduit à découvrir la remarquable loi de la Relativité Générale. On sait et Einstein savait à son époque que les résultats obtenus grâce à la Mécanique Quantique sont aussi très remarquables, inédits. Einstein, le physicien, n’avait pas pour autant la souplesse de l’esprit, la plasticité cérébrale, pour penser autrement à partir de 1917.

J’ai bien conscience que ce que j’ai exprimé ci-dessus résulte d’un raisonnement réducteur mais pas sans fondement si on en croit ce qui est publié dans la revue HS. Ainsi on peut lire, page 34 : « … de notre point de vue seule la pensée consciente est censée diriger nos actions. Ce n’est que de cette façon, croit-on, que nous garderions notre destin en main. Mais ce n’est pas du tout ce que montre la recherche moderne : celle-ci indiquerait plutôt que l’ensemble de nos pensées et de nos actes sont en grande partie gouvernés par des séquences de réactions automatiques. » Aucun article nie l’existence de la conscience chez l’être humain mais elle est totalement reliée à notre inconscient cognitif : « … un contenu mental est conscient quand il devient accessible à d’autres fonctions comme la mémoire de travail, la capacité de décision ou le langage. Cette accessibilité reposerait sur un embrasement de l’activité cérébrale résultant de la synchronisation de l’activité des neurones de différentes zones du cerveau. La conscience n’est probablement pas le produit d’une aire précise, mais plutôt le résultat de l’activité de la quasi-totalité des 100 milliards de neurones de notre encéphale. »

Une fois avoir lu tout ceci, on est plus tout à fait le même : on n’est pas ce que l’on croyait. Enfin, pour moi c’est ainsi.

 

 

[1] « Au sein d’une éternité, parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance de l’univers. »

[2] Théorie bayésienne : le cerveau produirait à partir de modèles de la réalité (des a priori) des prédictions d’entrées sensorielles qui sont confrontées au réel. En cas de décalage, les modèles sont corrigés.

[3] Ainsi se trouve complètement illustré mon concept de ‘Déterminations’ que je considère comme étant de vrais obstacles qui interdisent de continuer de croire que la ‘pensée scientifique du physicien’ serait une pensée universelle libérée de toutes sortes d’attaches.

[4] Cette œuvre fut publiée en 1763 et s’exprime par la formule de Bayes : P(A/B) = P(B/A)∙P(A)/P(B) Le terme P(A) est la probabilité a priori de A. Elle est « antérieure » au sens qu’elle précède toute information sur B. P(A) est aussi appelée la probabilité marginale de A. Le terme P(A|B) est appelé la probabilité a posteriori de A sachant B (ou encore de A sous condition de B). Elle est « postérieure », au sens qu’elle dépend directement de B. Le terme P(B|A), pour un B connu, est appelé la fonction de vraisemblance de A. De même, le terme P(B) est appelé la probabilité marginale ou a priori de B. Ainsi confrontant deux évènements l’un à l’autre, la formule quantifie donc la probabilité pour l’un d’induire l’autre, remontant ainsi des conséquences vers les causes pour comprendre les phénomènes de la nature. Nous avons donc à faire avec une mathématisation de la chaîne de causalité, en tous les cas elle sert de référence.

 

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens