Overblog
Suivre ce blog Administration + Créer mon blog
7 octobre 2019 1 07 /10 /octobre /2019 15:24

Recherchons activement la Gravité Quantique

Dorénavant il est admis que la théorie physique qui intégrera la gravité quantique comme étant partie prenante de son corpus, sera adoubée par l’ensemble de la communauté scientifique des physiciens. Il est aussi vraisemblable que cette gravité quantique servira de socle à l’envol du phœnix d’une nouvelle physique.

La théorie des cordes n’offre quasiment plus cette perspective et la gravité quantique à boucles est supportée par une équipe de physiciens convaincus mais ne provoque pas d’adhésions au-delà.

Dans les deux articles précédents, j’ai rendu compte, par l’intermédiaire des travaux de Sean Carroll, l’espérance de fixer, une bonne fois pour toute, la mécanique quantique comme étant la théorie idoine qui englobe l’ensemble des propriétés physiques dans l’univers. Le prix à payer est d’adhérer à la thèse de Hugh Everett des mondes multiples.

            J’ai sous les yeux un article de Lee Smolin (dans le NewScientist du 24/08/2019) avec le titre : ‘Au-delà de l’Etrangeté’, qui, de plus, cite les physiciens dissidents de la mécanique quantique, et non des moindres[1], pour justifier ses arguments affirmant qu’il faut en finir avec l’étrangeté d’une mécanique quantique irréaliste. Voir articles sur le même auteur du 27/04/2019 : ‘Un réaliste s’empare de la mécanique quantique et la conteste’ et du 7/05/2019 : ‘Notes de lecture du livre de Smolin’

            Contrairement à l’appréciation de S. Carroll, L. Smolin considère que la mécanique quantique doit être dépassée voire abandonnée car : « Elle ne nous dit pas ce qui se passe en réalité. » Pour lui, le principe de superposition des états des objets quantiques qui ne sont pas contraints d’être à un endroit dans l’espace à un moment du temps est définitivement étrange et inacceptable. A cela s’ajoute la problématique de la mesure, avec la réduction de la fonction d’onde : « Une défaillance fondamentale à notre compréhension. » Et puis les mystères ne s’arrêtent pas là puisqu’avec la propriété de l’intrication le principe de localité est violé. En effet dans le contexte de l’intrication il apparaît que des objets quantiques peuvent s’influencer instantanément quelques soient leurs distances d’éloignement (sans que pour autant la vitesse de la lumière, vitesse limite de propagation d’une information, ne soit violée). Voir article du : 22/11/2014 : ‘Intrication’, et du 02/11/2012 : ‘Synthèse : un Monde en ‘Présence’’. Il est vrai que c’est à cause de cette étrange propriété que A. Einstein au tout début des années 1930 rejeta la mécanique quantique considérant que c’était une théorie incomplète, erronée, et définitivement, il s’opposa à ses fondements : fruits des travaux de l’école de Copenhague. Les préventions et assertions d’Einstein n’ont jamais été expérimentalement justifiées. Mais Smolin propose que la mécanique quantique soit soumise à l’épreuve d’une théorie de la gravité quantique pour lever les mystères de celle-ci.  

Pour commencer, L. Smolin propose de nettoyer radicalement l’ardoise, revenir aux premiers principes de la théorie quantique et de la relativité générale, décider ce qui est nécessaire et ce qui est ouvert au questionnement et voir quels seraient les nouveaux principes dont nous avons besoin. Ceci étant fait, alors une description alternative de la physique deviendra possible, en expliquant les choses non en termes d’objets situés dans un espace préexistant, comme nous le faisons maintenant, mais en termes d’événements et de leurs relations.

            Cet effort doit s’engager avec quelques hypothèses basiques à propos de l’espace et du temps. Premièrement, l’histoire de l’univers consiste en événements ainsi que de leurs relations entre eux. Deuxièmement, le temps : dans le sens de la causalité, il est le processus par lequel les futurs événements sont produits par des événements présents, ceci est fondamental. Troisièmement, le temps est irréversible : la causalité interdit le retour en arrière et une fois qu’un événement est survenu, il ne peut pas être le produit de rien survenu. Quatrièmement, l’espace émerge de cette description : des événements sont la cause d’autres événements, créant ainsi un réseau de relations causales. La géométrie de l’espace-temps émerge comme le gros grain et l’approximative description de ce réseau. Voir article du 05/11/2016 : ‘L’espace et le temps ne sont pas donnés dans la nature, la lumière l’est

            La cinquième hypothèse c’est que l’énergie et l’impulsion sont des grandeurs fondamentales de l’univers et ces grandeurs sont conservées au cours des processus causaux.

            A ce stade des propositions de L. Smolin, je souhaite indiquer que ces hypothèses basiques ont déjà été identifiées et analysées dès les années 1930 notamment par une jeune philosophe (Kantienne) et mathématicienne allemande, Grete Hermann, qui a développé un dialogue très riche sur ces sujets avec, entre autres, W. Heisenberg, C. F. von Weizsäker. Donc, je suis au regret d’indiquer que ce que nous propose L. Smolin n’est pas neuf et son positionnement intellectuel n’offre pas, à mes yeux, un espace nouveau de réflexions.

            Ceci étant dit, je cite la sixième hypothèse de l’auteur : c’est une version du principe holographique conjecturé par ‘t Hooft en 1993. Ce principe dit : lorsqu’une surface à deux dimensions est définie dans une géométrie émergente de l’espace-temps, sa surface donne la proportion maximum de l’information qui peut la traverser[2].

            « Avec ce principe, chaque événement est distingué par l’information obtenue concernant son passé causal. Nous appelons ceci le ciel de l’événement parce que cela fonctionne assez bien comme le ciel au-dessus de nous… Parce que rien ne se déplace plus vite que la vitesse de la lumière, seulement les choses à l’intérieur du ciel de l’événement peuvent l’influencer, ainsi le ciel est aussi une vue de son passé causal.

            Cette image permet de décrire comment l’information et l’énergie circulent à travers les événements au fur et à mesure que l’univers évolue. Ted Jacobson et Thanu Padmanabhan (déjà cités dans l’article précédent du 5/10 : ‘Quelque chose de profondément caché’), ont indépendamment montré que la sixième hypothèse, avec la première loi de la thermodynamique (loi de la conservation de l’énergie), qui gouverne la quantité d’énergie utile disponible pour un processus, peuvent être utilisées pour dériver les équations de la relativité générale(sic), et en conséquence la gravité. Ceci fournit les semences d’une figure possible de la gravité quantique… »

            Est-ce que T. Jacobson et Th Padmanabhan sont les hommes de la situation pour provoquer l’unification entre relativité générale et mécanique quantique et leurs dépassements ? La question mérite d’être posée car leurs travaux sont cités par S. Carroll défenseur de la mécanique quantique (théorie quantique des champs) accompagnée de l’hypothèse des mondes multiples et par Smolin qui affirme que la mécanique quantique est fausse. A suivre…

 

                         

 

 

[1] Roger Penrose et le prix Nobel Gérard ‘t Hooft.

[2] Cette conjecture fut améliorée en 1995 par Léonard Susskind qui la résume ainsi : « La quantité maximale d'informations contenues dans un volume d'espace ne peut être plus importante que celle qui est emmagasinée à la surface de ce volume, où une quantité élémentaire ou « bit » d'informations occupe un quart de la surface dite de Planck. »

 

Partager cet article

Repost0
5 octobre 2019 6 05 /10 /octobre /2019 15:47

Quelque chose de profondément caché.

Ceci est le titre du livre qui vient d’être publié aux Etats Unis et signé par Sean Carroll. Le sous-titre précise le domaine de la physique ausculté par l’auteur : « Les mondes quantiques et l’émergence de l’Espace-Temps ». En accord avec la théorie des mondes multiples proposée par Hugh Everett (1930-1982), l’auteur considère que la mécanique quantique est logique et pour lui le voile de l’étrangeté perd toute son opacité. Dans ce livre de nombreux concepts élémentaires sont analysés dans le but de justifier l’adhésion aux mondes multiples et dans le but de confirmer la pertinence de la théorie quantique des champs. Quels que soient les degrés d’adhésion à Everett, pour chacun d’entre nous, la lecture de ce livre est fort intéressante.

J’ai retenu deux aspects de ces analyses originales de l’auteur que je privilégie dans cet article. Ce n’est pas un choix exhaustif et il se pourra que je cite ce livre à d’autres occasions.

Dans le chapitre : « Pourquoi y a-t-il l’espace ? », Page 239 : « La position est : « Là où vous êtes dans l’espace », tandis que la vitesse est « Avec quelle rapidité vous vous déplacez dans l’espace. », et l’impulsion est : la masse que multiplie la vitesse. Donc, l’espace apparaît être la chose principale.

            Mais une analyse plus profonde révèle que les concepts de position et d’impulsion sont bien plus sur un pied d’égalité qu’au premier abord. Peut-être que nous ne devrions pas en être surpris ; après tout : position et impulsion sont les deux quantités qui ensemble définissent l’état d’un système classique. En effet, dans l’hamiltonien de la mécanique classique, position et impulsion sont explicitement sur un pied d’égalité. Est-ce que cela reflète une symétrie qui n’est pas évidente en surface ?

            Dans notre vie quotidienne, position et impulsion semblent vraiment différents. Ce qu’un mathématicien appellerait « l’espace de toutes les positions possibles » ce que communément on appelle ‘l’espace’ ; c’est le monde tridimensionnel dans lequel nous vivons. « L’espace de toutes les impulsions possibles » ou « l’espace des impulsions », est aussi de trois dimensions, mais cela semble un concept abstrait. Personne ne croit que nous vivons dans cet espace-là. Pourquoi non ?  

            La caractéristique qui rend l’espace spécial est la localité.

            Comme dans un système classique, le formalisme quantique basique traite position et impulsion sur un pied d’égalité. Les deux façons pour décrire le même état quantique sont équivalentes, exprimant la même information mais de manière différente.

            Ceci est d’une nature profonde. Nous avons précisé qu’une fonction d’onde d’impulsion définie ressemble à une onde sinusoïdale. Mais c’est aussi ce à quoi cela ressemble quand nous utilisons la position, ce qui est le langage que nous utilisons naturellement. Exprimé en termes d’impulsion, le même état quantique apparaîtrait comme une pointe localisée à cette impulsion particulière. Un état avec une position définie ressemble à une onde sinusoïdale répartie sur toutes les impulsions possibles. Ceci commence à nous suggérer ce qui réellement importe c’est la notion abstraite de ‘l’état quantique’, pas sa réalisation (sic) spécifique en tant que fonction d’onde en termes soit de position ou d’impulsion.

            La symétrie est rompue, une fois de plus, par le fait que dans notre monde particulier, les interactions se produisent quand les systèmes sont proches dans l’espace. C’est la localité dynamique au travail. ‘Positions dans l’espace ‘ sont les variables par lesquelles les interactions apparaissent locales. L’espace n’est pas fondamental : c’est juste une façon d’organiser ce qui se passe dans la fonction d’onde quantique.

            Je dois retenir le fait qu’ à plusieurs occasions il fait référence à ce qui correspond à notre état d’être humain qui véhicule de façon inhérente certaines déterminations : Dans notre vie quotidienne ; Personne ne croit que nous vivons dans cet espace-là ; le langage que nous utilisons naturellement ; dans notre monde particulier.

            Je commente : L’espace n’est pas fondamental. D’un point de vue purement physique l’espace n’est pas fondamental, car c’est nous, sujet pensant, descendant d’Homo Erectus, qui faisons de l’espace un support de repérage fondamental. Voir article : du 03/02/2016 : ‘Là, où, pense Homo Sapiens’. L’espace est fondamental pour l’être humain, il est une détermination de notre capacité de penser et d’inférer depuis nos origines Homo. L’ignorer c’est sous-estimer les biais que de fait nous induisons au sein du processus de la découverte des lois de la nature. En ce sens, je trouve que les réflexions de Carroll concernant ‘l’espace’ et ‘l’espace des impulsions’ sont pertinentes mais dommage que cela se termine par un point d’interrogation car à l’évidence c’est le physicien qui brise la symétrie car cette symétrie des deux espaces ne peut pas être (ne peut pas être encore) intellectuellement intériorisée. Remercions quand même : S. Carroll, d’avoir mis le doigt sur ce problème, sachant qu’au-delà de celui-ci il y en a bien d’autres. Il est donc essentiel, à mes yeux, que les physiciens cessent de considérer que leur savoir est un savoir universel. C’est pourquoi, j’avais proposé en son temps que soit rédigé un manifeste pour que s’établisse une importante coopération avec les paléoanthropologues et historiens de l’évolution de l’homme. Sans succès.

Le langage que nous utilisons naturellement. Là encore, Carroll pense juste quand il évoque ce langage, étant donné ce qu’il est et que nous utilisons naturellement, eh bien ! il fait ce que nous sommes et détermine le processus par lequel nous pensons (voir article du 11/07/2012 : ‘Faire alliance avec les linguistes pour avancer’. En conséquence le monde que nous concevons grâce aux lois de la physique que nous établissons, est un monde particulier au sein du monde universel. C’est bien ce que nous dit S. Carroll quand il évoque : ‘dans notre monde particulier’, bien que pour lui notre monde est particulier parmi les mondes multiples d’Everett. Voir article précédent du 17/09 : ‘Transgressions : à suivre !’.

 

            Dans le chapitre 13 : « Respiration dans l’Espace Vide » : « Trouver la Gravité dans la Mécanique Quantique. »

            S. Carroll propose dans ce chapitre de trouver la gravité quantique dans la mécanique quantique en utilisant les ingrédients basiques de la théorie quantique : les fonctions d’onde, l’équation de Schrödinger, l’intrication, et interroger sous quelles circonstances nous pouvons obtenir des branches émergentes de la fonction d’onde qui ressemble à des champs quantiques se propageant dans un espace-temps courbé. Il précise que la compréhension de son projet : « Trouver la Gravité dans la Mécanique Quantique. » implique que l’on accepte l’idée que la thèse des mondes multiples d’Everett permet de comprendre enfin la mécanique quantique et de lever les mystères et les interrogations qu’elle véhicule.

            Il faut rappeler que la relativité générale et la relativité restreinte relève du monde physique classique comme les équations de Maxwell, et les autres qui ont précédées. Et une fois que la mécanique quantique s’impose il est naturel de tenter de ‘quantifier’ la relativité générale pour obtenir une théorie quantique de la gravité. Ce qui fait la relativité générale : spéciale, c’est qu’elle est une théorie de l’espace-temps plutôt qu’une théorie de la matière au sein de l’espace-temps. Carroll précise que selon lui, la Nature est quantique dès le début et décrite par une fonction d’onde évoluant en accord avec une version appropriée de l’équation de Schrödinger. Il ne veut pas commencer avec espace et champs classiques et les quantifier, aussi il propose de les extraire directement d’une fonction d’onde quantique.

            Carroll rappelle et s’appuie sur les travaux de John von Neumann (1903-1957) qui a montré que la mécanique quantique introduit une notion d’entropie qui est parallèle à la définition classique. « Comme l’a expliqué Ludwig Boltzmann, on commence avec un ensemble de constituants qui peuvent se mélanger de façons multiples, tels atomes et molécules dans un fluide. L’entropie est alors la façon dont on compte le nombre de possibilités dont les constituants peuvent être arrangés sans que l’apparence macroscopique du système soit changée. L’entropie est reliée à notre ignorance (sic) : les états de hautes entropies sont ceux pour lesquels nous ne savons pas beaucoup à propos des détails microscopiques d’un système à part connaître ses caractéristiques observables.

L’entropie de von Neumann, diffère, dans le sens qu’elle est purement et naturellement quantique et émerge de l’intrication (sic). Considérons un système quantique qui est séparé en deux parties. Cela pourrait être deux électrons, ou les champs quantiques dans deux régions de l’espace. Le système comme un tout est décrit par une fonction d’onde, comme d’habitude. Il a plusieurs états quantique définis, même si nous ne pouvons seulement prédire les résultats des mesures que d’une façon probabiliste. Mais si les deux parties sont intriquées, il n’y a qu’une seule fonction d’onde pour l’ensemble et non pas de fonction d’onde séparée pour chacune de parties. Les parties, pour ainsi dire, ne sont pas dans des états quantiques qui leur seraient propres.

Von Neumann a montré que, pour différentes raisons, le fait que des sous-systèmes intriqués n’aient pas des fonctions d’ondes propres est analogue à ce qu’ils aient une fonction d’onde mais nous ne savons pas ce que cela est (la teneur de cette affirmation doit être questionnée). En d’autres termes, les sous-systèmes quantiques, ressemblent étroitement à la situation classique où il y a beaucoup d’états possibles qui macroscopiquement apparaissent semblable. Et cette incertitude peut être quantifiée par ce que nous appelons maintenant l’entropie d’intrication. Plus est élevée l’entropie d’un sous-système quantique, plus il est intriqué avec le monde extérieur (sic).

Ensuite Carroll s’appuie sur les travaux originaux, que nous avons déjà étudiés, de Juan Maldacena et qui ont établi une correspondance, dans des situations particulières, entre l’entropie exprimée par la valeur de la surface qui englobe un volume d’espace et celle de ce volume en théorie des cordes. Ted Jacobson de l’université du Maryland est cité dans le livre comme celui qui développe l’idée que quand la gravité est incluse, l’entropie du volume d’une région est toujours (sic) proportionnelle à la surface de la région frontière[1]. La surface étant une quantité géométrique, il est considéré qu’au niveau élémentaire on peut établir une correspondance avec le membre de gauche de l’équation de la relativité générale et celui de droite avec celui de l’entropie qui est celui de la température donc de l’énergie. Grâce à ces manœuvres (dixit) Ted Jacobson a été capable de dériver l’équation d’Einstein plutôt que de la postuler directement comme le fit Einstein.

S. Carroll, p280 : « Pour dire les choses plus directement, on considère une petite région dans un espace-temps plat. Cette région a de l’entropie, parce que les modes (des champs quantiques) à l’intérieur de la région sont intriqués avec ceux de l’extérieur. Maintenant si on imagine changer légèrement l’état quantique, de façon que nous diminuions la quantité par laquelle cette région est intriquée, en conséquence nous diminuons son entropie. Dans la conception de Jacobson, la surface délimitant notre région change en conséquence, diminuant un peu, au moins d’un bit quantique. Et il montre que cette réponse de la géométrie de l’espace-temps à un changement de l’état quantique est équivalente à l’équation d’Einstein de la relativité générale, reliant courbure à l’énergie.

Ce fut le début d’une concentration d’intérêt dans ce que nous appelons la gravité ‘entropique’ ou ‘thermodynamique’ : d’autres contributions importantes furent proposées par Thanu Padmanabhan (2009) et Erik Verlinde (2010). Le comportement de l’espace-temps en relativité générale peut être pensé comme une simple tendance naturelle de systèmes de se modifier vers des configurations de plus grande entropie.

Ceci constitue un véritable changement radical de perspective. Einstein a pensé en termes d’énergie : une quantité définie associée avec une configuration particulière de matériaux dans l’univers. Jacobson et d’autres ont prétendu qu’on peut atteindre la même conclusion en pensant entropie, un phénomène collectif qui émerge d’une interaction de petits constituants d’un système. Ce simple déplacement de conception peut offrir un chemin crucial en faveur de notre quête de découvrir une théorie quantique de la gravité. »

Il ne faut pas se cacher qu’il y a encore beaucoup de chemin à parcourir avant de prouver concrètement que ce but est atteignable.

 

[1] On se rappelle qu’en quantique, une surface élémentaire (bit quantique) est une surface délimitée par la longueur de Planck au carré : Lp2 et la surface macroscopique est donc un nombre de fois la surface élémentaire. La surface élémentaire détermine un bit d’information élémentaire. L’entropie est proportionnelle au nombre de surface élémentaire de la surface considérée multipliée par la constante de Boltzmann.

Partager cet article

Repost0
17 septembre 2019 2 17 /09 /septembre /2019 17:55

Transgressions : à suivre !

En physique théorique, il y a deux transgressions intellectuelles particulières qui méritent d’être analysées. L’une de ces transgressions est relative à la physique quantique et c’est l’hypothèse des ‘mondes multiples’ émise premièrement par H. Everett et l’autre est relative à la relativité générale et c’est l’hypothèse du ‘multivers’ (souvent commentée par A. Barrau sans qu’il en soit pour autant l’auteur). Chacune de ces hypothèses sont des échappatoires à des problèmes posés par ces deux théories fondamentales qui sont toujours aujourd’hui sans solutions satisfaisantes. Selon moi, ces deux hypothèses ne sont pas banales car elles révèlent, ce que j’ai déjà signifié dans l’article du 22/07 : ‘Ai-je fait si fort ?’, et celui qui le précède, la nécessité impérative, vitale sur le plan intellectuel, de concevoir un au-delà à l’obstacle sur lequel bute actuellement la pensée scientifique. L’enfermement intellectuel est la pire situation que puisse supporter Homo Sapiens.

A propos de l’hypothèse des mondes multiples je m’appuie sur l’article récent du 02/09, dans ‘Nature’ qui a pour titre : ‘La logique bizarre de la théorie des mondes multiples’, (R. Crease se réjouit de l’incursion de S. Carroll[1] dans la théorie de plus de 60 ans.)

Je cite : « Le physicien américain Hugh Everett est à l’origine de cette théorie à la fin des années 1950. Il envisage de considérer notre univers comme juste un monde parmi les mondes parallèles nombreux qui se débranchent les uns des autres, nanoseconde par nanoseconde, sans se croiser, ni communiquer. (La théorie des mondes multiples diffère du concept de multivers, car elle conçoit de nombreux univers autonomes dans différentes régions de l’espace-temps.)

Six décennies plus tard, cette théorie est l’une des idées les plus bizarres, mais tout à fait logique. Cette théorie est née des principes fondamentaux de la mécanique quantique sans introduire d’éléments étrangers.

Carroll rend compte de la validité de la théorie des mondes multiples et de son évolution post-Everett, et pourquoi malgré tout notre monde ressemble à ce qu’il est. Grandement à cause de son caractère logique, Carroll désigne l’invention d’Everett : « La meilleur vue de la réalité que nous ayons. » sic.

Attraper la vague.

La mécanique quantique est le cadre de base de la physique subatomique moderne. Elle a résisté avec succès à près d'un siècle de tests, dont à celle du physicien français Alain Aspect confirmant l’intrication, ou l'action à distance entre certains types de phénomènes quantiques. En mécanique quantique, le monde se déploie à travers une combinaison de deux ingrédients de base. L'un est une fonction d'onde lisse et entièrement déterministe : une expression mathématique qui transmet des informations sur une particule sous la forme de nombreuses possibilités pour son emplacement et ses caractéristiques. Le second est quelque chose qui réalise l'une de ces possibilités et élimine toutes les autres. Les opinions diffèrent sur la façon dont cela se produit, mais il pourrait être causé par l'observation de la fonction d'onde ou par la fonction d'onde rencontrant une partie du monde classique.

Beaucoup de physiciens acceptent au pied de la lettre ce bidouillage conceptuel connu sous le nom d'interprétation de Copenhague, promue par Niels Bohr et Werner Heisenberg dans les années 1920. Mais l'approche de Copenhague est difficile à avaler pour plusieurs raisons. Parmi celles-ci est le fait que la fonction d'onde est inobservable, les prédictions sont probabilistes et ce qui fait que la fonction d’onde s’effondre est mystérieux.

Carroll soutient que la théorie des plusieurs mondes est l'approche la plus simple pour comprendre la mécanique quantique. Il accepte la réalité de la fonction d'onde. En fait, il dit qu'il y a une fonction d'onde, et une seule, pour l'Univers entier. En outre, il indique que lorsqu'un événement se produit dans notre monde, les autres possibilités contenues dans la fonction d'onde ne disparaissent pas. Au lieu de cela, de nouveaux mondes sont créés, dans lesquels chaque possibilité est une réalité. La simplicité et la logique de la théorie dans le cadre conceptuel de la mécanique quantique inspirent Carroll au point de l’appeler l'approche « courageuse ». Ne vous inquiétez pas de ces mondes supplémentaires, affirme-t-il — nous ne pouvons pas les voir, et si la théorie des plusieurs mondes est vraie, nous ne remarquerons pas la différence. Les nombreux autres mondes sont parallèles aux nôtres, mais ils sont si cachés de lui qu'ils "pourraient aussi bien être peuplés de fantômes".

Je n’évoque que l’échappatoire des mondes multiples aux apories de la mécanique quantique, il y a évidemment d’autres échappatoires, celles : du Qbism, des variables cachées, de l’onde pilote, de l’hypothèse GRW, etc…, mais aucune n’est satisfaisante et les apories sont toujours là, précisons que ces apories sont relatives à notre sens commun en général et particulièrement à celui des physiciens.

Complémentairement je cite ce que déclare Steven Weinberg[2] au cours de l’interview obtenu par Sabine Hossendelfer et rapporté dans son livre ‘Lost in Maths’, page 151 et suivantes : « Il est particulièrement agaçant de constater que la fonction d’onde s’effondre simplement quand elle est mesurée, parce que aucun autre des processus que nous connaissons n’est instantané. Dans toutes les autres théories, une connexion entre deux endroits signifie que quelque chose doit se déplacer d’un point à l’autre à une vitesse inférieure à celle de la lumière. Cette propagation progresse au fil du temps est dite « localisée », et elle est conforme à notre expérience quotidienne. Mais la mécanique quantique, elle, prend nos attentes à contre-pied parce que des particules intriquées sont liées, mais pas localement. Mesurez l’une d’elles, et l’autre le saura aussitôt. C’était ce qu’Einstein appelait « l’étrange action à distance »

« L’interprétation des mondes multiples postule que la fonction d’onde ne s’effondre jamais. Au lieu de cela, la fonction d’onde se subdivise en des univers parallèles, un pour chaque résultat possible des mesures. Dans l’interprétation des mondes multiples, il n’y a pas de problèmes de mesure, mais seulement la question de savoir pourquoi nous vivons dans cet univers particulier. Steven Weinberg trouve tous ces univers « repoussants », mais aux yeux de Max Tegmark[3], cette logique est « belle », et il croit que « la théorie la plus simple, et sans doute la plus élégante, implique des univers parallèles par défaut. » 

En ce qui concerne l’autre échappatoire, relative à la relativité générale, générée avec l’hypothèse du Multivers, elle permet de s’émanciper du principe anthropique[4] car avec l’hypothèse du multivers : notre Univers prescrit et décrit par la relativité générale ne serait pas unique. Cela permet d’évacuer le questionnement du dessein intelligent qui veut affirmer et justifier l’unicité de notre univers. Selon l’hypothèse du multivers, il se pourrait qu'il y ait un nombre infini d'« univers bulles » produits, sans connexions les uns avec les autres, ou de façon très marginale. Dans ce cas, il n'y a aucune raison de penser que les lois de la physique soient les mêmes dans chaque univers, et il existerait ainsi bien plus d'univers que d'univers concevables par nous.

Comme je l’ai déjà précisé, ces hypothèses : multivers et mondes multiples, sont des extrapolations qui ont vocation à consolider des théories physiques très bien établies… jusqu’à un certain point. Les propositions de sorties des impasses sont actuellement de l’ordre de l’aventure intellectuelle et les débats sont âpres. Je cite à nouveau S. Weinberg dans l’ouvrage déjà indiqué :

Page 258 : « Brian Greene[5] ? »

  • « Oui. Il a ces neuf multivers. Neuf ! Et les arguments sur lesquels il s’appuie sont sur une pente savonneuse. Donc, d’un côté, vous avez Martin Rees[6] qui dit que l’univers ne s’arrête pas à notre horizon visuel, et donc, en un sens, c’est un multivers. Et je suis évidemment d’accord. Et un peu plus loin, vous avez l’inflation chaotique d’André Linde[7], avec son nombre infini d’univers-bulles. Et encore plus loin, par là-bas, vous avez le paysage de la théorie des cordes, où la physique est différente dans chaque bulle. Et encore plus loin, vous tombez sur le multivers mathématique de M. Tegmark. Et après, très loin là-bas, vous trouvez des gens comme N. Bostrom[8] qui affirme que nous vivons dans une simulation sur ordinateur. Ce n’est même pas de la pseudoscience, c’est de la fiction. »
  • S. Hossenfelder intervient : « C’est la version moderne de l’univers vu comme une horloge, en gros. A l’époque, c’étaient des rouages et des boulons, aujourd’hui, ce sont des ordinateurs quantiques. »
  • « Oui, opine George. Mais vous voyez, B. Green, dans son livre, dit que c’est une possibilité. Et quand des gens écrivent que des choses pareilles sont des possibilités scientifiques, moi, je me demande : jusqu’où peut-on avoir confiance dans ce qu’ils pensent ? C’est tout simplement ridicule ! »

A ce stade de l’article, je veux insister sur le contenu de l’intervention de S. Hossendelfer car elle met le doigt sur une problématique très importante. Pour des raisons évidentes nous sommes toujours très conditionnés par un investissement intellectuel sur les objets d’études physiques en termes de : « rouages et boulons », c’est le principe de causalité qui nous guide en général (voir Descartes). Cela nous conduit à concevoir l’univers en termes ‘d’univers-bloc’ (voir L. Smolin) et de le penser comme une machine sur lequel nous projetons un mode fonctionnement usuel, familier, classique. Ainsi on peut lire dans des articles : « Suggérant que peu dans le domaine sont prêts à rejeter les théories qui sous-tendent notre compréhension de la façon dont l’univers travaille (sic) – au moins pas maintenant. »

A mon avis, en ce qui concerne notre investissement sur l’idée d’univers il ne faut pas le penser en termes de machinerie, de mécanismes et donc il ne travaille pas et c’est particulièrement absurde et primaire de penser qu’il travaillerait. C’est nous, qui sommes des machines à penser, qui sommes dotés de mécanismes qui orientent et conduisent à la prospection de nouveaux savoirs, de stockages cérébraux de connaissances, qui réunis permettent d’inférer dans de nouveaux espaces de connaissances jusqu’alors inconnus par Homo Sapiens. Je propose de penser l’univers global qui serait dans un état, lui-même étant cet état. C’est ainsi qu’il faut comprendre ce que souvent je cite (désolé) : « Au sein d’une éternité, parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance de l’univers... » La conjonction de l’éternité et de tous les possibles définit l’état de l’univers effectif que nous devons considérer. 

La dynamique du creusement, qui ne cesse, par Anthrôpos est confortée par les échappatoires conçues pour proposer une issue aux impasses avérées des deux théories fondamentales car d’une certaine façon elles proposent de dépasser la conception actuelle étriquée et mécanique du modèle standard. Pour illustrer cette affirmation qui peut être considérée comme légère, je cite à nouveau le livre de S. Hossenfelder, p 133 : « Il est cependant possible de combiner ces différents multivers en un autre encore plus grand. » Le mouvement que je préconise est déjà à l’esquisse. A suivre !

 

[1] Sean Carroll 53 ans, est un astronome américain, chargé de recherche au département de physique du California Institute of Technology (Caltech).  Auteur d’un livre tout récent : ‘Something deeply hidden’, Quantum Worlds and the Emergence of Spacetime.

[2] S. Weinberg, 86 ans, prix Nobel en 1979 pour sa contribution à l’unification des interactions faibles et électromagnétiques.

[3] Physicien, cosmologiste, 52 ans, professeur au MIT.

[4] Dans Wikipédia : Le principe anthropique est un principe épistémologique selon lequel les observations de l'univers doivent être compatibles avec la présence d'un observateur étant une entité biologique douée de conscience. Cette contrainte pourrait permettre d'orienter l'heuristique de la recherche scientifique fondamentale.

Ce principe, proposé par l'astrophysicien Brandon Carter en 1974 1, existe en deux versions principales. Le principe anthropique faible dit que ce que nous pouvons nous attendre à observer doit être compatible avec les conditions nécessaires à notre présence en tant qu’observateurs, sinon nous ne serions pas là pour l'observer. Le principe anthropique fort postule que les paramètres fondamentaux dont l'univers dépend sont réglés pour que celui-ci permette la naissance et le développement d’observateurs en son sein à un certain stade de son développement. En d'autres termes les observations de l'univers seraient contingentes dans la version « faible » alors qu'elles seraient au contraire nécessaires dans la version « forte »

[5] 56 ans, est un physicien américain connu comme un des spécialistes mondiaux de la théorie des cordes. Professeur de physique et de mathématiques à l'université Columbia de New York

[6] 77 ans, est un scientifique britannique professeur d'astronomie

[7] 71 ans, est un physicien américano-russe et professeur de physique à l’université Stanford (Californie). N.B. : Dans une conférence, Linde évoqua l’étrangeté du « bon » réglage des constantes physiques (voir Principe anthropique) et émit l’hypothèse qu’il existait peut-être une « mousse » d’univers, chacun ayant eu son Big Bang (ou quelque autre événement en tenant lieu) et ses propres lois et/ou constantes physiques, le nôtre étant l’un de ceux qui, par hasard, avait des paramètres permettant l’apparition de la vie.

[8] 46 ans, est un philosophe suédois connu pour son approche du principe anthropique et ses recherches relatives aux simulations informatiques.

Partager cet article

Repost0
13 août 2019 2 13 /08 /août /2019 10:30

Des nouvelles du futur univers.

La future conception, représentation, de l’univers est très probablement déjà en chantier. Elle mènera à l’au-delà de la Relativité Générale (voir article du 14/05/2019 : ‘Chemin escarpé menant au-delà de la Relativité Générale’). Plusieurs articles de ces dernières semaines font enfin référence à cette perspective que je citerai au fur et à mesure. Cette future conception-représentation, de l’univers est en voie d’accouchement dans la douleur à cause de l’incapacité actuelle de mesurer une valeur cohérente de la constante de Hubble : H, qui est la référence pour déterminer la vitesse d’expansion de l’univers. La constante de Hubble est le paramètre cosmologique qui permet de définir l’échelle absolue, la dimension, la structure et l’âge de l’univers ; elle est la grandeur qui permet de quantifier le plus directement comment l’univers évolue. L’incohérence des résultats des mesures de H pourrait être le signal que le modèle standard dominant de la cosmologie est erroné et que nous sommes confrontés à une faille de celui-ci.

Aujourd’hui, nous disposons de trois valeurs mesurées de cette constante :

L’une de ces mesures donne une valeur de la vitesse d’expansion : 74 kilomètres par seconde par mégaparsec[1], l’autre obtenue est égale à 67,4 et la plus récente est de 69,8. Chacune de ces valeurs sont obtenue en utilisant des références astrophysiques standards (jugées comme telles !) différentes dans le ciel. La précision des mesures est suffisante pour affirmer que ces différentes valeurs ne se chevauchent pas à la marge de l’erreur près. La première valeur est obtenue en se référant à l’évolution dans le temps des distances avec la planète terre des supernovas, la deuxième est calculée en étudiant l’évolution du fond diffus cosmologique micro-onde dernièrement observé, avec la plus grande précision, par le satellite Planck et la troisième en observant les étoiles appelées géantes rouges.

Dans l’article du 31/07 de Phys.org au titre suivant : ‘Les scientifiques débattent du sérieux problème posé par la valeur de la Constante de Hubble.’, il est indiqué que les différentes mesures de H obtenues laissent voir un problème majeur en astrophysique car si aucune raison objective ne peut être proposée pour expliquer ces différences, alors les scientifiques dans ce domaine devront repenser complètement comment l’univers fonctionne (sic). Malheureusement, selon moi, les hypothèses paresseuses prévalent encore quand il est évoqué qu’il est possible que différentes sortes d’énergie noire, auraient agi, agiraient, pour faire varier la vitesse d’expansion de l’univers à différentes périodes de son évolution.

« En aucun cas, les chercheurs durant ce meeting n’ont accepté de voter pour signaler une situation de crise sur ce sujet. Seulement quelques-uns étaient près, dès maintenant, à rejeter la théorie dominante qui rend compte comment l’univers fonctionne. »

Je proposerais volontiers l’hypothèse que, contrairement à ce qui est communément considéré, l’univers que nous concevons progressivement n’est pas un, l’unité que nous lui prêtons doit être remise en cause. On peut considérer que les trois différentes valeurs de H obtenues en prenant des références astrophysiques différentes (que l’on considère comme étant chacune des chandelles standards) sont exactes et que celles-ci nous indiquent que l’univers en conception a trois colonnes vertébrales distinctes pour déterminer sa vitesse d’expansion. De fait notre univers n’est pas un, il n’est pas si homogène comme l’on veut bien le penser, l’unité que nous avons ‘vu’ jusqu’à présent indique que nous avons projeté cette pensée réductrice de l’unité pour mieux le saisir et l’investir en fonction de nos connaissances actuelles et il faut maintenant concevoir au-delà de cette réduction et considérer et accepter que grâce à cette conception intermédiaire provisoire nous avons de toutes façons acquis une compréhension certes partielle mais très utile de notre univers. Il en est de même pour le Big Bang, c’est une origine provisoire mais qui fut nécessaire car l’être humain a besoin de poser sa pensée sur une origine pour, à partir de là, déployer celle-ci. Il suffit pour s’en convaincre de recenser toutes les cosmogonies successives que l’humanité a inventé tout au long de son évolution. Nous sommes certainement au bord d’un changement de cosmogonie.

Si notre univers a au moins trois colonnes vertébrales distinctes c’est qu’il y a au moins ‘trois types d’univers’ distincts qui se chevauchent sans qu’ils soient identiques, cela correspond à l’ébauche de la conception de ce que l’on appelle un multivers qu’un univers bien pensé finira par recouvrir dans une unité et ainsi de suite.

Prendre en considération cette hypothèse, cela implique de se démarquer de la conception dominante de l’univers selon les critères de la Relativité Générale (voir livre de L. Smolin : ‘La renaissance du temps[2]’) car cela implique de s’émanciper du concept singulier de l ’univers bloc’.

Un autre article datant du 2 Août dans phys.org : ‘Energie noire vs. Gravité modifiée : quelle est celle qui prévaudra ?’, indique que l’hypothèse de la gravité modifiée doit être prise au sérieux et cela va à l’encontre de la R.G.

Cet article s’ouvre en présentant la problématique suivante : « La théorie de la Relativité Générale (R.G) prédit l’existence de l’énergie noire – une mystérieuse forme d’énergie qui favorise l’accroissement de la vitesse de l’expansion de l’Univers. Mais qu’advient-il, si Einstein avait tort et qu’il n’y ait pas une telle chose comme l’énergie noire ? Le projet ‘GalaxyDance’ (Danse de Galaxies) vise à fournir une réponse à cette question… Quand on va plus loin et plus profondément dans nos observations de l’Univers, nous sommes de plus en plus perplexes par quelques-unes de ses propriétés. L’une d’entre elles est l’accélération de l’expansion de l’espace-temps qui est présentement attribuée à l’énergie noire. Mais la vérité c’est que nous devons considérer l’énergie noire seulement si la théorie de la gravité d’Einstein est valide à toutes les échelles du cosmos. Il y a d’autres explications possibles pour l’accélération de l’expansion qui ne requière pas l’énergie noire. Ces théories vont au-delà de la R.G. et sont communément appelées ‘gravité modifiée’. Tester la R.G et ses alternatives à l’échelle intergalactique est donc pressant et important pour comprendre l’astronomie extragalactique et c’est le propos du projet ‘GalaxyDance’. »

« Déjà grâce aux résultats obtenus en exploitant des données et en exploitant des moyens importants informatiques permettant de réaliser des simulations nous avons identifié un signal fort en faveur de la gravité modifié… Nous prévoyons d’ajouter dans notre modèle des données indiquant les couleurs des galaxies, leur luminosité et leurs formes. Cela nous permettra de créer un catalogue artificiel de galaxies montrant ce qui aurait été créé dans un univers déterminé[3] par une loi alternative à la théorie de la gravité d’Einstein. »

Finalement, le projet ‘GalaxyDance’ à la vocation suivante : « Si éventuellement nos tests fournissent une signature d’une nouvelle physique prévue au-delà de R.G., cela secouera notre façon courante de rendre compte de l’évolution du cosmos aux grandes échelles. D’un autre coté si notre enquête renforce la relativité générale cela signifiera que nous devrons avec conviction et force chercher pour enfin expliquer le mystère de l’énergie noire. »

Finalement, je propose que dans cette rubrique : ‘des nouvelles de l’univers du futur’, soit étudié l’article du 06/08 de Futura-Sciences qui nous affirme : « Dans tous les cas, matière noire et énergie noire pourraient en fait n’être que des effets d’une théorie relativiste de la gravitation autre que celle d’Einstein. » Des alternatives à la théorie de la gravitation d’Einstein se comportent comme si une cinquième force existait. Les particules associées à cette cinquième force ont des caractéristiques qui changent en fonction de la densité de matière présente. Des simulations numériques montrent que ces alternatives à la R.G. peuvent rendre compte de la naissance des galaxies en plus de l’énergie noire.

Cette cinquième force est illustrée par un champ scalaire adoptant une sorte d’effet caméléon (sic). On parle alors d’une gravité caméléon.

Comme Futura l'expliquait dans l'article du 16/02/2009 : « Un champ caméléon a des caractéristiques qui dépendent de la densité de matière dans la région où il est présent. Une forte densité conduira par exemple à une forte masse pour la particule associée au champ scalaire, qui se comportera alors aussi comme les fameux mésons pi de Yukawa décrivant les forces entre nucléons dans les noyaux. Dit autrement, les particules caméléons auront une très faible portée et leurs effets ne seront pas sensibles dans les mesures d'orbites faites, par exemple, dans le Système solaire. À l'inverse, la masse des particules caméléons devient faible à des échelles de distance bien plus grandes du fait des faibles densités moyennes. L'effet de la cinquième force devient alors notable et ce serait donc notamment l'énergie noire.

Ce qu'ont réussi à montrer les chercheurs de Durham, c'est qu'une gravité caméléon est bel et bien en mesure de rendre compte de la formation et des caractéristiques des galaxies, en particulier spirales, que l'on observe.

Cela ne prouve pas que la gravitation caméléon est bien une bonne description du cosmos observable, mais cela prouve en tout cas que c'est une voie de recherche sérieuse qu'il va falloir explorer plus complètement.

 

[1] 1 parsec = 3,26 années-lumière, 1mégaparsec = 1 million de fois plus, soit = 3,260 000 A.L ; 1 A.L = 1013km

[2] Page 75 : « Et l’histoire complète du monde est, en relativité générale, toujours représentée par un objet mathématique. L’espace-temps de la relativité générale correspond à un objet mathématique bien plus complexe que l’espace-temps Euclidien à trois dimensions de la théorie de Newton. Mais vu comme un univers bloc, il est intemporel et inaltérable, sans distinction entre futur et passé et sans place pour, ni signe de, notre conscience du présent. »

[3] On ne peut ignorer que notre connaissance de l’univers est partielle, donc en devenir, et les possibilités de comparaison seront succinctes. Ainsi le 7 Août il a été publié dans Phys.org, l’article : « Astronomers discover vast ancient galaxies, which could shed light on dark matter » avec le commentaire suivant : « C’est la première fois que l’on fait une découverte multiple de cette sorte, et une telle abondance de ce type de galaxie défie les modèles courants de l’univers (sic). »

Partager cet article

Repost0
29 juillet 2019 1 29 /07 /juillet /2019 11:47

L’émergence de la complexité en poésie : « Soleils couchants » de P. Verlaine

C’est avec un grand intérêt que j’ai rencontré l’article, ci-dessus nommé, sur le site de ‘Nature’ du 23 juillet. Je présente quelques extraits les plus explicites de l’article de 12 pages et traduits par mes soins. J’apprécie ces tentatives de décloisonnement et sur le sujet traité je les appelle comme j’ai déjà pu le faire dans l’article : ‘Faire alliance avec les linguistes pour avancer’ du 11/07/2012. La coopération des physiciens avec les paléoanthropologues et anthropologues serait aussi à mon avis cause d’avancées significatives.

Abstract.

Ce travail explore l'émergence de la complexité dans la poésie basée sur l'analogie entre la poétique de l'évocation et la physique des systèmes complexes. À cette fin, nous discutons d'abord des concepts clés de la physique des systèmes complexes, tels que l'émergence, l'ouverture et la grande variabilité. Il est alors suggéré qu'un poème puisse être considéré comme un système complexe représentatif. L'émergence de la complexité dans la poésie est encore sondée dans le contexte de la poétique de l'évocation. À titre d'exemple, nous démontrons comment la complexité poétique peut effectivement être réalisée, à travers l'analyse du poème de Verlaine, "Soleils couchants"[1]. De cette façon, nous proposons une convergence remarquable de la poétique et de la physique, donnant des résultats significatifs pour les deux domaines. Du côté de la poétique de l'évocation, sa caractéristique essentielle, les « mystères pertinents » qui donnent lieu à la grande variabilité des interprétations, est vérifiée ; du côté de la physique des systèmes complexes, les concepts de complexité sont validés pour fournir une meilleure compréhension de la littérature ainsi que des phénomènes naturels et sociaux

Introduction

La linguistique moderne a vu le jour au début du XXe siècle, comme de Saussure a déclaré dans « l'étude scientifique de la langue » (de Saussure, 1916, p. 20). De même, la poésie moderne adoptant une telle approche linguistique a commencé avec la poétique structuraliste de Jakobson qui a introduit des méthodes analytiques objectives au milieu du XXe siècle (Jakobson, 1960, p. 350, 1963, p. 210). Au début de cette poétique structuraliste, un texte poétique était considéré comme un système isolé, qui facilitait la poétique structuraliste pour mettre en place une méthodologie scientifique pour l'analyse formelle des textes. Cette perspective est similaire au point de vue de la physique : la matière se compose de composants interagissant les uns avec les autres, au moyen desquels divers phénomènes physiques pourraient être compris.

Par rapport aux approches traditionnelles, l'approche structuraliste a donné rationalité et objectivité à l'étude de la poésie. Cependant, il y a des limites dans cette approche, ne tenant pas dûment compte des aspects sémantiques. De plus, un texte poétique, avec son autonomie surestimée, est isolé du monde qui l'entoure. Si nous comparons cela à l'étude de la vie, cela revient à observer l'organisation structurelle des organes individuels seulement. Le manque d'environnements dans l'étude de la vie devrait se traduire par une compréhension insuffisante et restreinte de la nature des phénomènes de vie, parce que les phénomènes de la vie sont livrés et maintenus essentiellement par des échanges d'informations entre l'organisme vivant et l'environnement.

Ici, la poétique prônant la pensée scientifique rencontre des difficultés. Pour surmonter ces difficultés, il est nécessaire d'attirer l'attention sur la physique des systèmes complexes, qui sont apparus à la fin du XXe siècle Nous montrons en particulier comment les concepts de complexité, c'est-à-dire l'émergence d'une grande variabilité dans un système ouvert de composants en interaction, pourraient fournir un indice sur les fondements scientifiques de la poétique de l'évocation. En outre, la théorie des systèmes complexes en physique ne concerne pas seulement la matière conventionnelle, mais aussi le rôle de l'information pour l'interprétation des phénomènes naturels, y compris la vie ainsi que la société.

En ce sens, nous proposons d'étudier l'émergence de la complexité de la poésie à travers l'analyse du poème de Verlaine, "Soleils couchants" (Verlaine, 1996). Notre analyse du poème est basée sur le principe formel du parallélisme et sur le principe sémantico-cognitif du stéréotypé dans la poétique de l'évocation. L'interaction de ces deux principes rend la représentation plus évocatrice que le poème lui-même.

Ce document se compose de quatre sections. Dans la section « Systèmes complexes et complexité : vie et poésie », les caractéristiques des systèmes complexes en physique sont discutées tandis que la section « Émergence de la complexité dans les « Soleils couchants » de Verlaine est consacrée à l'analyse de la complexité de la poésie réfléchie sur la poétique de l'évocation. L'interprétation des « Soleils couchants » de Verlaine du point de vue de systèmes complexes est également discutée. Enfin, la section « Conclusion » résume et conclut nos principaux résultats.

Systèmes complexes et complexité : vie et poésie.

La théorie des systèmes complexes a été développée pour comprendre divers phénomènes complexes dans la matière, la vie et la société dans les perspectives de la connaissance universelle. La théorie a été établie à l'origine en physique et a étendu son champ d'application aux sciences sociales et humaines ainsi qu'aux arts (Voss et Clark, 1978 ; Morin, 1990 ; Morin et Le Moigne, 1999 ; Rigau et coll., 2008). Dans ce nouveau cadre, nous soutenons que la vie pourrait être mieux comprise en termes d'échange d'informations entre un organisme vivant et l'environnement environnant, plutôt que de simples fonctions biologiques comme on le considère traditionnellement. Dans cette section, nous explorons en détail les analogies étroites entre la vie et la poésie.

En physique, un système complexe est constitué par un système à nombreuses particules affichant la complexité. Bien qu'il n'existe pas de définition précise de la complexité (sinon le système n'est peut-être plus complexe), elle se caractérise généralement par une grande variabilité découlant d'interactions non linéaires entre les composants. Plus précisément, un système complexe est souvent décrit par les trois caractéristiques suivantes : premièrement, un système complexe est un système à particules nombreuses avec un grand nombre de composants. Les interactions non linéaires entre les composants entraînent l'émergence de propriétés collectives irréductibles pour les différentes composantes. Par conséquent, en observant le système complexe dans des vues à grain fin (fine-grained) ou grossier (coarse-grained), on trouve de nouveaux détails et de la diversité présents à chaque niveau et des structures auto-organisées à chaque dimension. Deuxièmement, un système complexe est un système ouvert. En conséquence, un système complexe continue d'échanger de l'énergie et/ou de l'information avec son environnement environnant, et laisse apparaître l'émergence de nouveaux états, tandis qu'un système fermé isolé du monde extérieur doit atteindre un équilibre. Troisièmement, un système complexe implique une grande variabilité à la frontière de l'ordre et du désordre. Cela signifie que le système complexe construit une structure modérément stable entre l'ordre et le désordre, et possède une flexibilité vers de nouvelles possibilités.

Nous soutenons que cette idée pourrait également s'appliquer à l'œuvre littéraire. Les consonnes et les voyelles font une syllabe, et les syllabes font un mot. Dans la consonne et la voyelle, en tant que plus petite unité de langage, le sens et le concept n'existent pas encore ; ils émergent au niveau d'un mot qui est fait d'une combinaison de consonnes et de voyelles. En dépit d'être une création de l'homme, une syllabe est analogue à une cellule qui est formée par des atomes et des molécules et donne lieu au phénomène de la vie. De même, un tissu ou un organe, fait de cellules, peut être comparé à une clause ou une phrase composée de mots. En outre, un organisme, formé à partir de tels tissus et organes, correspond à une œuvre littéraire, qui est construite de phrases. Dans un poème ou un roman créatif, diverses interprétations sont permises en fonction des interactions entre les composantes ; une telle variabilité de l'interprétation correspond à la complexité présente dans un système complexe.

Comme la vie est organisée hiérarchiquement à partir d'atomes, de molécules, de cellules, d'organes, etc., le langage est organisé à partir de phonèmes, de syllabes, de mots, de clauses, de phrases, etc. En outre, la grammaire de la langue régule les relations entre les composantes d'une phrase. Une telle grammaire, comme l'information héritée d'un organisme vivant, est transférée de génération en génération.

En général, le discours poétique se caractérise par deux types d'organisation. Comme tout autre type de discours, il obéit à la grammaire. En outre, contrairement à d'autres types de discours, le discours poétique obéit à un principe formel du parallélisme (aux niveaux métrique, phonologique, morphologique, syntaxique et sémantique). Cette double organisation donne à son tour lieu à une double lecture dans le processus d'interprétation de la poésie. D'une part, la lecture linéaire grammaticale permet la représentation sémantique de la poésie donnée. D'autre part, la lecture non linéaire du principe formel permet son interprétation symbolique, cette fois basée sur le principe sémantico-cognitif du stéréotypé. A ce stade de l'interprétation symbolique, l'information acquise dans le processus d'une vie individuelle, à savoir, les expériences individuelles dans le contexte socioculturel, joue un rôle important.

Émergence de la complexité dans les "Soleils couchants" de Verlaine

Nous analysons maintenant un poème de Verlaine. En particulier, nous examinons comment les caractéristiques des systèmes complexes se manifestent dans le poème, en prêtant attention à l'émergence de la complexité induite par la frustration. Le concept de frustration a d'abord été introduit comme l'expression de « l'attente frustrée » dans la poétique structuraliste, qui se consacre uniquement à l'analyse formelle (Jakobson, 1963). Ici, nous cherchons à étendre le concept de frustration, afin qu'il puisse être appliqué davantage à l'interprétation dans les perspectives de la poétique de l'évocation.

A ce niveau je ne donne que les titres des paragraphes correspondants à l’étude très riche des soleils couchants :

Schéma des rimes dans ‘Soleils couchants’

Conclusion

Dans cette étude, nous avons analysé le poème de Verlaine « Soleils couchants » pour sonder l'émergence de la complexité dans la poésie, basée sur l'analogie entre la poétique de l'évocation et la physique des systèmes complexes.

Pour conclure, nous avons poursuivi une rencontre pionnière de la poétique et de la physique dans la perspective de théories de systèmes complexes, qui est, à notre connaissance, la première tentative d'obtenir des résultats significatifs à la fois dans la poétique et la physique. Du point de vue de la poétique, la caractéristique essentielle de la poétique de l'évocation, qui consiste à attirer l'attention sur les « mystères pertinents » qui donnent lieu à la grande variabilité des interprétations, a été vérifiée dans le cadre théorique de systèmes complexes.

Au nom de la physique, la théorie des systèmes complexes a été appliquée à la poésie au-delà des phénomènes naturels et sociaux, ce qui élargit encore l'horizon des méthodologies physiques. En outre, nos travaux ont élargi le champ de la recherche interdisciplinaire, qui offre éventuellement des possibilités d'études intégrées d'importance dans les sciences et les sciences humaines.

Je tiens à féliciter et remercier In-Ryeong Choi, J.W. Kim et M.Y. Choi pour avoir réalisé ce travail pionnier qui, espérons-le, inspirera d’autres entreprises de cette nature à l’avenir.

 

[1] Soleils couchants

Paul Verlaine

Une aube affaiblie
Verse par les champs
La mélancolie
Des soleils couchants.
La mélancolie
Berce de doux chants
Mon cœur qui s’oublie
Aux soleils couchants.
Et d’étranges rêves,
Comme des soleils
Couchants sur les grèves,
Fantômes vermeils,
Défilent sans trêves,
Défilent, pareils
À de grands soleils
Couchants sur les grèves.

Paul Verlaine, Poèmes saturniens

 

Partager cet article

Repost0
22 juillet 2019 1 22 /07 /juillet /2019 13:14

Ai-je fait si fort ?

Après avoir lu mon dernier article du 9 juillet quelqu’un m’a dit : « Cette fois-ci tu as fait fort », à propos de la corrélation que j’établis entre l’assurance de la pétrification de l’être humain si jamais dans sa conquête intellectuelle de l’univers il rencontrait l’obstacle qui signifierait ‘à partir de là, il n’y a plus d’au-delà’. Je remercie cette personne de m’avoir fait cette remarque alors que je commençais à lire : ‘Une histoire des civilisations’, ouvrage collectif, sous la direction de J.P. Demoule, éditions La Découverte/Inrap, 2018.

 Page 23, il y a ce paragraphe avec un intitulé explicite : ‘La découverte de la continuité entre l’histoire de l’homme et celle de la nature’. Plus loin page 51 : « Il est établi maintenant qu’Homo sapiens a étendu son emprise sur l’ensemble de la planète, jusque dans ses zones les plus inhospitalières. Il a entrepris d’explorer les fonds marins les plus inaccessibles et s’est aventuré dans l’espace pour poser le pied sur la Lune et bientôt sur Mars. Son impact sur l’environnement physique, la faune et la flore est immense…au cours de la longue histoire de la vie, aucune espèce n’avait été à ce point dominante. Pourtant du point de vue de la parenté, l’homme ne représente qu’une espèce au sein d’un groupe de grands Primates autrefois très varié mais dont la diversité est aujourd’hui considérablement appauvrie. »

A grands traits suivons la trajectoire de l’évolution d’Homo sapiens dont les milliards d’humains qui occupent aujourd’hui la planète Terre en sont les descendants et représentants d’une étape spécifique de l’évolution qui n’a pas de raison d’être à sa fin.

Très loin dans le temps, avec des changements environnementaux (refroidissement) la divergence homme /chimpanzé est datée entre 9,3 et 6,5 millions d’années (Il y eut d’autres divergences encore plus avant). Les premiers jalons de la lignée menant à l’homme ont tous été découverts en Afrique, qui est généralement considérée comme le continent d’origine des Hominines. Les Australopithèques représentent la lignée des Hominines à partir de 4,2 millions d’années. Ils étaient parfaitement bipèdes mais ils ne semblaient pas avoir été bâtis pour la course, du moins pour une course prolongée, comme le seront plus tard les représentants du genre Homo à partir de 2 millions d’années. Entre 3 et 2,6 millions d’années, l’Afrique connaît une des crises climatiques qui ont périodiquement accru l’aridité et réduit les surfaces arborées. C’est pendant cet épisode que l’on voit apparaître la lignée Homo à laquelle appartient notre espèce. L’idée la plus communément admise est que l’apparition du genre Homo correspond à une réponse adaptative originale face à une aridité croissante : un changement de régime alimentaire qui inclut de plus en plus de viande. A cette époque on compte déjà trois formes bien distinctes : Homo habilis, Homo rudolfensis et Homo erectus, ces trois espèces possèdent des cerveaux dont le volume dépasse 700 centimètres cubes. C’est Homo erectus qui représente très vraisemblablement notre ancêtre direct.

Homo erectus en Afrique et en Eurasie[1].

La première expansion de l’espèce humaine avec Homo erectus à une échelle transcontinentale correspond au remplacement, ou peut s’en faut, à toutes les autres formes d’Hominines. Ce développement remarquable résulte du succès du nouveau modèle adaptatif qui permet en particulier aux hommes de se libérer des milieux arborés et, au-delà, des savanes africaines et puis de s’adapter à des environnements très variés. D’ailleurs l’espèce Homo erectus connait une longévité exceptionnelle puisqu’elle est connue en Extrême Orient jusque vers 400 000-300 000 ans avec des capacités crâniennes de 1250 cm3.

La descendance d’Homo erectus

« Tout au long de sa longue période d’existence, Homo erectus se diversifie et évolue, notamment par l’accroissement de la taille de son cerveau. De nombreux fossiles appartenant à cette espèce ont été découverts en Chine et Java (sic).

En Afrique, on assiste à l’émergence de formes d’Hominines à grands cerveaux. C’est sans doute en leur sein, ou parmi des formes similaires vivant dans le sud-ouest de l’Asie, que s’enracinent les populations ancestrales des espèces nouvelles qui vont apparaître, pendant la seconde moitié du Pléistocène moyen (780 000-130 000ans), les Néandertaliens, les Dénisoviens et les premiers Homo sapiens. »

La date de séparation des formes ancestrales des Néandertaliens et des Homos sapiens se situe autour de 600 000 ans.

Les origines d’Homo sapiens sont africaines et c’est à partir de ce continent-là qu’il va, au-delà, coloniser le reste de la planète Terre. On a découvert des traces de sa présence vieilles de 180 000 ans en Israël, dès avant 60 000 ans il devait être présent dans le Sud-Est asiatique puisque vers cette époque il a atteint l’Australie. Page 73 : « Au cours des derniers 40 000 ans, Homo sapiens parachève la colonisation des terres émergées. Les réponses techniques qu’il est désormais capable de développer lui permettent de s’adapter à des environnements de plus en plus extrêmes. Dès avant le dernier maximum glaciaire, qui culmine il y a 21 000 ans, des populations humaines ont été capables de prospérer beaucoup plus haut en latitude qu’aucune autre avant elles… Quelques millénaires plus tard, les terres émergées par la baisse des niveaux marins entre l’Alaska et l’Asie ont-elles aussi été peuplées. Vers les 15 000 ans un corridor libre de glace s’est ouvert favorisant une nouvelle voie de passage le long de la côte pacifique vers des territoires des Etats-Unis actuels situés plus au Sud. » ; « Comme des dizaines de milliers d’années auparavant en Australie, l’arrivée des hommes en Amérique a eu un impact considérable sur la faune. A la différence de l’Afrique et de l’Asie tropicale, ces deux continents n’ont pas connu une longue coévolution des peuplements humains et des faunes sauvages. En Amérique du Nord, trente-cinq genres de mammifères disparaissent rapidement… D’une certaine façon, on peut considérer l’expansion de l’homme dans des territoires vierges et l’extinction des dernières populations d’Hominines archaïques comme les prémices les plus anciennes de l’«Anthropocène », cette période durant laquelle l’homme a profondément modifié l’environnement de la planète. » 

Issus d’une lente évolution africaine, les Homo sapiens qui ont émergé il y a quelque 300 000 ans au fil, entre autres, de la sélection naturelle, à partir d’un buissonnement d’Hominines presque 2000 000 d’années plus tôt, vont progressivement conquérir, sans coup férir, de nouveaux espaces de vie en dehors de l’Afrique. On leur prête de développer des capacités de stratégies de subsistance spectaculaires et d’être les vecteurs d’innovations techniques[2] avec un penchant pour l’anticipation ce qui leur permet de promouvoir des solutions flexibles en réponse à des besoins aussi immédiats que futurs (sic).

Le remplacement des espèces humaines préexistantes s’achèvera avec la disparition des Néanderthaliens, alors que le nord de l’Asie ainsi que la totalité du continent américain est encore vierge de toute présence humaine. Malgré la Présence exclusive alors établie d’Homo sapiens il y a 40 000 ans, une dynamique de conquête de ce qui est encore inconnu contribue à la dynamique de l’évolution de l’espèce humaine et rien ne permet de penser que l’entrelacement de ces dynamiques n’a plus de raison d’être.

Je me souviens à quel point j’avais été frappé par l’inanité du contenu du livre de H. Zwirn, intitulé : ‘Les limites de la connaissance’ publié en 2012, qui indique surtout qu’une spécialisation hypertrophiée des connaissances conduit, si on y prend garde, à la production de certitudes absurdes, en dehors de toute Histoire. Comme si l’être humain lorsqu’il préempte qu’il y aurait des limites qui se dressent sur le chemin de la connaissance ne percevrait pas concomitamment les raisons de ces limites et partant conçoit le chemin qui mène au-delà de celles-ci.

Il ne peut pas y avoir d’évolution des Homo sapiens que nous sommes sans objectifs de conquêtes qu’ils soient dans l’espace physique actuellement identifié ou dans l’espace des pensées ouvertes qui nous projettent dans un avenir de connaissances encore à investir. On pourrait se dire : « Mais nous avons déjà identifié tant de choses, par exemple dans l’espace physique de notre univers, que les jalons sont déjà fixés pour une prospection concrète qui mobilisera des générations et des générations de spécialistes et fixera la curiosité d’une multitude d’individus. » Justement ces connaissances en voie de confirmation ou d’infirmation, bref ces connaissances qui nous enseignent à séparer le bon grain de l’ivraie, mobilisent d’autant plus qu’elles alimentent le tremplin qui permet à coup sûr de dévoiler d’autres au-delà.

Parmi tous ceux du genre Homo qui ont fait partie du buissonnement, les anthropologues ont décrypté la faculté spécifique qui a permis à Homo sapiens de survivre qu’elles que furent les conditions imposées par l’environnement. Cette faculté est celle de l’anticipation qui permet de promouvoir des solutions flexibles en réponse à des besoins aussi immédiats que futurs. L’appréhension du futur[3] est un atout majeur et est une source de vie au-delà du biologique pur. Il faut comprendre que la réponse adéquate, à la curiosité immédiate et aux besoins immédiats est celle qui dévoile ceux du futur. Il est impossible de penser qu’au-delà de certaines limites il n’y aurait plus matière à la moindre anticipation car ce serait certainement le signal de l’affaissement de ce qui fait de nous des sujets pensants qui conduirait à notre pétrification.

Après coup, j’ai un très bel exemple récent à citer (article publié le 12 juillet) pour illustrer la faculté d’anticipation qui nous caractérise :

                Au centre de deux galaxies en train de fusionner à 2,5 milliards d’années-lumière de la planète Terre, deux trous noirs supermassifs de 400 millions de masse solaire qui se trouvent à distance de 1300 années-lumière l’un de l’autre vont entamer leur danse spirale jusqu’à l’union complète. A partir de cette observation exceptionnelle, il est possible d’inférer qu’il y aurait en ce moment 112 trous noirs supermassifs binaires plus ou moins proches de nous qui génèrent des ondes gravitationnelles. Selon les projections, la prochaine collision pourrait être captée d’ici cinq ans (sic). Dans un avenir proche, c’est un bruissement gravitationnel à notre portée presque permanent qu’il sera possible de détecter. Avec cet exemple se trouve illustré ce que j’ai affirmé précédemment : « Bref ces connaissances qui nous enseignent à séparer le bon grain de l’ivraie, mobilisent d’autant plus qu’elles alimentent le tremplin qui permet à coup sûr de dévoiler d’autres au-delà. » Comme le dit Michael Strauss, astrophysicien à Princeton : « Plus nous pourrons apprendre sur la population de trous noirs en fusion, mieux nous comprendrons le processus de formation des galaxies et la nature du fond des ondes gravitationnelles »

 

 

[1] La première « sortie » d’Afrique des Hominines, sans doute avant 2 millions d’années, est à concevoir comme un phénomène progressif, en plusieurs vagues échelonnées sur des dizaines de millénaires, sans cause particulière si ce n’est une adaptation progressive à de nouveaux territoires – l’Europe, en raison d’un climat moins favorable, n’ayant été colonisée que tardivement.

[2] La transformation systématique de l’os en outil par le biais d’une technologie propre à ce matériau est, semble-t-il une marque de fabrique du genre Homo, voire de l’espèce sapiens.

[3] Le 17 juillet on peut lire dans ‘Physicsworld’ un article qui confirme que la nature est régie par une flèche du temps qui pointe en avant dans les systèmes à l’échelle quantique : « Arrow of time points forward in quantum systems »

 

Partager cet article

Repost0
9 juillet 2019 2 09 /07 /juillet /2019 09:42

Un début de démystification

            ‘Lost in Maths’, ‘Perdus en Maths’ : Comment la beauté égare la physique, de Sabine Hossenfelder, est enfin publié en français, 18 mois après sa publication en anglais. Dès le début de sa parution, le livre a acquis une certaine notoriété parce que disons-le : « Franchement l’auteure mettait les pieds dans le plat. » (Voir article : « La vérité laide » du 20/03/2018). La démystification est une très bonne chose, elle est nécessaire pour que les scientifiques réfléchissent sur leurs pratiques, leurs croyances, leurs illusions, et comprennent collectivement ce qui les a conduits dans une impasse et cela dure depuis plus de 30 ans[1]. Ayant, à plusieurs occasions dans mon blog, écrit des articles dénonçant des dérives inquiétantes concrètes sur des sujets de physique, je ne peux que vous conseiller de lire ce livre édité aux ‘Belles lettres’. Une des critiques principales développée par l’auteure concerne la croyance que les mathématiques sont obligatoirement des révélateurs de vérités scientifiques alors qu’elle en a une conception bien plus pragmatique, page 20 : « En physique, les théories sont faites de maths. Nous ne nous servons pas des maths parce que nous tenons tant que ça à effrayer les gens qui ne connaissent pas la géométrie différentielle et les algèbres de Lie graduées. Non, nous nous en servons parce que nous sommes des idiots. Les maths nous obligent à rester honnêtes – elles nous empêchent de nous mentir, à nous-mêmes et aux autres. Avec les maths, on peut se tromper, mais on ne peut pas mentir. » ; page 22 : « Si elles nous contraignent à rester honnêtes, elles sont aussi la terminologie la plus économique et la moins ambiguë que nous connaissions. Le langage est malléable ; il dépend du contexte et de l’interprétation. Les maths, elles, ne s’embarrassent ni de la culture ni de l’Histoire. Quand mille personnes lisent un livre, chacune lit un livre différent. Alors que quand mille personnes lisent une équation, cette dernière est la même pour tous. »

            Ce qui est original dans ce livre c’est la tentative d’expliquer le mode de fonctionnement de la communauté scientifique et de répertorier les multiples biais qui sont en jeu dans cette communauté qui sont autant de freins voire d’obstacles à l’émergence de l’esprit critique si nécessaire à la production scientifique :

            Vénérer la beauté et vouloir s’adapter sont deux traits humains. Mais ils faussent notre objectivité. Ce sont des biais cognitifs qui empêchent la science de fonctionner de façon optimale, et pour l’heure, personne ne les prend en considération. Ce ne sont pas les seuls biais dont les théoriciens sont affligés. Le biais de désirabilité sociale est un effet secondaire de notre besoin de nous intégrer au sein d’un groupe afin de survivre. Cela conduit à émettre des opinions dont en pense qu’elles seront bien accueillies.

            « Mais la science est affectée par d’autres biais sociaux et cognitifs dont nous ne sommes pas aussi familiers. Le raisonnement motivé en est un. Il nous fait croire que les résultats positifs sont plus probables qu’en réalité. Vous vous souvenez d’avoir entendu dire que le LHC allait probablement découvrir des preuves d’une physique allant au-delà du modèle standard ? Que ces expériences allaient sans doute trouver des preuves de l’existence de la matière noire d’ici un ou deux ans ? Ah, on continue à le dire ? »

            Il y a aussi des coûts irrécupérables, autrement les investissements en pure perte. Plus vous avez consacré d’efforts et de temps à la supersymétrie, moins vous serez disposé à renoncer, même si les chances semblent être de plus en plus contre vous. Nous continuons à faire ce que nous avons fait longtemps après que les projets ont cessé d’être prometteurs (sic). » ; « Le biais endogène nous fait croire que les chercheurs dans notre domaine sont plus intelligents que les autres… » ; « Le renforcement communautaire peut transformer les communautés scientifiques en chambres d’écho où les chercheurs se renvoient inlassablement leurs arguments, se rassurant constamment sur le bien-fondé de ce qu’ils sont en train de faire. » ; « Et il y a le pire biais de tous, celui qui consiste à affirmer avec insistance que nous n’avons pas de biais du tout. C’est la raison pour laquelle mes collègues se contentent de rire (sic) quand je leur dis que les biais posent problème et rejettent mes « arguments sociaux », convaincus qu’ils n’ont pas d’impact sur le discours scientifique. » ; « Nous ne sommes pas capables d’abandonner des orientations de recherche qui se révèlent stériles ; nous avons du mal à intégrer de nouvelles informations ; nous ne critiquons pas nos collègues parce que nous avons peur de devenir « socialement indésirables ». « Nous méprisons les idées qui sortent des sentiers battus parce qu’elles viennent de gens qui ne sont pas comme nous. Nous jouons le jeu dans un système qui empiète sur notre indépendance intellectuelle parce que c’est ce que tout le monde fait. Et nous affirmons que notre comportement est valide sur le plan scientifique, qu’il ne repose que sur un jugement impartial, car il est impensable que nous soyons influencés par des effets sociaux et psychologiques, si avérés soient-ils. »

            Je cite abondamment l’auteure parce qu’elle est parfaitement intégrée dans son milieu et elle a donc une connaissance complète de ses travers qui, selon mon expérience, ne sont pas nouveaux mais n’étaient pas évocables lorsque la production scientifique était encore satisfaisante. En bonne partie S. Hossenfelder rend compte des raisons pour lesquelles les physiciens sont incapables, aujourd’hui depuis plus de 30 années, de penser à de nouveaux concepts, à de nouveaux paradigmes, p 279 : « Nous n’avons pas su préserver notre capacité à émettre des jugements impartiaux. Nous nous sommes laissés acculer dans une impasse, et maintenant, nous devons mentir[2] (sic) quotidiennement pour seulement dire de pouvoir continuer à travailler. Le fait que nous acceptions cette situation est un échec pour toute la communauté scientifique et c’est à nous qu’il revient de remettre les choses à plat. »

            Dans le livre est rapporté plusieurs interviews de scientifiques notables réalisés par l’auteure. Je retiens particulièrement celui qui fait parler George Ellis, professeur émérite à l’université du Cap qui est une figure de proue de la Cosmologie :

            « Ce qui m’inquiète, dit G. Ellis, c’est qu’aujourd’hui des physiciens disent que nous n’avons pas besoin de tester leurs idées parce qu’elles sont si merveilleuses, ils disent – explicitement ou implicitement – qu’ils veulent contourner l’obligation de tester les théories. De mon point de vue, c’est un retour en arrière d’un millier d’années. » ; « Lorsque l’on jette un coup d’œil sur le livre sur les multivers du théoricien des cordes de Columbia : Brian Green, on découvre qu’il y a neuf multivers. Neuf ! Et les arguments sur lesquels il s’appuie sont sur une pente savonneuse. Donc, d’un côté, vous avez Martin Rees qui dit que l’univers ne s’arrête pas à notre horizon visuel, et donc, en un sens, c’est un multivers. Et je suis évidemment d’accord. Et un peu plus loin, vous avez l’inflation chaotique d’Andreï Linde, avec son nombre infini d’univers-bulles. Et encore plus loin, par là-bas, vous avez le paysage de la théorie des cordes, où la physique est différente dans chaque bulle. Et encore plus loin, vous tombez sur le multivers mathématique de Tegmark. Et après, très loin là-bas, vous trouvez des gens comme Nick Bostrom qui affirment que nous vivons dans une simulation sur ordinateur. Ce n’est même pas de la pseudoscience, c’est de la fiction. »

            Je souligne particulièrement le point de vue de M. Rees qui indique que nous devons avoir une conception dynamique de l’évolution de notre compréhension de l’Univers comme je le souligne dans l’expression suivante : « Au sein d’une éternité, parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance de l’univers. » Oui on peut évoquer l’hypothèse d’un multivers à propos de notre univers parce que le déploiement de notre connaissance de celui-ci permettra d’associer des pans entiers de ce que l’on peut supposer être actuellement dans un autre ‘univers filial’ mais qui est présentement le fait de notre ignorance encore provisoire. Nous devons accepter aussi l’idée que d’autres lois physiques, que celles présentement établies, émergeront peut-être naturellement, par exemple le déplacement à des vitesses supérieures à celle de la lumière. Bref, creusons l’idée que nous sommes dans un univers non borné et non clos. Nous ne devons pas attribuer des limites spatio-temporelles théoriques à notre univers et acceptons l’idée que ces limites que nous lui attribuons ne sont rien d’autres que celles provisoires de notre capacité d’investissement intellectuel. Il est, à mon sens, impossible d’établir une cohérence entre un univers qui serait effectivement borné avec une humanité que nous représentons qui viendrait intellectuellement se cogner sur des obstacles qui signaleraient qu’à partir de là : il n’y a pas d’au-delà. Si tel était le cas l’être humain ne pourrait plus être, il se pétrifierait. Avec notre cosmogonie actuelle, la thèse du Big Bang constitue un des notables obstacles.

            Dans la continuation de l’interview de G. Ellis, je veux isoler cette appréhension suivante : « Pour moi, le fait que le CERN ait passé les dix dernières années à effacer des données qui détiennent la clé d’une nouvelle physique fondamentale, c’est ça, le scénario de cauchemar. » Cette redoutable appréhension s’explique parce qu’au LHC parmi les milliards de collision proton-proton en quelques secondes seuls quelques centaines d’événements sont sélectionnés par un algorithme car censés être significatifs dans le cadre des connaissances et des projections actuelles. Il est à craindre que parmi les événements effacés il y ait de la physique non encore appréhendée qui serait une illustration de ce qui appartient à l’environnement de ‘parmi tous les possibles’ que j’ai évoqués précédemment. On a aussi, avec Ellis, l’expression d’une parfaite illustration qu’il faut que notre pensée soit préalablement bien placée pour exploiter valablement les données qui caractérisent des événements. C’est pour cette raison que la course à la puissance des instruments en se disant « on verra après », est absurde, onéreuse et source de méprises. Pour découvrir ce qu’il y a de caché dans une grotte, il faut en premier lieu fabriquer la torche appropriée, n’est-ce pas !

            Je reprends le fil du dialogue avec G. Ellis, à propos du multivers, p 259 :

            « Je ne suis pas contre le multivers. Je suis simplement contre l’idée que l’on puisse soutenir que c’est une science établie. Si les gens disent ça, ils veulent se défaire des exigences de l’expérimentation. Le raisonnement qui les a menés à la proposition du multivers était sain. Mais maintenant, ils ont tant d’étapes à franchir pour y parvenir, qui les éloignent de la physique bien établie. Chaque étape à l’air d’être une bonne idée, mais ce sont toutes des extrapolations non vérifiées de la physique connue. Autrefois (sic), on avançait une hypothèse, on vérifiait cette étape, puis on avançait une autre hypothèse et on la vérifiait, et ainsi de suite. Sans le retour à la réalité de l’expérience, on risque de s’engager dans la mauvaise voie. »

             S. Hossenfelder : « Mais c’est parce que les contrôles expérimentaux sont si difficiles. Et ensuite, que faire pour avancer ? »

            G. Ellis : « Je pense qu’il faut repartir et redémarrer avec quelques principes de base. Il y a une chose que nous devons repenser, ce sont les fondations de la mécanique quantique, parce que derrière tout ça, il y a le problème de la mesure de la mécanique quantique. Quand est-ce qu’une mesure est vraiment effectuée ? Quand, disons, un photon est émis ou absorbé. Et comment le décrire ? On utilise la théorie quantique des champs. Mais si vous prenez n’importe quel livre sur la théorie quantique des champs, vous ne trouverez rien sur le problème de la mesure. » Voir mon article, ‘Qui se permettra de le dire !’

            S. Hossenfelder : Je hoche la tête. « Ils se contentent de calculer les probabilités, mais ne discutent jamais de la manière dont les probabilités deviennent des résultats de mesure. »

            « Oui. Donc, il nous faut revenir en arrière et repenser le problème de la mesure. »

            Avec cet échange on constate que nous sommes loin de penser quantique. On constate aussi que la théorie quantique des champs est une source de problèmes et il est étonnant que ce soit maintenant, une fois que nous sommes au pied du mur, que des physiciens, qui ont fait leurs preuves, interrogent seulement maintenant la valeur de la prédiction théorique de la TQC. Les questions que posent G. Ellis sont par rapport à des intervalles du temps : « Quand est-ce qu’une mesure … » ; « Quand un photon est émis ou absorbé ? ». J’ai déjà proposé une réponse à ces questions et celle-ci se nomme ‘Temps propre du Sujet (de l’observateur)’ : τs soit de l’ordre de 10-26s. L’instantanéité d’une mesure ne peut pas être évaluée car l’action et les contraintes de l’observateur ne peuvent être ignorées et c’est ce qui caractérise la mécanique quantique. Donc aux questions de Ellis, je réponds de l’ordre de 10-26s.

            Comme je l’ai proposé dans plusieurs articles on franchira une étape décisive pour la compréhension de la mécanique quantique lorsqu’on établira expérimentalement que le temps est un propre de l’homme. Voir articles : ‘Appel d’offres’ du 5/08/2017 ; ‘Votre, Notre, Cerveau est une Machine du Temps’ du 29/07/2017.

            Tout récemment encore dans le Newscientist du 3 juillet, il y a un article au titre suivant : ‘Le paradoxe du temps : Comment votre cerveau crée la quatrième dimension.’ Article rappelant une expérience de 1981, indiquant que l’espace et le temps sont ensemble unis dans le cerveau comme ils le sont dans l’univers.

            Je ne compte plus, depuis plus de 15 ans les articles qui sont publiés sur ce sujet mais aucune hypothèse concernant une relation entre ce temps fabriqué par l’être humain et celui que l’on exploite en physique n’est considérée comme acceptable par les physiciens car cela détruirait leur croyance, ipso-facto, que leur science touche à l’universel et est le fruit de l’objectivité.

           

 

 

 

[1] Voir article du blog du 08/11/2011 : ‘Qui se permettra de le dire ?’, je me réjouis donc que ce soit quelqu’un parfaitement intégré présentement et reconnu dans le sérail qui se permette de le dire. Ouf, il était temps !

[2] Voir articles : « Et si notre pensée était mal placée » du 16/01/2016 ; « Perspectives » du 26/02/2017.

Partager cet article

Repost0
7 juin 2019 5 07 /06 /juin /2019 10:22

Sacrée Aventure

Je situe le début de cette sacrée aventure lorsqu’Albert Einstein formula l’hypothèse très hardie que le champ spatio-temporel et le champ gravitationnel devaient être mathématiquement associés. Et ce champ « géométrico-gravitationnel » est mathématiquement représenté par le champ tensoriel gµν. Cette aventure de la relativité générale est ainsi scellée par deux traits d’union qui relient Matière – Espace – Temps. Ce qui a mon sens est remarquable c’est que l’égalité définie entre champ géométrico-gravitationnel et le champ tensoriel gµν correspond à une opération intellectuelle de compréhension nouvelle d’une propriété purement physique de la part d’Einstein en lien avec un prélèvement purement mathématique d’objets de cette nature que représente gµν conçu depuis 1854 et proposé par Bernhard Riemann (1826-1866).

En effet la géométrie riemannienne est une géométrie qui dépasse la géométrie plane euclidienne en introduisant le concept de variétés géométriques. Il s’agit de géométries qui génèrent des surfaces de plus grande dimension (n dimensions) qui peuvent avoir tous types de courbures et munies de métriques permettant de calculer des chemins, géodésiques, des longueurs. C’est une géométrie analytique qui utilise les coordonnées locales.

Einstein a considéré qu’il y avait une parfaite convergence entre ce qu’il cogitait dans les années 1910 en tant que physicien pur et ce qu’avait cogité Riemann en tant que mathématicien pur dans les années 1850. Les Platoniciens ne sont pas étonnés de cette totale convergence car selon eux l’univers est l’œuvre d’un Divin Mathématicien, il faut donc apprendre à lire mathématiquement les pages de cet univers pour mettre en évidence son ordonnancement ‘physique’. Je ne partage pas ce point de vue mais les mathématiques sont des outils essentiels pour les physiciens ainsi on peut dire que les travaux de Riemann ont ouvert la voie à la théorie de la relativité générale en fournissant un langage formel, rigoureux, communicable aux autres physiciens et correspondant à l’état de la pensée einsteinienne. Il ne faut pas exclure non plus que les travaux de Riemann aient contribué à l’établissement de la pensée d’Einstein.

Entre l’époque de la pensée riemannienne et celle de la pensée einsteinienne objectivement, il faut prendre en compte l’époque intermédiaire correspondant à la pensée maxwellienne qui a très favorablement contribué au développement des hypothèses d’Einstein. En effet c’est Maxwell qui a introduit la notion de champ avec Ampère et Faraday et nous devons l’entendre comme un développement de la notion de force vecteur que l’on doit à Newton. Toujours est-il qu’une première unification de champs est proposée par Maxwell avec l’hypothèse du champ électromagnétique dont l’équation de propagation marque une étape très importante pour l’avènement de la physique classique moderne y compris la relativité restreinte. Dans ce cadre je veux illustrer ce qui correspond au clivage Platonicien et non Platonicien. Dans un article d’Avril, Edouard Brézin (qui fut, il y a une dizaine d’années, Président de l’Académie des Sciences), nous dit : « Maxwell, en 1865, comprend que la lumière est une onde de vibration des champs électrique et magnétique, dont il calcule la vitesse de propagation. » Un non Platonicien conséquent dira : « que la lumière est bien représentée par une onde de vibration des champs… », il est très réducteur d’attribué une ontologie à un concept mathématique. Enseigner les choses de cette façon est franchement erroné ou alors il faut signaler à l’auditoire et/ou au lecteur le parti pris philosophique qui est sous-jacent. D’ailleurs, Maxwell n’était pas dupe, il commentait ses recherches en indiquant que les physiciens avaient à leurs dispositions un filet, comme celui des pêcheurs, mais celui-ci constitué du réseau des connaissances mathématiques, qu’ils lançaient dans la nature et en le relevant, dans les mailles de leur filet pouvaient émerger certaines connaissances nouvelles sur la nature. Il n’oubliait pas de préciser que le reste passait au travers des mailles et qu’il fallait inlassablement relancer le filet. L’exhaustivité ontologique est un leurre qu’il n’est pas bon, à mes yeux, d’entretenir.

En écrivant le présent article, je pense à celui que j’ai posté précédemment le 14 Mai : ‘Chemin escarpé menant à un au-delà de la Relativité Générale’ car pour percevoir et franchir l’au-delà de la Relativité Générale il faut, pour le moins, comprendre toute sa force heuristique et appréhender sa/ses limite(s). Actuellement ce n’est pas le cas, il y a une quasi-unanimité pour reconnaître que la physique théorique est en crise depuis plusieurs décennies, que notre compréhension, interprétation de l’espace et du temps, surtout du temps, en sont très probablement en cause. Et que cela est rendu compte par l’impossibilité théorique d’intégrer dans un même corpus à la fois la mécanique quantique et la relativité générale dans une échelle commune de l’infiniment petit et des très hautes énergies. Or l’hypothèse hardie d’Einstein : « Le champ spatio-temporel et le champ gravitationnel ne font qu’un. Et ce champ « géométrico-gravitationnel » est mathématiquement représenté par le champ tensoriel gµν. » a priori ne peut toujours pas être remis en cause.

C’est en 1919, lors d’une éclipse totale du soleil, qu’Eddington observa que la trajectoire (géodésique) suivi par les rayons lumineux passant près du disque solaire se courbe exactement comme prédit par les équations d’Einstein calculant la déformation de cette géodésique induite par le voisinage de la masse solaire, pour un observateur terrestre. L’hypothèse de l’interdépendance entre matière, espace et temps est pour la première fois validée à cette occasion. Les exemples très convaincants de cette validation ne manquent pas et ils sont intégrés dans les instruments de notre vie quotidienne aujourd’hui.

Toutefois il est parfaitement possible que parmi tous ceux qui reconnaissent la valeur remarquable de la loi de la relativité générale, il y ait des interprétations très distinctes voire antinomiques. Par exemple, il y en a qui affirment que le temps est réel, c’est-à-dire est donné dans la nature, d’autres affirment que le temps physique n’existe pas, d’autres conjecturent que la gravitation est émergente. Donc, malgré l’hypothèse très forte et très contraignante d’Albert Einstein il y en a qui trouvent de la marge d’interprétation compatible avec les résultats authentifiés par les équations de la R.G. bien que certaines de ces interprétations soient l’objet de contorsions[1]. En effet Einstein a réuni dans un champ « géométrico-gravitationnel » unique : l’espace, le temps, la gravitation et l’interprétation par C.Rovelli d’une identification de l’espace-temps avec le champ gravitationnel constitue une extrapolation qui n’est pas bienvenue dans le moule de la pensée d’Einstein bien qu’après coup l’espace-temps est à nouveau distingué selon un processus bizarre appelé : ‘métabolisme’. De plus les équations de la mécanique quantique fonctionnent très bien avec une conception du temps non relativiste c’est-à-dire avec une conception du temps classique newtonien.

On connaît mal le cœur de la loi de la R. G. J’utilise cette expression pour indiquer que nous ne savons pas globalement exploiter analytiquement ses équations car c’est une loi générale avec 10 composantes non linéaires. C’est uniquement dans le cadre de symétries identifiées que nous obtenons des simplifications qui permettent de réduire le nombre d’équations. Ainsi les objets célestes sont souvent sphériques ou assimilés, dans ce cas de symétries sphériques les calculs avec la R.G. sont vraiment simplifiés. Lorsque par exemple nous essayons de rendre compte de coalescences de trous noirs, le champ gravitationnel est tellement élevé et dans ce cas les distorsions de l’espace-temps tellement importantes que nous ne pouvons pas exploiter la loi en tant que telle mais procéder par la voie numérique et ce sont les ordinateurs dotés d’algorithmes qui nous livrent des modèles probables d’ondes gravitationnelles se propageant dans le ‘tissu’ spatio-temporel et en conséquence détectables par les interféromètres terrestres.

Il est pensé qu’avec ces évènements célestes et extrêmes nous identifierons les limites de la validité de la relativité générale et ainsi les bases d’une nouvelle théorie complémentaire déjà nommée : gravité quantique, sont recherchés. Les perspectives ne sont pas enthousiasmantes. Dixit C. Rovelli[2], page 35 : « ‘Beaucoup de modèles ont été éliminés’ : La théorie des cordes et la gravité quantique à boucles ne sont pas les seules pistes pour une gravité quantique. D’autres ont été explorées et ont parfois été mises en grande difficulté par l’expérience… » Plus loin, page 36, l’auteur indique que la théorie des cordes ne peut pas être la bonne théorie candidate : « …Ces différents exemples de résultats observationnels et expérimentaux nous ont fait progresser sur ce que peut être la gravité quantique. Ainsi, les spécialistes de la théorie des cordes qui, dans les années 1980, pensaient résoudre rapidement le problème de la gravité quantique ont dû revoir leurs objectifs. »  C. Rovelli nous dit ensuite que sa théorie de la gravité quantique à boucles reste donc la plus crédible et il s’empresse de citer des exemples sur lesquels sa théorie serait en mesure d’apporter des explications. La difficulté c’est que ces exemples sont des produits de théories purement spéculatives et donc ses propositions de preuves sont aussi spéculatives.

Voyons ce qui, selon mon point de vue, conduit à une fragilité conceptuelle de la gravité quantique à boucles. Je cite encore C. Rovelli, page 34, « …on postule que l’espace-temps (sic) lui-même est sujet à tous les phénomènes typiques de la physique quantique, avec la conséquence, en particulier, que l’espace (sic) ne serait pas continu, mais discrétisé : aires et volumes deviennent des grandeurs quantifiées, qui ne peuvent être arbitrairement petites. » On constate dans cette phrase un manque de rigueur car pourquoi évoquer l’espace-temps alors qu’il n’y a que l’espace qui serait discrétis(able) dans sa théorie. Ce résultat théorique des aires et volumes quantifiés fut proposé il y a une bonne vingtaine d’années avec Lee Smolin. Il est remarquable que l’un et l’autre soient maintenant en total désaccord à propos du temps, puisque L. Smolin milite pour un temps réel donné dans la nature alors que C. Rovelli prétend que le temps n’est pas donné et serait émergent pour des raisons thermodynamiques liées à la problématique de l’irréversibilité.

De plus, on peut s’étonner de mettre en avant une théorie de la gravité quantique à boucles avec seulement une production théorique d’aires et de volumes quantifiés… aux dimensions de la longueur de Planck. C’est à ce niveau qu’il y a une extrapolation d’interprétation qui n’est pas bienvenue. En effet l’auteur postule « Au contraire, l'espace-temps est identifié avec le champ gravitationnel… », voir citation 1. Cette contorsion avec ce qui s’ensuit à propos du ‘métabolisme’ est nécessaire pour pouvoir affirmer : « discrétiser l’espace c’est discrétiser la gravitation. »

Maxwell en associant dans un même champ, le champ magnétique et le champ électrique, n’a pas pour autant annulé la signification physique distincte de chacun de ces champs avec l’hypothèse du champ électromagnétique. Einstein n’a pas préconisé que l’espace et le temps, ni l’espace-temps, n’avaient plus de significations physiques propres en les associant avec le champ gravitationnel dans un champ unique « géométrico-gravitationnel »

En conséquence la sacrée aventure de la relativité générale n’est pas à la veille d’être relayée par une nouvelle aventure qui serait quantique.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

[1] Certaines de ces interprétations sont l’objet de contorsions illustrant qu’il n’est pas simple pour un physicien qui veut être entendu par ses pairs de s’émanciper des hypothèses einsteiniennes, je cite : « Au contraire, l'espace-temps est identifié avec le champ gravitationnel (c.a.d. avec le champ dynamique). Cette interprétation est à la base de la gravité quantique à boucles. Un exposé complet se trouve dans le livre de Carlo Rovelli "Quantum Gravity" (section 2.3.2 ‘la disparition de l’espace-temps’). Néanmoins l'espace-temps est toujours bien présent (sic) dans la théorie, sous cette nouvelle forme dynamique, qu'ici nous appelons le "métabolisme" de l'espace-temps.  Ainsi donc, pour répondre à votre question : ce qu'on appelle l'espace-temps et le champ gravitationnel sont ultimement la même chose. Puisque que c’est un objet dynamique, ce n'est pas très étonnant qu'il contienne des oscillations qui se propagent dans sa structure (re-sic). »

 

[2] Dans ‘Pour la Science’ de juin 2019, article : ‘La théorie quantique de demain’ ; ‘Les nouveaux défis de la physique quantique’. N° que je recommande, bien évidemment.

Partager cet article

Repost0
14 mai 2019 2 14 /05 /mai /2019 16:13

Chemin escarpé menant à un au-delà de la Relativité Générale

Depuis le 1er Avril les deux détecteurs d’ondes gravitationnelles, l’un américain Ligo, l’autre européen Virgo, ont été simultanément remis en activité avec un gain de sensibilité respectif de l’ordre de 50%. Cette Collaboration Ligo Virgo (CLV) prévoit, grâce à ce gain de sensibilité remarquable, de détecter de l’ordre de 4 collisions-fusions de trous noirs par mois et une collision-fusion d’étoiles à neutrons par mois. Ce run 3 d’activité sur un mois, qui est programmé pour durer une année complète, a confirmé ces prévisions. Si ce résultat n’est pas le fait du hasard, cela est intéressant car grâce aux résultats des runs 1 et 2 ainsi que les prévisions des théoriciens on a déjà une idée de la densité dans l’univers local de ces objets célestes qui peuvent faire vibrer les interféromètres.

Le 25 avril, un signal significatif correspondant à la fusion de 2 étoiles à neutrons a été réceptionné par CLV située à environ 500 millions d’années-lumière. Les équipes étaient encore mobilisées sur cet événement que le lendemain un nouveau signal gravitationnel modifiait la position des miroirs des interféromètres de 10-19m environ. A première vue ce signal à l’aspect inattendu semblait annoncer une collision mixte c’est-à-dire entre un trou noir et une étoile à neutrons. L’enthousiasme immédiat des équipes provoqué par cette signature inattendue mais très intéressante a baissé d’un cran parce qu’un des bras de Ligo était en stand-by pour cause de réglage et en conséquence la localisation spatiale probable de cet événement devenait très imprécise. Or cet événement quand il a lieu est à coup sûr multimessages. Encore faut-il que les télescopes recueillant les ondes électromagnétiques correspondantes, d’une gamme étendue de fréquences, puissent être orientés dans la bonne direction en quelques fractions de seconde. Actuellement aucune des équipes travaillant sur les télescopes en question n’ont annoncé avoir enregistré quelque chose de significatif en rapport avec l’alerte du 26 avril. Malgré tout, il est toujours considéré qu’une collision mixte a eu lieu a 1,2 milliards d’années-lumière mais la dimension multimessages n’a pas pu être mise à profit.

Rappelons qu’un événement multimessages permet d’analyser les ondes gravitationnelles spécifiques de la collision ainsi qu’analyser les ondes électromagnétiques produites par celle-ci et la durée d’observation peut être prolongée de plusieurs jours avant que le produit final de la collision ne devienne noir.

Lorsque nous sommes en mesure de pouvoir déceler la collision de 2 trous noirs, les ondes gravitationnelles recueillies par l’interféromètre sont la seule source de décryptage de l’événement. La classification de celui-ci est obtenue avec l’exploitation d’une base de données de calibres. Ceux-ci sont conçus préalablement grâce l’exploitation des équations de la Relativité Générale donc ils sont représentatifs de ce que la R.G prédit. L’opération d’identification par calibrage présente donc le risque d’être au moins réductrice sinon erronée car actuellement nous ne savons pas si la R.G. est valable pour décrire ce type d’évènement, même approximativement. Nous n’avons pas d’autres moyens pour identifier ces collisions car aujourd’hui aucun autre moyen théorique n’a été mis à jour depuis 1915. L’espoir est donc, grâce à la multiplication d’observations de collisions de trous noirs, empiriquement, on finira par constater des écarts entre prédictions et observations effectives. Plus on enregistrera de données plus le chemin de constats d’écarts sera traçable. De plus on peut émettre l’hypothèse qu’à la force de l’habitude les équipes travaillant sur ce sujet gagneront de la capacité d’analyse des ondes gravitationnelles de plus en plus aigüe et différencieront progressivement ce qui est de l’ordre du prédictible et ce qui est de l’ordre de l’authentiquement nouveau.

Ce qui est à l’ordre du jour c’est donc de trouver un chemin qui nous mènera au-delà de la Relativité Générale car nous n’avons jusqu’à présent aucun paradigme nouveau qui permet de concevoir par anticipation cet au-delà. C’est un chemin par petit pas que nous devons emprunter et effectivement nous avons de bonnes raisons de penser qu’avec ces extraordinaires évènements, que nous sommes capables de détecter depuis 2016, une première fenêtre est entr’ouverte. Entrouverture parce que la seule détection de fusions de trous noirs telles que celles qui ont été enregistrées sont relativement pauvres en informations. En effet les trous noirs sont des objets célestes qui sont caractérisés par des paramètres intrinsèques limités : leur masse certes et aussi leur spin de rotation. La collision de 2 de ces objets produit finalement, instantanément, un objet semblable avec une masse double moins une ou deux masses solaires, voire plus, qui se transforment en énergie de rayonnement gravitationnel qui porte jusqu’aux détecteurs terrestres la perturbation de l’espace-temps.

Heureusement qu’il est possible d’enrichir ces données avec celles enregistrées lors de collisions d’étoiles à neutrons comme ce fut le cas en 2017. Certes elles sont moins massives, de l’ordre de 2 à 3 masses solaires contre 20 jusqu’à 50 pour les trous noirs présentement détectés, mais du fait qu’il y a émission de rayonnement électromagnétique en accompagnement du rayonnement gravitationnelle dans une large gamme : ondes radios jusqu’aux rayons gammas, la richesse des informations recueillies permet, en plus de constater la validité ou pas de la R.G., d’évaluer par contraste ce qui différencie trous noirs et étoiles à neutrons. En effet l’état de la matière dans une étoile à neutrons est l’ultime état ‘connaissable’ avant celui totalement inconnaissable d’un trou noir. D’ailleurs, finalement, l’ultime objet céleste résultant de la fusion de 2 de ces étoiles est un trou noir et si on pouvait capturer quelques indices résultant de cette transformation ce serait remarquable.

Il est clair que c’est l’évènement collision-fusion de 3e type c’est-à-dire : trou noir étoile à neutrons, qui pourrait nous éclairer au mieux de ces situations physiques extrêmes. A priori la traçabilité de l’événement est envisageable car l’étoile à neutrons émet du rayonnement. Ensuite, l’étoile de ce type ne fait pas le poids à l’égard du trou noir qui l’attire, ainsi jusqu’à un certain point, la géodésique du mouvement de celle-ci est celle imprimée par le trou noir et à cette occasion on pourrait mieux comparer géodésique prédite par la R.G. et la trajectoire effective avant absorption. De plus à cause de la disparité des masses en présence on peut prévoir que la matière de l’étoile se sépare par lambeaux du corps central et en plus de son rayonnement électromagnétique qu’on pourrait observer on pourrait mieux identifier la nature de l’état de cette matière.

Grâce à Hulse et Taylor, deux astrophysiciens américains, qui ont découvert le pulsar PSR B1913+16 (2 étoiles à neutrons en mouvement de rotation l’une par rapport à l’autre) en 1974 et qui l’ont étudié très précisément (prix Nobel 1993) avec les équations de la R.G. on sait que ces équations d’Einstein sont quasiment exactes pour ce type d’objets célestes. Si avec l’étude des trous noirs dans le cadre d’évènements du 3e type on trouve des écarts significatifs avec la R.G. nous pourrons connaitre le seuil de transition à partir duquel la R.G. perd de sa capacité de prédiction qui devra ainsi être modifiée voire invalidée.

La découverte d’un seuil de transition constituerait un indicateur mais ne nous fournirait pas pour autant la clé de l’au-delà de la Relativité Générale. Par contre les tenants de la théorie des cordes ou de la gravité quantique à boucles disposeront d’un territoire de données observées qui permettra de mettre à l’épreuve une correspondance ou pas entre ce que prédisent leurs théories et ces données observées.

Ce qui est à mes yeux le plus probable c’est de devoir se préparer à progresser en terra incognita, ce qui constitue une perspective hautement intéressante mais aussi redoutable car il est à craindre que ni la gravité à boucles ni la théorie des cordes ne nous offre un ancrage au-delà de la Relativité Générale.

 

Partager cet article

Repost0
7 mai 2019 2 07 /05 /mai /2019 15:05

Notes de lecture du livre de Smolin

La Révolution Inachevée d’Einstein.

 

Cet article fait suite au précédent du 27/04.

En résumé : pour L. Smolin, il sera possible de transformer la mécanique quantique lorsque on aura maitrisé une conception exacte de l’espace-temps. C’est-à-dire selon sa conception lorsqu’on comprendra que le temps est un donné de la nature (de l’univers) donc réel et irréversible et que l’espace est émergent.

Avec ces deux phrases je rencontre l’intérêt d’étudier le point de vue de Smolin puisqu’il est quasiment opposé au mien et c’est donc une occasion pour renforcer mon propre point de vue ou bien d’intégrer le sien pour enrichir ce que je pense. Selon moi le temps n’est pas donné il est un propre de l’homme et quant à l’espace c’est sa signification classique qui est émergente suivant l’entendement de l’homme et la fonction qu’il lui a attribué mais la problématique de la spatialisation est donné dans la nature. En conséquence il n’est pas exclu qu’il soit plus riche avec par exemple des dimensions supplémentaires microscopiques. Ce que je considère comme préalable et essentiel c’est le repérage spatio-temporel de tout objet physique pour que le physicien puisse développer un discours scientifique sur cet objet. Lorsqu’un observateur est privé de ce repérage il est amené à concevoir des états différenciés par exemple en mécanique quantique : onde ou particule ainsi que des phénomènes qui échappent à son entendement façonné par son rapport avec la nature à l’échelle classique, tel que celui conduisant à ce que l’on nomme l’intrication, l’indiscernabilité. (Voir article : Appel d’offres, le 05/08/2017)

Pour Smolin c’est en couplant la physique quantique et l’espace-temps au niveau de principes fondamentaux qu’il sera possible d’établir les conditions d’une nouvelle physique. Cette tentative est selon lui essentielle car il considère que la mécanique quantique est incomplète (sic) et il veut construire une théorie réaliste en s’appuyant sur les principes du relationnisme temporel qui conduirait à un achèvement concomitant de la mécanique quantique et de la relativité générale. Il écrit page 253 : « J’ai l’espoir que cette théorie non seulement résoudra les puzzles des fondations de la mécanique quantique, mais conduira à la découverte de la bonne théorie de la gravité quantique. »

En conséquence il postule qu’une théorie physique ne doit aucunement dépendre de structures qui soient fixes (gelées) et qui n’évoluent pas dynamiquement en interagissant avec d’autres quantités. La géométrie de l’espace et du temps est gelée avec la physique de Newton, et elle est aussi gelée avec la relativité restreinte. Dans ces théories, la géométrie de l’espace-temps fournit un arrière-plan absolu et fixe sur lesquelles les mesures sont définies. A contrario, la Relativité Générale dégèle la géométrie et la rend dynamique. Malgré tout, selon Smolin, aussi belle soit-elle, elle ne doit pas être la fin de notre recherche et elle nécessite des améliorations futures. S’il est possible de transformer la mécanique quantique il faut éliminer les structures d’arrière-plan. Pour le faire il présente et dégèle l’arrière-plan et lui octroie une dynamique. En d’autres mots, plutôt que de quantifier la gravité il cherche à gravitifier (graviter ?) le quantum (dans le texte original : gravitize the quantum[1]) (sic). Cela signifie identifier et dégeler les aspects de la théorie quantique qui sont arbitraires et fixes, en les transformant en sujets de lois dynamiques. Ainsi les observables essentielles des théories physiques doivent décrire des relations.

L. Smolin récapitule les 5 principes fondamentaux qui sont totalement en cohérence :

            1. Le principe de l’indépendance de l’arrière-plan ;

            2. Le principe que l’espace et le temps sont relationnels ;

            3. Le principe de la complétude causale ;

            4. Le principe de réciprocité ;

            5. Le principe de l’identité et de l’indiscernabilité ;

Chacun de ces 5 principes représente un aspect d’un principe unique que Leibniz appelle le Principe de la raison suffisante.

Page 234, Smolin affirme : « Un scientifique qui aspire à être rationnel doit être un relationniste. » Ce qui interpelle avec cette sentence c’est qu’il est convaincu qu’il n’y a pas à considérer la relation entre le scientifique et la nature dont il cherche à décrypter les lois et propriétés car selon le point de vue du réaliste qu’il est, le scientifique pense la nature et est capable d’identifier ses lois physiques sans relation avec celle-ci qui puisse interférer, déterminer, la façon dont il les conçoit. Il est assez extraordinaire de déclarer que tout est relation sauf en ce qui concerne le physicien qui serait donc un spectateur extérieur, neutre, qui n’aurait aucune influence sur le sujet de son étude. Selon Smolin, l’investissement intellectuel du physicien sur son sujet est sans conséquence puisque sa pensée a l’ampleur d’une pensée, sans attache et sans histoire, universelle. Les physiciens sont en grande partie enfermés dans cette croyance, piège s’opposant au déploiement de leur pensée, même ceux qui éprouvent la nécessité de se libérer du carcan, l’expriment d’une façon mineure en se déportant en tant que philosophe (sic) (Voir articles sur A. Barrau 12/04/2016[2] et 23/04/2016). Ou bien encore ils l’expriment juste à la chute d’un article pour ne pas avoir à s’expliquer. On ne devrait pas oublier l’influence de la nature sur le sujet pensant : Voir article du 06/04/2019.

Page 236, il est proposé trois hypothèses par l’auteur : Le Temps, dans le sens de la causalité, est fondamental. Le Temps est irréversible. L’Espace est émergent.

Je cite : « Donc cela veut dire que la localité est émergente. La Non-localité doit donc être émergente. Si la localité n’est pas absolue, si c’est le résultat contingent d’une dynamique, il y aura des défauts et des exceptions. Et bien sûr cela semble être le cas : comment peut-on comprendre autrement (sic) la non-localité quantique, particulièrement l’intrication non-local ? Ceci, me permet de faire l’hypothèse, que cela correspond à un reliquat de relations sans espace inhérent dans l’étape primordial, avant que l’espace émerge. Ainsi en déclarant que le temps est émergent on gagne la possibilité d’expliquer la non-localité quantique comme la conséquence d’un défaut qui survient dans cette émergence. »

« La combinaison du temps fondamental et de l’espace émergent implique qu’il peut y avoir une simultanéité fondamentale. A un niveau profond, dans lequel l’espace disparaît mais que le temps persiste, un sens universel peut être donné au concept de maintenant. »

Tout cet ensemble que j’ai cité semble complètement ad hoc, la suite est identique et donc je ne poursuis pas la citation. C’est au nom du ‘Relationnisme Temporel’ qu’il rend compte de l’intrication. On remarque qu’il accorde au maintenant une durée égale à zéro ce qui pose un problème de justification car on sait que toute mesure, aussi petite qu’elle soit, nécessite une durée. J’estime que ce maintenant que je nomme ‘Moment Présent’ (voir article du 02/05/2013 : Bienvenu au ‘Moment Présent’ de L. Smolin) a une valeur de l’ordre de 10-25s et ceci explique, selon ma conception, le phénomène de l’intrication car c’est la durée correspondant au point aveugle de l’intelligence humaine. Donc on peut constater que par des chemins extrêmement différents on explique identiquement que c’est sur (avec) la composante temporelle que l’on rend compte du phénomène de l’intrication.

Contrairement à mes habitudes je ne conseille pas ni ne déconseille de lire ce livre car il n’offre pas matière à réflexion, on ne sait pas non plus à qui il s’adresse. Peut-être à personne, il avait juste besoin de l’écrire pour lui-même.

 

[1] A une autre époque de sa carrière de physicien il avait postulé l’idée d’une : « Théorie Quantique à partir de la Gravité Quantique. »

[2] Je cite : Mais il ne faut pas oublier, en parallèle de cette mise en rapport avec l’autre, avec l’ailleurs, avec l’hors, que nos manières d’appréhender cet « autre part » n’en demeurent pas moins humaines et créées. Il faut rester conscient que cette tentative d’exploration du loin n’est entreprise qu’avec nos modalités purement et inéluctablement humaines et donc locales. Nous choisissons et inventons les rapports au(x) monde(s) que nous jugeons pertinents. Ils ne sont pas donnés, ils sont construits. Tout se joue dans cette tension entre l’ « air frais » qui vient du dehors et notre ressenti ou notre explication de cet air frais qui n’est jamais une mise en lumière de la nature intrinsèque et absolue de l’essence de cet air frais

La science est souvent arrogante dans ses enjeux et parfois même dans ses conclusions mais elle est fondamentalement modeste dans ses moyens. Elle est une louable tentative d’accéder au non-humain-du-réel. Elle est toujours consciente – elle devrait en tout cas l’être – de ses limites. Limites omniprésentes ! Elle intègre sa finitude et c’est ce qui lui permet de jouer avec l’illimité. 

La situation est parfois complexe et plurivoque. Il ne faut pas chercher à enfermer la science dans une vision linéaire et parfaitement sans équivoque… »

 

Partager cet article

Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens