Overblog
Suivre ce blog Administration + Créer mon blog
30 juin 2022 4 30 /06 /juin /2022 15:48

Le 01/07/2022

Toujours la suite de la publication du 2e chapitre : ‘Présence’ : du mémoire ‘l’Être humain est une Réalité de/dans l’Univers’. C’est précisément la continuité de la publication du 24/06

----------------------------------------------------------------------------------------------

Il est bien connu que la quête permanente du physicien Einstein était de mettre en évidence le (un) monde réel, car pour lui, il n’y avait pas l’ombre d’un doute – c’était sa ‘croyance’ – il y avait un monde réel. Certes, il pouvait être amené à nuancer son propos : « Le vrai problème est que… la physique décrit la ‘réalité’, mais nous ne savons pas ce qu’est la réalité. Nous ne la connaissons que par la description physique. »  Mais sa foi dans le rôle du physicien et sur la nature du savoir qu’il maîtrisait était quand même inébranlable : « Les concepts physiques sont faits pour correspondre à la réalité objective et c’est à l’aide de ces concepts que nous représentons cette réalité. » Bref, de la science physique émerge la réalité, science qui nous permettrait d’accéder à la connaissance universelle.

Il est difficile d’accepter que le prix à payer pour accéder à l’intelligence d’une réalité objective révélée par l’activité du physicien conduise à l’évacuation du sujet, donc à l’évacuation de ce même physicien. Pourtant, c’est grâce à l’exploitation sans faille de ce préalable philosophique qu’A. Einstein à inventer la loi de la Relativité Générale, remarquable invention de l’esprit humain qui lui a demandé dix années d’un travail tenace, presque solitaire pour aboutir en 1915 à sa production-invention. Elle est encore aujourd’hui une loi très fertile (voir l’observation récente des ondes gravitationnelles qu’elle prédit ainsi que l’exactitude des trajectoires des étoiles, dont elle permet le calcul, au voisinage du trou noir central de la voie lactée.) et toujours un outil théorique remarquable, à l’échelle classique, dont ont hérité les physiciens. Par contre elle est muette de prédiction physique lorsqu’on tente de l’exploiter à l’échelle quantique.

C’est au cours de l’année 2005, à force d’étudier les conséquences de la conception Einsteinienne que j’ai considéré que cette conception était une anomalie et qu’elle était à la source de la crise actuelle de la physique théorique qui dure depuis plus de 30 ans. Mon hypothèse est qu’il est erroné de postuler une propriété physique fondamentale effective à condition d’accepter sa conséquence implicite : l’annulation de la présence de l’être humain réflexif. Il ne peut y avoir de coïncidences spatio-temporelles authentiquement observables car l’être humain a besoin, au minimum, d’une fraction de temps pour évaluer un événement ou une situation. Un écart de temps effectivement nul n’est pas accessible étant donné notre atavisme et en conséquence selon le précepte d’Einstein, la connaissance effective d’une réalité figée n’est pas accessible. Dans l’écart de temps rédhibitoire, incompressible, il y a la ‘Présence’ du sujet pensant. Celle-ci est la chair du ‘maintenant’, du ‘moment présent’, qui est le pivot de notre perception du temps. A l’opposé voici ce que nous dit Einstein à ce sujet lorsqu’il écrit en 1955 : « Pour nous, physiciens croyants, la séparation entre passé, présent et avenir, ne garde que la valeur d’une illusion, si tenace soit-elle. » Pour éviter le moindre quiproquo il faut comprendre que lorsque Einstein écrit : pour nous physiciens croyants, il s’agit de la croyance du bien-fondé de la physique réaliste et non pas d’une croyance religieuse.

Etant donné l’hypothèse de la ‘Présence’ que je propose et ne cesse de tenter de justifier, je dois proclamer que ‘l’Être humain est une Réalité, à la fois, de et dans l’Univers’. C’est donc à partir de cette réalité que rayonne une connaissance-compréhension de ce que l’on nomme l’Univers dont on ne cesse de repousser ses limites.

Lorsqu’en 2014 (l’original en anglais en 2013) j’ai rencontré le livre de Lee Smolin : « La Renaissance du Temps », avec le sous-titre : « Pour en finir avec la crise de la physique (sic) », j’ai pensé qu’avec cet auteur j’allais rencontrer une complicité intellectuelle. En effet, au début de son ouvrage, il concentre sa réflexion sur ce qui constitue pour lui l’erreur première qui stérilise la pensée scientifique car les théories actuelles, depuis Galilée ou Newton, font comme si le temps n’existait pas réellement. Il fut le codécouvreur, avec C. Rovelli, d’une théorie cosmologique fameuse : la gravité quantique à boucles, jusqu’à présent non constatée expérimentalement. Dans la quatrième de couverture il est indiqué : « La question du temps est au cœur de toutes problématiques scientifiques, de la cosmologie à la mécanique quantique… Smolin expose sa conception du temps et ses implications sur la perception de notre environnement… Il opte pour la réalité du temps, s’opposant en cela à la majorité des penseurs, physiciens ou philosophes, inspirés pour les uns par la théorie de la relativité d’Einstein et pour les autres par les idées platoniciennes. »

La perspective d’une complicité intellectuelle avec Smolin fut éphémère car très rapidement j’ai compris qu’entre l’hypothèse de la réalité du temps de Smolin et la mienne il y avait plus qu’un hiatus car pour lui : le temps est effectivement réel, donné, dans la nature, il est un étant. Tandis que pour moi il n’a de réalité que par l’intermédiaire de la réalité de l’être humain dans l’univers. L’être humain, dont sa réalité est inexpugnable, est le vecteur du temps. Le temps est un propre de l’être humain.

Il est certain que L. Smolin développe dans son livre une analyse très aiguë de la Relativité Générale et indique que celle-ci impose que l’on doit retenir une image de l’histoire de l’univers, prise en une fois, comme un système d’événements reliés par des relations causales, ce que l’on nomme univers bloc. Ce qui est suggéré : « ce qui est réel est l’histoire totale prise en bloc ». Selon l’auteur, c’est une vision dépourvue du temps, car elle se réfère à l’histoire entière de tout l’univers à la fois, il n’y aurait donc aucune signification attribuée à « futur » ou « passé » ou « présent », il n’y a que la structure causale totalement et définitivement établi qui peut rendre compte de ce qui est réel. Malgré tout on peut espérer que Smolin s’apprête à franchir un cap voire le Rubicon quand il affirme : « Mais l’univers réel a des propriétés qui ne sont pas représentables par un quelconque objet mathématique. Une de celles-ci est qu’il y a toujours un ‘moment présent’ (sic). Les objets mathématiques, étant intemporels, n’ont pas de moments présents, n’ont pas de futurs, ni de passés. Toutefois si on embrasse la réalité du temps et voit les lois mathématiques comme des outils (sic) plutôt que des miroirs mystiques de la nature, d’autres faits têtus, inexplicables, concernant le monde deviennent explicables… »

Eh bien ! non, finalement L. Smolin ne franchit pas un cap et encore moins le Rubicon, il est Einsteinien jusqu’au bout des ongles proclamant dans un livre suivant que c’est avec la relativité générale que l’on trouvera la bonne description de la gravité quantique, confère : ‘Einstein’s Unfinished Revolution’ ; « La Révolution non Finie d’Einstein ».

Si je consacre beaucoup de pages à la question du temps, c’est qu’il est au cœur de toutes les problématiques scientifiques physiques, de la cosmologie à la mécanique quantique. Le temps est-il une illusion ou une réalité physique de notre univers ? Depuis Saint Augustin (354-430), cette interrogation, sous des versions multiples, est posée. Le Saint en question s’étonnait : « Si on me demande ce qu’est le temps, je sais ce qu’il est. Si on me demande ce qu’il est, et que je veuille l’expliquer, je ne sais plus. » Effectivement il est compliqué de dévoiler ce qu’est le temps. Il est tellement présent dans notre existence qu’il est extrêmement difficile d’avoir le recul souhaitable pour le traiter comme un objet de pensée.

 Newton avait abordé le problème en affirmant qu’il était le sensorium de Dieu, ainsi que l’espace. Dans ses Principia, il donne comme définition du temps : « Le temps existe dans et par lui-même et s’écoule tranquillement sans référence avec quoi que ce soit d’extérieur. » Ce temps absolu est sans rapport avec le temps relatif : « … apparent et vulgaire qui est cette mesure sensible et externe d’une partie de durée quelconque [ … ] prise du mouvement : telles sont les mesures d’heures, de jours, de mois, etc., dont on se sert ordinairement à la place du temps vrai. »

A notre époque cette problématique devient de plus en plus aiguë et la référence au divin ne peut plus être un recours. Elle devient un obstacle majeur à toute avancée possible de la connaissance scientifique. Einstein, lui-même, fut pris dans le tourbillon de cette difficulté, et sa pensée a semble-t-il oscillé, vacillé, sans pour autant la modifier. Nous pouvons sans hésitation nous référer à ce que R. Carnap (logicien 1891-1970) rapporte du témoignage d’une discussion qu’il a eue avec Einstein au cours de laquelle il fait part d’une préoccupation qu’il évacue en appelant à la résignation (sic).

« A une occasion, Einstein dit que le problème du ‘Maintenant’ le préoccupait sérieusement. Il expliqua que l’expérience du ‘Maintenant’ signifie quelque chose pour l’Homme, quelque chose d’essentiellement différent par rapport au passé et au futur, mais cette différence importante ne se produit pas et ne peut pas se produire dans la physique. Du fait que cette expérience ne peut pas être saisie (comprise) par la science semblait être pour lui un sujet pénible mais inévitablement il fallait se résigner. Je [Carnap] remarquai que tout ce qui se produit objectivement peut être décrit scientifiquement ; d’un côté la séquence temporelle des événements est décrite en physique ; et, d’un autre côté, les caractéristiques des expériences humaines en accord avec le temps, incluant son attitude différente concernant le passé, le présent, et le futur, peut être décrit et (en principe) expliqué en psychologie »

Néanmoins, ce paradoxe ‘univers-bloc/écoulement du temps’ est profond.

Il n’est pas possible d’être indifférent à l’argumentation d’Einstein qui propose la résignation du scientifique parce que selon lui « cette expérience ne peut être saisie (comprise) par la science ». Quelle est cette science qui dicterait au physicien ce qu’il doit penser ? Nous sommes d’accord pour reconnaître qu’Einstein a inventé un paradigme scientifique fondamental très fertile conduisant à l’invention de la théorie de la relativité générale qui en résumé signifie que cette théorie est indépendante, indifférente, à la présence du sujet pensant et celui-ci n’aurait aucune influence sur ce qui est observable et donc sa présence doit être gommée. De là à considérer qu’il aurait grâce à ce paradigme mis à la disposition de la communauté scientifique un paradigme universel, loin s’en faut puisque la mécanique quantique ne s’en arrange pas. La science d’aujourd’hui ne peut pas dicter au physicien ce qu’il doit penser, cela ne doit jamais être le cas et elle ne doit jamais conduire à la résignation car il y a toujours de la connaissance à conquérir, de nouveaux paradigmes à concevoir, et cette dynamique est inhérente à l’homme.

« Il est temps de créer une nouvelle culture scientifique, dans laquelle nous nous considérons nous-mêmes à la fois comme une expression de la nature et comme une source de l’auto-compréhension de la nature », dixit les auteurs de l’article ‘La Tache aveugle’. En adjoignant les propos d’Aurélien Barrau, et de Blay que j’ai aussi mis en valeur dans le prologue, je me considère moins franc-tireur en affirmant que l’Être humain est une Réalité de/dans l’univers. Dans ce cadre scientifique nouveau le ‘Maintenant’ est une donnée qui doit être intégrée. Son amplitude est caractérisée par ‘TpS’ et sa valeur serait selon mon appréciation de l’ordre de 10-27-28s. Selon ma conception, le ‘Temps propre du Sujet’ correspond à l’intervalle de temps impératif durant lequel le ‘Sujet Pensant’ rassemble son unité d’Être dans la nature. TpS est une scansion fondamentale, un tic-tac de l’horloge fondamentale qui ordonne le temps que je considère comme un propre de l’homme.

Un autre physicien a engagé en 2016 un début de révolte contre l’écrasement de la théorie Einsteinienne symbolisé par le concept d’univers-bloc. Nicolas Gisin physicien Suisse, disciple de John Bell et adepte d’une philosophie réaliste est à l’origine du concept de ‘Temps Créatif ‘ qui a la valeur d’un instant, d’un moment, qui s’impose primordialement, selon son point de vue, grâce au : ‘libre arbitre’ de l’être humain : ressource fondamentale qui lui est propre quand l’être humain pense, quel que soit le domaine de sa pensée. En conséquence le flux du temps est de notre monde et il faut rétablir cette compréhension pour retrouver les voies des bons raisonnements en science physique. En incise dans son article, N. Gisin écrit : « désolé Einstein » ce qui en dit long sur la difficulté de s’émanciper réellement. Plus loin l’auteur est radical quand il écrit : « La physique a tué le libre arbitre et le flux du temps. Nous devons revenir en arrière. » Erreur, il ne s’agit pas de revenir en arrière, surtout pas, il s’agit de dépasser la pensée Einsteinienne sans devoir s’excuser et d’aller de l’avant. Lui-même, Einstein, affirmait qu’une bonne théorie à venir, qu’elle que soit la théorie en question, est une théorie qui englobe la précédente sans l’annuler. C’est exactement ce qu’il a obtenu car la théorie de la relativité générale englobe celle de Newton et quand les conditions sont requises la loi de Newton se décline avec une très bonne approximation depuis la relativité générale lorsqu’on l’exploite à l’échelle de la physique classique. D’ailleurs ce fut un des critères qui a contribué à confirmer sa validité au tout début de sa publication en 1915. Ce sont les tâtonnements pour dépasser une théorie présente qui nous servent de points d’appuis pour la dépasser.

A mon sens, quand N. Gisin revendique la reconnaissance du ‘Temps Créatif’ et partant la reconnaissance du ‘Libre Arbitre’, il revendique évidemment la reconnaissance de la ‘Présence’ de l’être humain au sein de l’univers. Le ‘Libre Arbitre’, est une notion subjective qui évolue avec les acquis de la connaissance. Plus on dispose de connaissances, de références scientifiques, plus, concomitamment, nous nous émancipons par réductions de nos déterminations, déterminations qui sont des causes d’inerties contraignant nos pensées et leurs visées. Quand le libre arbitre humain prend de l’ampleur, les capacités de pénétrer dans des domaines nouveaux de connaissances sont plus affirmées, elles s’accroissent et c’est une tendance permanente.

La science physique a besoin de grandeurs invariantes. Avec mon concept de ‘Présence’, je satisfais à cette contrainte. En effet, j’ai défini un ‘Temps propre du Sujet’ pensant qui est donc un intervalle de temps en deçà duquel le sujet ne peut être en état de cogiter. C’est-à-dire que tout processus physique ou autre qui se déroule dans un intervalle de temps inférieur à TpS, ne peut être saisi par notre intelligence, cela induit un point aveugle, une zone aveugle, irrémédiable, de notre capacité d’inférer. Cette idée est révoltante et notre égo ne peut que très difficilement l’accepter. Actuellement mon estimation de TpS est de l’ordre de 10-27s à 10-28s, quand on convertit cet intervalle de temps en intervalle de distance spatiale cela correspond, avec C vitesse maximale de déplacement, à 10-18m. Cela correspond à la plus petite variation de déplacement observable d’un miroir de l’interféromètre de Ligo ainsi qu’à la dimension supposée d’un électron que l’on a beaucoup de difficultés à authentifier.

Depuis 2020, un groupe de physiciens dirigé par Martin Bojowald prédit un intervalle de 10-33s comme limite supérieure pour la période d’un oscillateur universel qui interagirait avec toute la matière et toute l’énergie de l’univers (sic). Pour l’instant cette mesure reste à faire et on verra bien. Cette proposition me convient très bien et elle va dans mon sens et je considère que ce projet est une aubaine. Nos évaluations respectives différentes ne constituent pas un obstacle car en ce qui me concerne la valeur du TpS que je préconise n’est qu’une projection avec une marge d’appréciation significative et il me semble qu’il en est de même pour M. Bojowald et son équipe. Si un ordre de grandeur d’un tel intervalle de temps est effectivement mesuré, il restera à déterminer s’il est un propre de l’être humain, réalité pleinement présente dans l’univers ou s’il est dans l’univers sans aucune intermédiation comme le prétend L. Smolin… et Bojowald. Pour mon compte, il est essentiel que cet intervalle de temps, insécable, soit mesurable ou déductible indubitablement. A mes yeux il est essentiel que le temps de Planck[1] ne soit pas pris en compte dans cette affaire car je considère que c’est une grandeur hors sol qui n’a pas le sens physique qu’on lui prête et c’est très important que cela soit mis en évidence, et dans ce cas ce sera une véritable libération, un véritable franchissement d’impasse. Je cite M. Bojowald : « Une telle horloge fondamentale imprègnerait l’univers, un peu comme le champ de Higgs de la physique des particules. Semblable au champ de Higgs, l’horloge pourrait interagir avec la matière, et elle pourrait potentiellement modifier les phénomènes physiques. » L’horloge qui scande le ‘Temps propre du Sujet’ pensant, peut assurer ces propriétés puisque le sujet pensant, sans cesse cogitant, imprègne l’univers de sa ‘Présence’.

Grâce aux neurosciences nous avons la confirmation que notre cerveau ne perçoit pas instantanément les événements du monde extérieur. Il faut au moins un 1/3 de seconde, avant qu’une information sensorielle élémentaire accède à la conscience. Grâce à l’imagerie cérébrale et notamment à la magnétoencéphalographie, le neuroscientifique parvient à suivre toutes les étapes de traitement visuel non conscientes et conscientes dans le cerveau humain. C’est ce qui a été développé à l’Académie des sciences à Paris, le 19 mai 2015, par S. Dehaene au cours de sa conférence : ‘Le tempo de la conscience’. Précisant que : « … les moyens techniques exploitables maintenant permettent une compréhension de plus en plus précise de ce qui se passe dans notre cerveau durant ce 1/3 de seconde avant qu’il n’y ait prise de conscience effective d’une image ou encore à propos d’un concept. En effet des neurones conceptuels (sic) sont maintenant isolés dans le cerveau. »

Avec cette étude exhaustive on peut dire que ce 1/3 de seconde correspond à la ‘durée aveugle de la conscience’ et cela ne peut pas être sans conséquence sur l’éveil intellectuel et la vigilance observationnelle du sujet réflexif. De là, il serait quand même difficile de postuler que le fonctionnement par intermittence avérée de la conscience du ‘sujet pensant’, conduise à un fonctionnement intellectuel, observationnel, absolument continu du sujet réflexif. Précisons que TpS n’est pas une grandeur de l’ordre de la conscience mais de l’ordre de l’existentialité.

Sur ce sujet, je dois évoquer l’hypothèse d’Alain Connes dont j’ai pris connaissance une première fois en 1997 mais qui depuis est toujours une hypothèse et dont la dernière évocation se trouve dans quelques lignes de sa préface dans le livre de Daniel Sibony (2020) : ‘A la recherche de l’autre temps’. Je cite : « Quant au temps de la physique, ce que j’ai découvert c’est que ce n’est pas le « passage du temps » qui est la vraie origine de la « toute variabilité » des choses, mais une raison bien plus fascinante que j’appellerai « aléa du quantique ». L’impossibilité, aussi bien théorique qu’expérimentale, de prédire ou de reproduire le résultat pourtant toujours univoque d’une expérience quantique qui reste gouvernée par le principe d’incertitude de Heisenberg et donne au quantique cette variabilité fondamentale… Il nous faut comprendre que la variabilité quantique est plus fondamentale que le passage du temps, et réaliser en quel sens l’intrication quantique donne à l’aléa du quantique une cohérence cachée. »

Cette dernière formulation de Connes de sa propre hypothèse correspond à un niveau de décantation auquel j’adhère bien qu’elle pourrait laisser entendre que le sujet pensant subit la variabilité quantique dans le sens où l’aléa du quantique serait de prime abord extérieur à la capacité de cogitation inhérente du sujet. Or, selon moi, la physique quantique appartient aux modalités actuelles de la cogitation humaine possible à l’échelle de l’infiniment petit, si ce n’est qu’elle en est la production. En effet, on doit considérer que la nature est semblable qu’elles que soient les échelles considérées. Ce sont nos capacités intellectuelles qui sont différemment mises à l’épreuve suivant les échelles auxquelles nous cherchons à la décrypter. Le corpus de la mécanique quantique est représentatif du chantier que nos capacités intellectuelles n’ont pas fini d’édifier pour décrypter la nature à l’échelle de l’infiniment petit. J’ai toujours considéré que l’affirmation suivante de N. Bohr, (je crois que c’est à Côme en 1927), doit être sérieusement prise en compte : « Il n’existe pas de monde quantique. Il n’y a qu’une description quantique abstraite. Il est faux de penser que la tâche de la physique consiste à décrire comment est la Nature. La physique ne s’intéresse qu’à ce que nous pouvons dire de la Nature. » Aléa quantique et aléa structurel attaché au fonctionnement de notre cerveau se recouvrent. Ces deux aléas produisent le même effet, et c’est là que se trouve la source du ‘tic-tac’ primordial de l’horloge fondamentale qui égrène le temps.

Aucune opération de mesure physique ne peut être instantanée. Pour qu’il y ait du temps perçu, comptable, une opération de mesure implique obligatoirement une durée supérieure à l’intervalle de temps du tic-tac de l’horloge fondamentale. Cela n’est pas constaté et n’a aucun retentissement en physique classique, par contre en physique quantique cela est rédhibitoire et c’est une donnée qui doit être prise en compte dans le corpus de celle-ci. C’est une donnée qui met en relief « l’aléa du quantique » synonyme de TpS.

Il y a dans le livre de Sibony, auquel je fais référence, un travail sur le temps que je peux citer du fait qu’il a une certaine proximité avec le mien. « On peut dire qu’être et temps sont intriqués sans qu’on puisse dire lequel des deux a commencé ; Ils forment un entre-deux dynamique. » ; « J’acquiesce donc à la formule d’Alain Connes : l’aléa du quantique est le tic-tac de l’horloge divine, car le temps prélevé dans le phénomène quantique est au fond prélevé dans l’infini des possibles, dans l’absolue variabilité et le hasard irréversible. » Bien évidemment dans ma conception je n’ai pas besoin de faire référence au divin, référence que je considère comme étant une échappatoire peu glorieuse, pour le moins paresseuse. Pour ma part il est juste d’affirmer que l’aléa du quantique est le tic-tac primordial, insécable, qui émane et témoigne de la présence dans l’univers de l’être humain. Effectivement être et temps sont intriqués, (Heidegger a écrit des pages et des pages sur ce sujet, voir son livre : ‘Sein and Zeit’ en 1923), et sans détour tirons-en les conséquences. Que diable !! pourquoi le cap que nous permet de franchir cette pensée ne puisse être évoqué qu’en faisant appel au divin ? A l’époque de Newton cela est compréhensible, mais aujourd’hui au 21e siècle !!

Dans mon expression rituelle qui me guide depuis 2013 : « Au sein d’une éternité, parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance de l’univers… », il me plaît de mettre en parallèle ce que nous dit D. Sibony (page 225), bien que cela puisse être considéré un tant soit peu abscons : « Il y a, non pas un temps universel mais un temps de l’être qui ne se mesure pas de la même façon partout (la relativité veille) mais qui « est » partout présent et parlant, c’est le temps de l’infini des possibles (sic) ; la variabilité quantique affiche localement cet infini. Le temps de l’être c’est le temps du possible poussé à sa limite impossible ; il est global mais on ne le « prend » que localement. »

La suite de ce chapitre ‘Présence’ sera publié le 08/07/2022

 

 

[1] Le temps de Planck = 5,4×10-44s, se calcule comme étant la racine carrée d’un produit et rapport de constantes  hybrides appartenant à la physique classique et à la physique quantique = h.G/C5, G = constante de Newton, C = vitesse de la lumière et h = constante de Planck.

Partager cet article
Repost0
24 juin 2022 5 24 /06 /juin /2022 11:17

 

Le 24/06/2022

Toujours la suite de la publication du 2e chapitre : ‘Présence’ : du mémoire ‘l’Être humain est une Réalité de/dans l’Univers’. C’est précisément la continuité de la publication du 17/06

--------------------------------------------------------------------------------------------

Ce qui provoque un émerveillement scientifique de S. Dehaene est aussi, selon moi, une fenêtre remarquable pour ouvrir une nouvelle piste de réflexion car en s’appuyant sur une interrogation d’Einstein, il exprime avec cet ultime propos l’idée d’une concomitance, d’une corrélation, entre le développement cérébral de l’être humain et le développement de notre connaissance de l’univers. Ceci donne du sens à l’hypothèse suivante qui peut paraître inédite : « Si, après tout, ce que nous construisons grâce à notre capacité de pensée abstraite et que nous désignons comme étant le développement d’une connaissance de l’univers était simplement le fruit d’une conception pure de l’être humain nous offrant une sorte de miroir, de faire valoir, de notre intelligibilité ? » Cette hypothèse permettrait d’élucider ce qui est un mystère pour Einstein car dans le cas où l’univers serait l’émanation de nos capacités cérébrales en évolution, il ne peut être que compréhensible. Mais il réfuterait immédiatement cette proposition car elle est en complète contradiction avec sa philosophie de physicien réaliste. Pour lui, l’univers est. Qu’il soit intelligible par l’être humain qui lui est extérieur, l’interpelle. Je ne peux pas écrire : « serait extérieur », car pour A. Einstein ce conditionnel est inconcevable. Mon hypothèse est franchement anthropocentrique et ce serait donc l’intelligence humaine qui mènerait la danse en façonnant, au fur et à mesure de l’évolution de notre intelligence, des pièces du puzzle d’un soi-disant univers. En quelque sorte l’univers ce serait une part de nous-mêmes, une extension de nous-mêmes. Cette proposition aventureuse, par rapport à la pensée standard, n’est pas si abscons que cela, puisque des anthropologues qui étudient les facteurs de l’évolution de l’être humain depuis la nuit des temps sont amenés à reconnaître que l’être humain est un constructeur de monde avec un besoin de plus en plus viscéral d’imaginaire…   

Tout récemment, dans le journal ‘Le Monde’, du 25 Août 2021, un article de Jean-loïc Le Quellec : ‘La Préhistoire, ses Mythes et ses Secrets’, on peut lire : « A cet égard, il est particulièrement intéressant d’examiner la répartition mondiale de mythes qui ne tombent pas sous le sens, mais qui sont considérés comme essentiels dans les collectivités où ils s’expriment. C’est le cas des grands récits d’origine, qui présentent une impressionnante stabilité puisqu’ils sont réputés dire le vrai sur l’origine du monde, de l’humanité, de la mort, etc., de la culture dans laquelle ils s’inscrivent… Grâce à ces méthodes, on a pu démontrer que, selon toute probabilité, le grand mythe d’origine qui prévalait au paléolithique final était celui dit de « l’Emergence primordiale (sic) » Il raconte qu’au tout début, les humains et les autres animaux vivaient à l’intérieur de la terre et, un beau jour, à la suite de circonstances dont le détail varie selon les récits, ils en sont sortis en passant par l’ouverture d’une grotte – avant de se disperser progressivement à la surface du globe. »

Je cite l’article de ce mythe de l’émergence pour rappeler que les physiciens devraient intégrer dans leur quête des connaissances à venir les recherches développées dans d’autres domaines scientifiques. Le cloisonnement des connaissances conduit à l’appauvrissement de celles-ci. Comme il est supposé avec le mythe de « l’Emergence primordiale », il y a au tout début l’émergence d’une ‘Présence’ d’une intelligence humaine primordiale qui consciemment s’installe et se développe progressivement dans le monde. Pour exister, sa tâche vitale et permanente est d’investir physiquement et intellectuellement le monde. Nous sommes aujourd’hui les héritiers et les prolongateurs de cette dynamique enclenchée depuis cette émergence conçue et nous devons comprendre que toutes les connaissances que nous acquérons de ce monde sont le produit de l’intelligence humaine et rien de plus. Quant à savoir si nos connaissances atteignent l’os de la réalité de ce monde nous ne pouvons pas l’affirmer, ce qui est sûr c’est que le physicien est en mesure de mettre en évidence des vérités partagées quand il y a consensus de la part de la communauté scientifique.

Mon concept de la ‘Présence’ du sujet pensant qui s’est installée concomitamment à l’émergence évoquée (voir 1 de la publication du 17/06) peut être comparé à un phare érigée une bonne fois pour toute et dont sa lumière (intellectuelle), au cours du temps, de plus en plus éclairante, ne cesse de dévoiler de nouveaux confins de notre univers. C’est ce que j’exprime avec cet énoncé rituel : « Au sein d’une éternité parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance de l’univers. » Je rajouterais volontiers : « et il ne cessera de creuser car il y aura toujours à ‘voir’ ». Je propose, une image supplémentaire représentative de mon concept de ‘Présence’, en suggérant de contempler les sculptures de Giacometti qui figurent, à mes yeux, une artistique quintessence hors du temps de l’être humain.

Les promoteurs du Qbism (contraction de Quantum Bayésianisme) dont j’ai pris connaissance en 2014 laissent entrevoir comment la physique théorique : centrée sur la compréhension et l’interprétation de la mécanique quantique, est créée par les êtres humains bien réels. Le Qbism[1] a ses racines dans la théorie des probabilités « personnalistes » Bayésiennes.  Dès le début de l’avènement de la mécanique quantique, Werner Heisenberg a soutenu que les états quantiques n’étaient pas des caractéristiques objectives du monde, mais des expressions de notre connaissance. John Bell de façon révélatrice a demandé : « Connaissance de qui ? Connaissance de quoi ? ». Le Qbist fait une petite mais profonde correction : il remplace « connaissance » par « croyance ». La croyance de qui ? La croyance de l’acteur qui fait l’assignation d’état, informé par son expérience passée. Croyance en quoi ? Dans le contenu de son expérience. Il n’y a pas un état quantique des objets quantiques qui soit indépendant de l’observateur. Il faut ici abandonner la croyance que les états multiples a priori possibles d’un objet quantique correspondent à une propriété objective. Et la mesure effective de ces possibles, est toujours réduite à l’obtention d’une information sur un seul état. Cette situation des plus énigmatiques de la mécanique quantique est formalisée par l’expression : « le problème de la mesure ou encore le problème de la réduction de la fonction d’onde ». Pour les Qbists cette énigme est levée dès que l’on considère que la réduction de la fonction prend effectivement place dans la conscience de l’observateur qui opère la mesure, non pas en raison d’un processus physique unique, mais seulement parce que l’état de l’objet quantique est une construction de l’esprit de l’observateur et non une propriété objective du système physique.

Avec la théorie du Qbism nous sommes confrontés à un véritable paradigme de l’émergence de la connaissance en physique, surtout à l’échelle du monde quantique, car jusqu’à présent, et ce depuis au moins Galilée, la croyance dominante des physiciens correspond à la croyance qu’ils mettent en évidence des lois qui sont effectivement celles du monde réel, du monde objectif. A l’opposé, comme l’indique les Qbists, si je comprends correctement leur théorie, il faut considérer que les lois de la nature que nous mettons en évidence sont des expressions qui nous disent l’état de nos connaissances dans le domaine de la physique. Contrairement à ce que pense les théoriciens du réalisme - le plus proche de nous et le plus célèbre est Albert Einstein dont la pensée imprègne toujours la communauté scientifique actuelle - nous n’avons aucun moyen d’affirmer ce qui est assurément réel.

Historiquement à chaque fois que les physiciens ont prétendu, à part quelques détails encore à régler, qu’ils avaient atteint la connaissance définitivement aboutie, de facto, ces détails étaient des failles énormes dans le champ de leur savoir et ils devaient se remettre à la tâche avec quasiment une page blanche. Cette déconvenue fut vécue par William Thomson, alias Lord Kelvin (1824-1907), chef de file de l’élite des scientifiques européens, au tournant du vingtième siècle « La science physique forme aujourd’hui, pour l’essentiel, un ensemble parfaitement harmonieux, un ensemble pratiquement achevé ». Il avait été précédé par Louis de Lagrange (1736-1818) qui avait proposé dans son traité de mécanique analytique en 1788 : « d’avoir fait toutes les démonstrations nécessaires et ainsi avoir condensé le plus possible des choses dans une seule formule ». Encore récemment ce fut le cas avec la ‘Théorie du Tout’ qui paraissait être à deux doigts de son aboutissement à condition de réaliser une suprême unification des forces subatomiques avec la force gravitationnelle. Stephen Hawking avait prévenu qu’une fois cette unification acquise cela autoriserait les physiciens à vouloir occuper la place de Dieu.

L’ambition d’accéder à la connaissance physique totale du monde, de la part des physiciens, a mené ceux-ci à subir historiquement de sérieux revers intellectuels. Au mieux, il est possible de penser qu’il y a un horizon de réalités potentielles, asymptotiquement saisissables grâce à l’activité du physicien mais comme cela semble avec tout horizon il y a une perspective, une[2] volonté permanente, qui sans cesse nourrit la curiosité inassouvie de l’Être humain.

Mon désaccord significatif avec les Qbists provient du fait qu’ils suggèrent, avec leur théorie, la présence du sujet pensant : le physicien, mais c’est une présence avec un p. minuscule, une présence avec une conscience conjoncturelle qui correspond à des opérations spécifiques. Avec mon hypothèse la ‘Présence’ en question, est avec un p. majuscule, parce qu’elle est une érection une fois pour toute, elle est concomitante à l’émergence d’une intelligence humaine primordiale et elle est inexpugnable. L’ampleur de sa signification et de ses conséquences théoriques sont autres que la petite présence mise en scène par les Qbists.

Les Qbists ont légitimé leur théorie en exploitant la statistique bayésienne dont l’inventeur est le révérend James Bayes : Pasteur de l'Église Presbytérienne et mathématicien britannique (1701‐1761). Etant donné l’impact remarquable de cette loi dans tous les domaines de la physique, il est utile de faire un rappel sur l’histoire de son apparition dans le paysage scientifique. Le Révérend étudie la logique et la théologie à l’Université d’Edimbourg. Auteur de plusieurs ouvrages publiés de son vivant, c’est après sa mort que son ami Richard Price retrouve, dans ses papiers, un Essai sur la manière de résoudre un problème dans la doctrine des risques qu’il présente à la Royal Society, où il sera publié en 1763. Celui‐ci met en exergue cette fameuse « règle de Bayes ». 

Dans un cours au Collège de France en 2012, Stanislas Dehaene a consacré une séance complète sur ce sujet précisant que notre cerveau fonctionne en exploitant des mécanismes évolués de raisonnement probabiliste. Et il rappelle que l’inférence Bayésienne est une théorie mathématique simple qui caractérise le raisonnement plausible en présence d’incertitudes. L’inférence Bayésienne rend bien compte des processus de perception : étant donné des entrées ambigües, notre cerveau en reconstruit l’interprétation la plus probable.

Nos décisions combinent un calcul Bayésien des probabilités avec une estimation de la valeur probable et des conséquences de nos choix. L’architecture du cortex pourrait avoir évolué pour réaliser (sic), à très grande vitesse et de façon massivement parallèle, des inférences Bayésiennes. L’algorithme utilisé pourrait expliquer la manière dont notre cerveau anticipe sur le monde extérieur et dont il répond à la nouveauté. L’algorithme Bayésien est très exploité présentement en intelligence artificielle surtout lorsqu’il est mis en réseau. Sa signification dans le développement de l’intelligence humaine semble être déterminante si l’on en croit le neuroscientifique Dehaene : « Je parle de révolution, car il n’est pas courant de voir apparaître aussi soudainement un cadre théorique qui s’infiltre dans tous les plans d’une science. Nous étions nombreux à penser qu’il ne pouvait y avoir de théorie générale de la cognition, le cerveau étant le résultat du bricolage de l’évolution… mais cette idée est en train d’être battue en brèche par la statistique bayésienne tant ses applications sont extraordinaires ».

Dans la formule de Bayes : P(A/B) = P(B/A)∙P(A)/P(B) Le terme P(A) est la probabilité a priori de A. Elle est « antérieure » au sens qu’elle précède toute information sur B. P(A) est aussi appelée la probabilité marginale de A. Le terme P(A|B) est appelé la probabilité a posteriori de A sachant B (ou encore de A sous condition de B). Elle est « postérieure », au sens qu’elle dépend directement de B. Le terme P(B|A), pour un B connu, est appelé la fonction de vraisemblance de A. De même, le terme P(B) est appelé la probabilité marginale ou a priori de B. Ainsi confrontant deux évènements l’un à l’autre, la formule quantifie donc la probabilité pour l’un d’induire l’autre, remontant ainsi des conséquences vers les causes pour comprendre les phénomènes de la nature. Nous avons donc à faire avec une mathématisation de la chaîne de causalité, en tous les cas elle sert de référence.

L’exploitation de plus en plus importante de ces réseaux bayésiens amène à considérer qu’ils modélisent au plus près la façon dont les savoirs, chez l’être humain, s’actualisent ou plus précisément rendent compte des mouvements incessants de pensée entre les phénomènes observés et la dynamique du savoir emmagasiné. De plus on est en droit de considérer que si la formule de Bayes décrypte le monde, celle-ci décrirait tout autant les mécanismes du cerveau. Ce serait en même temps une sacrée ouverture sur une théorie de la pensée.

Cette révolution conceptuelle annonce qu’avec la formule bayésienne c’est une dimension subjective qui est réintégrée contrairement au dogme d’une vision objective authentique proclamée par la science. Cette formule met en exergue ce que nous savons du monde plus sûrement qu’elle ne nous permet de décrypter les lois de la nature. Pour rappel c’est exactement ce qu’ont postulé les fondateurs de la mécanique quantique, en l’occurrence : Bohr et Heisenberg. Cette petite formule nous oblige à penser que les théories et modèles scientifiques reflètent notre représentation de la réalité et non pas ‘La Réalité’. En conséquence, aujourd’hui nous sommes incapables de concevoir le pont qui nous permettrait de transiter d’une représentation de la réalité qui est la nôtre à la réalité elle-même qui ne nous est pas accessible. Au mieux elle est un miroitement, un tropisme. Je pense qu’il est plus approprié de nous concentrer sur notre démarche scientifique, de comprendre que l’accès à la connaissance scientifique est une source d’émancipation, de libération pour l’être humain, plutôt que d’être obnubilé par l’existence d’une réalité finale car selon mon point de vue il faut abandonner ce postulat métaphysique : qu’il y aurait un monde absolument extérieur. Après tout, les lois de la nature que nous découvrons sont en fait une extension de ce que nous sommes en tant qu’être réflexif. Bref la science physique est une construction de l’intelligence humaine, une extraordinairement très belle construction de cette intelligence.

Les Qbists ont précisé en 2009 que les probabilités d’obtenir le résultat d’une mesure de l’état quantique d’un objet effectif sont le fruit d’un raisonnement Bayésien empirique et il n’y a pas d’état quantique objectif qui serait préalable à ce raisonnement. L’activité scientifique ne se réduit pas à faire des prédictions, elle résulte d’une confrontation existentielle de l’être humain avec la nature depuis au moins 2 millions d’années, dont il fait partie intégrante comme je le proclame dans le titre du livre, non seulement Être dans la nature mais aussi Être de la nature. Être de la nature ce qui est entendu basiquement lorsqu’il est proclamé que nous sommes faits de poussières d’étoiles et ce qui, selon moi, est cause des déterminations qui obstruent le passage à la connaissance authentique de la nature. Être dans la nature qui rend compte du promontoire sur lequel l’être humain a réussi à s’installer pour voir, comprendre, dominer, des lois de la nature. Conquêtes obtenues grâce au dépassement progressif des déterminations qui l’attache à son être naturel. Plus l’être humain accroit son intelligence de la nature, plus il s’en émancipe, plus le promontoire de son être dans la nature l’élève. (Voir l’article ajouté en P.S. de la précédente publication qui évoque du fait d’un contexte spécifique mais qui est parfaitement illustratif : « deux tensions contradictoires : celle issue de forces évolutives archaïques nous incitant à croître et celle issue de la partie la plus évoluée de notre cerveau nous enjoignant de prendre en compte les limites de la planète… c’est au cortex cérébral, intelligent, capable d’abstraction et de volonté de prendre les commandes)

Une de ces déterminations, qui est à dépasser, est illustrée par le fait que la vitesse de la lumière est une vitesse limite et est à la fois une constante universelle. La lumière, rayonnement, que nous sommes capables d’identifier est la lumière de la matière visible. Cette matière est celle qui exclusivement nous compose, compose toutes les parties de notre corps, jusque dans la composition de nos neurones. La Matière et son rayonnement constituent donc notre enveloppe, notre chrysalide. Lumière et matière sont les deux facettes d’une même entité. Voir la lumière, c’est voir ce qui nous compose, ce qui fait partie de nous-même. C’est une vue de ce qui constitue l’intériorité de l’univers humain. Le saut de la pensée, qui nous propulsera au-delà de notre chrysalide, est loin d’être esquissé mais nous sommes en droit de nous dire que cette étape est à franchir et cela se fera quand l’accumulation de nos connaissances à venir nous donnera les moyens de franchir le cap. Nous dépasserons donc notre référentiel universel actuel pour en identifier un nouveau.

         C’est au cœur du corpus des affirmations générées dans le cadre du développement du savoir en physique que j’ai été amené, pour mon propre compte, à faire surgir dans le paysage de ce savoir, en surplomb, le concept de ‘Présence’. C’est à partir de l’affirmation suivante d’Einstein : « Ce qui du point de vue physique est réel…est constitué de coïncidences spatio-temporelles. Et rien d’autre. », que j’ai constaté une conséquence inacceptable voire révoltante de celle-ci. Avec l’exploitation directe des équations de la relativité restreinte on peut mesurer mathématiquement la portée de cette affirmation. Ici je propose d’illustrer la portée de cette affirmation, dans le cadre d’une situation concrète, que l’on peut facilement imaginer,

Imaginons que nous assistions à un feu d’artifice réalisé dans le voisinage de la tour Eiffel et du Trocadéro. Nous y assistons depuis la terrasse du Trocadéro, mais un autre public installé sur une comète ou un mobile dans l’espace est aussi spectateur.

 Ces spectateurs en mouvement voient aussi les belles bleues et les belles rouges mais explosant à leurs yeux différemment dans l’espace et dans le temps.

1 Si une belle rouge explose dans le ciel parisien avant une belle bleu et que cela se produise alors qu’elles sont séparées de quelques mètres, les voyageurs sur la comète verront la même chose, dans le même ordre, mais à des instants différents sur leur montre, avec un écart de temps différent ainsi qu’avec un écart de distance différent.

2 Si la belle rouge explose en même temps que la belle bleue mais que l’événement de cette coïncidence se produise alors qu’il y a toujours un écart de distance entre la belle bleue et la belle rouge, les voyageurs mobiles n’observeront pas une telle coïncidence temporelle, au contraire ils observeront deux explosions distinctes, différenciées par un intervalle de temps.

3 Si la belle rouge et la belle bleue n’explosent pas en même temps mais si elles explosent à partir d’un même lieu, là encore les voyageurs mobiles ne verront pas la même chose que les spectateurs immobiles du Trocadéro car ils mesureront un écart de temps plus important.

Les équations propres à la relativité restreinte nous permettent de calculer avec une précision remarquable la réalité observée de ces différentes situations proposées[3]. Si je prends en compte le cas de figure suivant : La belle bleue et la belle rouge explosent en même temps à partir du même lieu, eh bien ! dans le cadre de cette coïncidence spatio-temporelle parfaite, du point de vue théorique, les différents spectateurs, mobiles : quels qu’ils soient, et immobiles, verraient la même chose en même temps et au même lieu. En effet dans le cadre d’une coïncidence spatio-temporelle parfaite, le traitement des équations de la relativité restreinte fait nettement apparaître que le résultat est le même qu’il y ait ou qu’il n’y ait pas d’observateur, ce qui doit sérieusement nous interpeler. En effet une coïncidence spatio-temporelle parfaite ne peut pas être enregistrée par une présence humaine car nous savons, entre autres, de plus, qu’il faut toujours une fraction de temps, de l’ordre de 1/3 de seconde[4], pour que l’être humain prenne conscience d’une situation ou d’un évènement, notamment de cette coïncidence[5]. Donc, avec son précepte de réalité et pour que celui-ci soit vrai, Einstein évacue de fait la présence de l’être humain générique observateur, il évacue le sujet pensant qui serait à même de constater et de dire la réalité. Ceci est en accord avec sa philosophie fondamentale, réaliste, qui proclame que les bonnes équations de la physique sont celles qui sont indépendantes de toute trace d’une présence intelligente pour la faire vivre. Bref ces bonnes équations sont par elles-mêmes consistantes et suffisantes et l’être humain, le physicien, est nu de toute contribution lorsqu’il décrypte et met en en évidence une loi de la Nature. Ce que l’excellent connaisseur français de la relativité générale, Th. Damour, met en exergue lorsqu’il précise : « le principe de relativité générale est un principe d’indifférence… (à un quelconque statut particulier d’un sujet pensant présent.) » Ainsi on comprend le refus total d’Einstein d’admettre les fondements de la mécanique quantique ainsi que son statut de science complète car, en tout point de son exploitation et de son développement, la mécanique quantique revendique la présence d’un observateur.

La suite de ce chapitre ‘Présence’ sera publiée le 01/07/2022

 

[1] Le nom de Qbism consonne avec celui de cubisme, mouvement artistique fondé par Picasso et Braque. Les tableaux cubistes laissent voir des représentations d’images d’objet ou de personne notablement différentes suivant les points de vue  différents du contemplateur. .

[2]

[3] Lorsque j’évoque la ‘belle bleue’ et la ‘belle rouge’ du feu d’artifice du 14 juillet, qui au pied de la Tour Eiffel explosent au même instant mais à des distances distinctes (par ex : à chacune des extrémités du bassin du Trocadéro), les équations de la relativité restreinte m’indiquent que la foule au pied de la Tour Eiffel (référentiel O) partagera la simultanéité des explosions, par contre une foule perchée sur une comète (référentiel O’) verrait des explosions distinctes sur le plan temporel et spatial. Donc il faut qu’il y ait simultanéité temporelle et superposition spatiale des explosions de la gerbe rouge et de la gerbe bleue pour que les deux foules (comme toutes autres foules de spectateurs O’’, O’’’) affirment que les deux explosions se sont produites au même instant. V étant la vitesse de déplacement des spectateurs sur la comète, relative à la position immobile des spectateurs au pied de la tour Eiffel.

Sachant que x’r = γ(xr – v*tret que x’b = γ(xb – v*tb) ;     (1)

Si  tr = tb et xr > xb ; j’en déduis que x’r –  x’b = γ(xr – xb) ;           (2)

La loi de transformation des temps respectifs étant :

t’r = γ(tr – v/c2*xr) et t’b = γ(tb – v/c2*xb),                                 (3)

j’en déduis t’r – t’b = γv/c2(xb – xr).                                              (4)

Si je postule la coïncidence temporelle tr = tb ainsi que la coïncidence spatiale xr = xb,

J’obtiens x’r – x’b = 0 et t’r – t’b = 0. Ce résultat vaut pour tout référentiel O’, O’’, etc.

Avec cet exemple de double coïncidence, je constate qu’aucune foule d’observateurs ne peut relativiser les événements constituaient par l’explosion de la ‘belle rouge’ et l’explosion de la ‘belle bleue’. Les foules ne peuvent affirmer que la même chose : Ô la belle bleue et la belle rouge se font voir au même moment ! En même temps, la présence de ces observateurs est nécessaire pour dire cette coïncidence. Il faut qu’elle soit énoncée.

L’affirmation d’Einstein, « Ce qui du point de vue physique est réel…Et rien d’autre. », pourrait donc être complétée par : Quand il y a coïncidences spatio-temporelles, les différents observateurs situés dans des référentiels relativistes distincts voient absolument la même chose et ils ont un discours totalement semblable (superposable) pour la décrire. Cela revient à considérer que tous ces observateurs pourraient se situer dans un seul et même référentiel. Dans ce cas le concept d’observateur(s) n’a plus de pertinence puisqu’ils sont confondus. Ils n’ont pas d’utilité propre.

 

 

[4] Depuis 2 décennies toutes les expériences en neurosciences conviennent de cette fraction de temps minimale et moyenne. De plus, plus le cerveau est vieillissant plus la durée nécessaire à la prise de conscience en moyenne augmente.

[5] Pour illustrer mon propos j’ai l’avantage d’avoir rencontré hier, le 22/06, un article sur le site « phys.org » de Lee Sandberg qui signale que nous devons prendre en compte le fait que notre cerveau ne considère qu’une moyenne de l’information qu’il reçoit. Cet article a pour titre : « Un vacillement dans le noir : Lire entre les lignes pour modéliser notre trou noir central galactique. » ; « Voir peur être décevant. La lumière d’un bulbe incandescent paraît stable, mais elle vacille 120 fois par seconde. Parce que le cerveau perçoit seulement la moyenne de l’information qu’il reçoit, le vacillement est brouillé et la perception d’une illumination constante n’est qu’une illusion. »        

 

 

Partager cet article
Repost0
17 juin 2022 5 17 /06 /juin /2022 10:53

Le 17/06/2022

Comme annoncé, toujours dans le cadre du mémoire ‘l’Être humain est une réalité de/dans l’Univers’, ci-jointe la première partie du chapitre ‘Présence’.           ------------------------------------------------------------                                                                                                                                                                                             ‘Présence’

Le concept de ‘Présence’ est au cœur de la thèse qui est explicitée par le titre de mon mémoire. Le concept de ‘Présence’ est le pilier, le phare, du paradigme que je souhaite justifier tout au long de ce chapitre.

Préalablement, je veux préciser qu’avec ce concept, contrairement à ce qui peut être conjecturé en première analyse, je ne suis pas en conflit avec la conception einsteinienne qui en préalable postule que les bonnes lois de la physique mettant en évidence le monde réel sont celles qui sont indépendantes de tout référentiel prédéfini. Puisque l’établissement d’un référentiel est une action préalable prescrite par le sujet pensant : le physicien, en conséquence on comprend que le paradigme einsteinien postule que les bonnes lois de la physique sont celles qui, in fine, gomment toute référence à une quelconque subjectivité c’est-à-dire à la présence du sujet pensant. Ainsi le principe de relativité générale sur lequel s’est appuyé A. Einstein et qui intellectuellement l’a soutenu, notamment, pendant 10 longues années avant de produire finalement les équations remarquables qui lui sont attachées, confirme qu’en présence d’une champ gravitationnel les lois fondamentales de la physique doivent pouvoir s’écrire de la même façon dans n’importe quel système de coordonnées. T. Damour : physicien théoricien, excellent exégète de ce sujet, complémente ce point de vue en affirmant que le principe de relativité générale est un principe d’indifférence : « Les phénomènes ne se déroulent (en général) pas de la même façon dans des systèmes de coordonnées différents, mais aucun des systèmes (étendus) de coordonnées n’a de statut privilégié par rapport aux autres. 

Cette dissolution de la présence du sujet réflexif est essentielle pour que la croyance einsteinienne en l’accès à la réalité objective résultant des bonnes équations physiques soit pleinement justifiée. Pour Einstein le monde physique est constitué de réalités, régis par des lois permanentes et comprenant des objets à demeure ou provisoires qui ont des propriétés indépendamment de tout observateur. Ceci implique, comme il aimait à le rappeler, que la lune existe réellement même si elle n’a jamais été observé, ni identifié. Selon mon point de vue la lune n’existe pas tant qu’une intelligence existante ne l’a pas pensé, identifié et caractérisé une première fois comme telle. Cette certification devient alors la base d’une connaissance communicable. Il semblerait que C. Rovelli partage cette hypothèse fondamentale, c’est nouveau de sa part et c’est une progression intéressante car dans son récent livre Helgoland (édit, Flammarion, en 2021) : « Si rien n’a d’existence propre, tout n’existe que dans la dépendance de quelque chose d’autre, en relation avec quelque chose d’autre. Les choses sont « vides » dans le sens où elles n’ont pas de réalité autonome, elles existent grâce à, en fonction de, en relation avec, dans la perspective de quelque chose d’autre. »

En conséquence mon concept de ‘Présence’, et celui d’Einstein : ‘présence du sujet pensant : physicien’ qui doit être gommée pour atteindre le monde réel objectif sans écran, ne se situe pas au même étage de l’existence.

Très rapidement ci-dessous, dans la page suivante, je présente et je développe le concept de ‘Présence’. Mais auparavant, je fais un bilan de ce qui en physique fondamentale nous oblige, entre autres, à dépasser le paradigme einsteinien, malgré la remarquable fertilité pendant plus d’un siècle des travaux du savant, puisque concomitamment ce même paradigme a instillé une pensée bornée par le principe de réalité et d’universalité (confère les débats magnifiques durant les années 1920-1930 quand il s’opposa à l’avènement de la mécanique quantique et au bout du compte il n’accepta jamais les fondements de cette nouvelle mécanique). La communauté scientifique considère actuellement qu’elle n’a pas les moyens de justifier un dépassement de ce paradigme. Elle commence à identifier les limites qu’il impose sans pour autant trouver un chemin unanime et radical qui permettrait de franchir le Rubicond. 

Nous sommes obligés de constater que la pensée en physique fondamentale a épuisé tous ses ressorts depuis au moins deux décennies et les deux modèles standards que sont celui de la physique des particules élémentaires (plus communément nommée physique des hautes énergies) et celui de la cosmologie sont respectivement dans l’impasse car dans l’incapacité de formuler des prédictions significatives qui soient observables, vérifiables. L’impasse de l’un est concomitante à l’impasse de l’autre puisque l’un vise à connaître ce qui compose le contenu de l’univers et l’autre vise à déterminer l’histoire de l’univers et ce qui est la cause de la dynamique que nous croyons avoir identifiée et mesurée. Je cite les problèmes qui justifient les termes d’impasse dans ces deux modèles standards très imbriqués. 1-Le problème de la matière noire et de l’énergie sombre ; 2-Le problème de l’asymétrie entre matière et antimatière ; 3-Le problème de la réconciliation de la mécanique quantique, qui régit l’infiniment petit, avec la relativité générale, qui décrit la gravitation et le cosmos, et donc l’infiniment grand ; 4-Le problème du boson de Higgs, pourquoi est-il tel qu’il est ?; 5-Le problème est aussi d’expliquer pourquoi les particules élémentaires sont organisées en trois familles et possèdent les masses spécifiques que l’on a mesurées ; 6-Le problème global attaché aux neutrinos : à mon sens il faudrait cesser de raisonner en termes de propriétés physiques des neutrinos et raisonner en termes de physique des neutrinos car ils sont les vecteurs d’une autre physique que celle qui régit le modèle standard de la physique des particules.

         Au tout début de 2014 j’ai connu une vraie satisfaction intellectuelle lorsque j’ai pris connaissance de la théorie des Qbists. A ce moment-là, au premier abord, le Qbism représentait à mes yeux une théorie convergente avec la mienne que j’avais commencé à développer plusieurs années auparavant avec le concept résultant du paradigme explicité avec le titre de mon livre : la ‘Présence’. Toutefois, j’ai effectivement identifié plusieurs éléments de convergence mais d’autres éléments ne pouvaient être rapprochés. Je propose donc, en premier lieu de présenter et développer mon concept de : ‘Présence’ et ensuite rendre compte de ce qui n’est pas conciliable avec le QBisme.

         J’emploie le terme de : ‘Présence’, pour évoquer l’érection d’une première intelligence spéculative dans le monde. C’est-à-dire une intelligence qui soit en mesure d’observer, méditer, raisonner, calculer, théoriser, mémoriser, l’expérience. Celle-ci, en l’état actuelle, fruit du développement au sens Darwinien, est représentée par l’intelligence de l’homme moderne que nous incarnons aujourd’hui. Il est raisonnable de considérer que cette première intelligence spéculative a émergé il y a environ 2 millions d’années et c’est le plus souvent Homo erectus[1] qui est cité comme le vecteur premier de cette intelligence. Au tout début de son émergence le cerveau d’Homo erectus le plus archaïque pèse entre 800 et 900 gr. Les paléoanthropologues nous disent qu’à cette époque ‘l’homme si primordial’, ‘balbutiant’ n’avait aucune capacité de négocier avec la Nature ni de gérer les ressources que celle-ci lui proposait. Elle était dominante, lui dominé. Pourtant, comme nous le dit : Jean Guilaine (professeur au Collège de France, ‘La Seconde naissance de l’Homme’, page 57), « Au Paléolithique archaïque, aux alentours de 1,9 million d’années, l’analyse de la documentation fournie par plusieurs sites africains montre une gestion des matières premières fondée sur un certain rapport à l’espace (et donc au temps). A Oldowaï, (Afrique Australe) les matériaux bruts nécessaires à la taille ont été apportés de sources distantes de 3 km. De gîtes plus lointains, entre 9 et 13km, on n’a ramené que des outils finis, après avoir laissé sur place blocs et déchets. Dans ces cas le temps nécessaire pour parvenir aux gîtes respectifs envisagés est une notion intellectuellement assimilée. Ces indices, parmi les plus anciens observés, donnent une première idée de l’espace prospecté et, de ce fait, du temps mis à le parcourir. Jehanne Féblot-Augustins met ces données en rapport avec les capacités cognitives des hominidés pour constater que l’investissement technique en vue d’activités futures, c’est-à-dire la faculté d’anticipation, l’évaluation des travaux à venir demeurent faible : apparemment ces populations vivent dans le court terme. L’histoire des temps paléolithiques, dans leur extrême durée, est précisément caractérisée par une maîtrise de l’espace toujours plus élargie, par des déplacements sans cesse portés vers des frontières plus lointaines. Ces pérégrinations impliquent donc une maîtrise minimale du temps… On laisse entendre le rapide élargissement du cadre géographique des communautés : les déplacements de certains acheuléens africains pouvaient atteindre 100km. En Europe, entre -700 000 et -200 000, on observe des tendances voisines. »

          Grâce à ce compte rendu qui a la valeur d’un reportage on constate que ces comportements dans l’espace et le temps sont des indicateurs du balbutiement d’une intelligence humaine, qui à partir d’une conscience établie de son ‘Être-là’, elle acquiert la volonté d’aller ‘au-delà’. Selon ma thèse ce sont aussi des indicateurs d’un processus du développement d’une ‘Présence’ qui se densifie, inhérente au développement de la faculté d’acquérir de l’autonomie raisonnée de la part du genre Homo. Pour illustrer la signification que j’attribue à ce concept de ‘Présence’ je prends appui sur une déclaration de Stanislas Dehaene (remarquable neuroscientifique professeur au Collège de France) : « La pensée géométrique est assez ancienne. Il est très intrigant de voir que, il y a 1.6 à 1.8 millions d'années, les hommes, façonnaient déjà des objets aux propriétés mathématiques élaborées, notamment des pierres en forme de sphère, comme s'ils possédaient la notion d'équidistance à un point. On connaît également des dizaines de milliers de bifaces, ces outils pourvus de deux plans de symétrie orthogonaux : ils ont le même degré d'ancienneté, et leur perfection géométrique démontre une recherche délibérée de la géométrie, au-delà de la simple utilité fonctionnelle. Dès lors, je me demande si la capacité de représentation symbolique et récursive n’est pas apparue, dans un premier temps, indépendamment du langage, avant tout comme un système de représentation rationnelle du monde.

Le cerveau d'Homo erectus avait peut-être déjà atteint la compétence d'une machine de Turing universelle (sic), capable de représenter toutes les structures logiques ou mathématiques possibles. Peut-être est-ce une illusion, mais pour l'instant, notre espèce a réussi à comprendre l'organisation des structures du monde à toutes les échelles de l'Univers. Dans un deuxième temps, il y a environ 100.000 ans, on observe une explosion culturelle qui suggère un langage, une communication... On peut donc se demander s'il n’y a pas d'abord la mise en place d'un système de représentations mentales enchâssées, puis l'apparition d'une capacité à communiquer ces représentations. » Article de ‘La Recherche’, Octobre 2017.

D’emblée, je peux dire que je suis toujours étonné qu’une telle déclaration de S. Dehaene n’ait pas suscité la moindre discussion de la part d’autres scientifiques et philosophes en France. En effet, étant donné son originalité et l’avancée de notre connaissance qu’elle provoquerait, si elle s’avérait appropriée, elle aurait mérité évidemment d’être travaillée, analysée, bref soumise à un très sérieux débat. (Elle le mérite toujours). Il n’en fut rien et il n’en est toujours rien et je suis attristé d’être témoin de la faiblesse actuelle du débat intellectuel en France sur un sujet aussi essentiel.

D’après S. Dehaene, l’Homo primordial avait dès son surgissement, dans le monde, une présence complète, totale, absolue, dans l’univers et mon concept de ‘Présence’ vaudrait donc dans l’absolu dès l’apparition d’une intelligence humaine dans notre Univers. Il faut remarquer que le point de vue de Dehaene est en accord avec celui de P. Picq cité en note de bas de page (1). Toutefois je ne partage pas ce point de vue car je pense que la ‘Présence’ s’est développée, s’est intensifiée, au fur et à mesure que cette intelligence s’est développée dans le monde. En conséquence, je considère comme Dehaene et Picq : bien que celle-ci se soit enracinée avec l’émergence d’Homo erectus comme il est proposé, elle est toujours, encore, en voie d’évolution, et la ‘Présence’ se densifie, s’érige au fur et à mesure que l’être humain conquiert de la connaissance fondamentale sur la nature. Le fait de considérer que « Le cerveau d'Homo erectus avait peut-être déjà atteint la compétence d'une machine de Turing universelle (sic), capable de représenter toutes les structures logiques ou mathématiques possibles… notre espèce a(aurait) réussi à comprendre l'organisation des structures du monde à toutes les échelles de l'Univers », suggère que l’intelligence humaine première est immédiatement sous l’emprise de la détermination a priori implacable de notre univers, naturellement structuré.

Dans ce cas, le problème du libre arbitre de l’être humain est posé ainsi que celui de sa créativité. Actuellement de plus en plus de physiciens revendiquent l’existence a priori et la reconnaissance d’un libre arbitre chez le physicien créateur de connaissances contemporaines. On peut tout à fait concevoir, contrairement à ce qu’affirme S. Dehaene, que c’est l’évolution de l’intelligence humaine qui produit une conception structurée de l’univers. Cette conception que nous revendiquons actuellement étant représentative de l’état de l’art de nos connaissances sur ce sujet. En ce qui concerne : l’apparition d’une capacité à communiquer voire l’apparition d’un proto-langage, le résultat d’une étude très intéressante a été publié dans ‘Plos One’ en 2013, « Le langage et la conception d’outils ont-ils évolué ensemble ? », Natalie Uomini et Georges Meyer, ont précisé qu’il y aurait une concomitance sérieusement probable entre le début du développement du langage et la capacité à travailler le silex pour fabriquer des outils. Cela remonte à peu près à 1.75 million d’années et à cette époque de l’évolution vers Homo sapiens, Homo ergaster et/ou Homo erectus étaient les piliers de celle-ci.                                                                                          

Je ne peux pas adhérer au postulat de Dehaene affirmant que notre espèce a réussi à comprendre l’organisation des structures du monde à toutes les échelles de l’Univers car, à mon avis, nous ne le pouvons pas s’il n’y a pas eu préalablement la pratique d’un chemin d’acquisition de connaissances. Ce que nous avons actuellement identifié à propos de l’univers c’est du provisoire, c’est juste la représentation que nous en avons et elle est datée. Il n’est pas possible d’affirmer que nos connaissances actuelles sont abouties jusqu’à un stade final, sur ce sujet nous ne sommes pas libérés d’une représentation purement cosmogonique. Il suffit de se rappeler qu’Einstein, lui-même, à son époque, considérait que l’univers se limitait à notre galaxie et il pensait que tout cet ensemble était stable, immuable. Malgré cette croyance limitée cela ne l’a pas empêché d’inventer la remarquable loi de la relativité générale. Loi qui sera dépassée dans le futur, car nos connaissances ne peuvent qu’évoluer, bien qu’elle soit encore une source d’explication de l’existence des ondes gravitationnelles identifiées pour la première fois en 2015.

La problématique posée par le postulat de S. Dehaene est aussi celle que l’on rencontre avec l’interprétation majoritaire de la loi de la relativité générale qui a comme conséquence d’expliciter la théorie de l’univers bloc. C’est-à-dire, si on considère que la relativité générale est l’outil théorique permettant de rendre compte de ce qu’est l’univers, et bien son déterminisme absolu s’impose à son contenu : entre autres à nous : êtres humains. Conformément à son fondateur, la relativité générale nous propose une vision dépourvue de temps car elle se réfère à l’histoire entière de tout l’univers en un seul bloc, d’une façon ramassée, qui ne fait aucune référence à quoi que ce soit de notre expérience du moment présent. Aucune signification n’est attribuée à la notion de futur, de passé et de présent. Ce qui est réel physiquement est uniquement l’émanation de la structure causale. En conséquence, dans le cadre de l’incontournable chaîne causale, notre existence est annoncée, et complètement déterminée, dès le soi-disant Big Bang de l’univers !!

Je suis intéressé par les hypothèses formulées par S. Dehaene et les intuitions qui s’ensuivent. Ses travaux centraux de recherche concernent le cerveau et il a l’intuition de relier le développement de notre cerveau avec le développement de notre connaissance de l’univers. Ainsi on peut lire dans un interview du 23 septembre 2021 : « « Les conquêtes de notre cerveau sont aussi celles de la science. Je suis fasciné que notre cerveau parvienne à découvrir les lois de l’univers, depuis l’infiniment petit jusqu’à l’infiniment grand, jusqu’à se comprendre (sic) lui-même. C’est assez stupéfiant… on peut se demander pourquoi, au fur et à mesure que progressent nos recherches, l’Univers nous reste intelligible. Je rejoins ici Albert Einstein, qui disait que le mystère, c’est que l’univers soit compréhensible. Pourquoi ? Sans doute parce qu’au cours de son évolution notre cerveau a internalisé à la fois des modèles du monde extérieur et d’immenses capacités d’apprentissage. Ce que j’essaie de faire partager dans mon livre, c’est mon perpétuel sentiment d’émerveillement. »

----------------------------------------------------------------------------------------

                                             La suite du chapitre ‘Présence’ sera publiée le 24/06/2022. La publication complète de ce chapitre se répartira sur 4 ou 5 semaines.

              P.S. Complémentairement à la citation de P. Picq dans la note (1) de bas de page, je cite un extrait d’un article du ‘Monde science et médecine’ du 15 juin 2022 : ‘Dans deux livres parus presque simultanément, les neuroscientifiques Thierry Ripoll et Sébastien Bohler avancent une même thèse : l’insatiable soif de croissance de l’humanité et la crise globale qui en découle seraient la conséquence de notre « câblage » cérébral.’

              Les deux auteurs croisent leurs analyses sur les déterminismes biologiques (sic) qui ont poussé l’humanité dans une course vers la catastrophe.

              Avec ces extraits de l’article j’ai évidemment privilégié les notions et les concepts qui imprègnent mon mémoire, ainsi, il en est de l’évolution du genre Homo, du fonctionnement cérébral, de l’inertie des déterminations et des déterminismes, de l’envie irrépressible de savoir, de la structuration de l’intelligence humaine déterminée dans son rapport avec la nature. Être de la nature/Être dans la nature, cohabitant en l’Être humain. Dynamique de l’émancipation de ‘l’Être dans la nature’ à l’égard de ‘l’Être de la nature’ : tensions et moteurs de l’évolution intellectuelle de l’Être humain.

              De Sébastien Bohler : « Le cerveau des vertébrés et des mammifères possède des structures cérébrales profondes, dont le système de récompense est, en son centre, le striatum. Cette structure nerveuse est responsable de cinq motivations de base encore à l’œuvre aujourd’hui chez l’être humain : manger, se reproduire, acquérir du statut social, minimiser ses efforts et glaner de l’information. Elle incite les êtres vivants à accomplir des comportements, garants de leur survie, sans limite fixée a priori, en leur donnant du plaisir sous forme d’une molécule, la dopamine. Les humains sont arrivés sur la scène de l’évolution en héritant de ces motivations de base.

              Il y a quelque 300 000 ans, l’émergence d’Homo sapiens est liée à l’expansion du cortex cérébral, qui nous confère le pouvoir d’abstraction, de langage, de planification, de coopération. Cette partie du cerveau est alors au cœur d’une foule d’interventions qui vont être tournées vers la satisfaction des désirs de base du striatum. Par exemple l’ingéniosité du cortex cérébral favorise la fabrication d’outils qui permettent de se procurer de la nourriture de façon plus maîtrisée et efficace. Suivront au néolithique, la culture des semences, l’élevage, la rationalisation des sols, les premières agglomérations. La production d’alimentation ne cessera d’augmenter jusqu’à l’agriculture industrielle. Aujourd’hui… »

              De Thierry Ripoll : « … Or l’évolution qui nous a aussi programmés pour croître est aveugle : elle ignore la finitude de la planète. D’où cette aporie : croître indéfiniment dans un monde fini. Heureusement, nous avons des connaissances et une conscience de ces limites. Nous sommes ainsi soumis à deux tensions contradictoires : celle issue de forces évolutives archaïques nous incitant à croître et celle issue de la partie la plus évoluée de notre cerveau nous enjoignant de prendre en compte les limites de la planète… c’est au cortex cérébral, intelligent, capable d’abstraction et de volonté de prendre les commandes… »

             

 

[1] De P. Picq, paléoanthropologue et enseignant au Collège de France, dans son livre (2016, édit Flammarion) : ‘Premiers hommes’ : page 336 : « Ce qui fait que notre évolution devient humaine depuis Homo erectus ne vient pas de l’invention des outils, de la chasse, du partage des nourritures, de l’empathie… mais de l’émergence de la condition humaine. Homo, comme le disait le grand éthologue Jakob von Uexküll, est un transformateur de monde par sa pensée et ses actions. Et en premier lieu, par sa puissance écologique qui l’emmène dans des écosystèmes de plus en plus diversifiés, ce que n’ont jamais pu faire les autres hominoïdes ou même les hominidés les plus proches – sinon les Homo erectus archaïques. Cette puissance écologique repose en outre sur une puissance biologique, physiologique et cognitive qui provient de ses innovations techniques et culturelles, comme le feu et la cuisson. » ; page 337 : « Entre 1,5 et 1million d’années, presque toutes les terres habitables de l’Ancien Monde appartiennent à Homo erectus. Il y a 1 million d’années, les populations d’Homo erectus règnent par leur diversité, leur intelligence (sic), leur prestance, leur mobilité, leurs outils et par le feu sur tout l’Ancien Monde. Ils poursuivent leur évolution biologique avec un cerveau toujours plus gros (1000 à 1300 cm3)… »

Partager cet article
Repost0
10 juin 2022 5 10 /06 /juin /2022 10:28

Suite de la publication du 03/06/2022 correspondante au chapitre ‘Prologue’ du mémoire ‘L’Être humain est une réalité de/dans l’Univers’.

Ci-jointe la publication du 10/06/2022.

                                    ……………………………………………

A la lecture des auteurs que je cite ci-dessus, ce que préconisait Maurice Merleau-Ponty durant ses cours au Collège de France (1956-1960) : « Au ‘je pense’ universel de la philosophie transcendantale doit succéder l’aspect situé et incarné du physicien. », semble très progressivement être entendu, ½ siècle après coup.

Il n’en reste pas moins qu’aujourd’hui nous en sommes à la proposition de faire appel à l’intelligence artificielle pour dépasser les impasses théoriques[1] fondamentales répertoriées par la communauté scientifique ? Personnellement, je perçois cette proposition comme une incongruité, un renoncement et une défaite. Je suis encore plus dérouté lorsque je constate que ce sont ceux qui, comme l’a précisé S. Hossenfelder, par un véritable entêtement théorique, ont contribué à l’asphyxie de la pensée en physique théorique notamment dans le domaine de la physique des hautes énergies c’est-à-dire de la physique des particules élémentaires. J’admets que mon jugement personnel est raide, peu nuancé, mais en lisant le livre de S. Hossenfelder on peut considérer que le bilan proposé dans ce domaine confirme la réalité de ma désillusion.

Pour présenter ce qui est attendu de la part de l’Intelligence Artificielle (IA) en vue de traiter des problèmes scientifiques que l’intelligence humaine ne serait plus capable de traiter et résoudre, je me réfère à une première conférence inaugurale sur le sujet ayant eu lieu en septembre 2021 au CERN dont la présentation écrite en a été faite dans le CERNCourier de Janvier/Février 2022. Le titre de cet article : « Multidisciplinary CERN forum tackles AI » ; soit : « Le forum Multidisciplinaire au CERN s’empare du thème de l’IA ». L’article aborde l’objectif visant la conception d’une IA introspective (sic) qui serait capable d’examiner et d’améliorer son propre processus de diagnostic et permettrait ainsi de faire des prédictions qui lui serait propre. Evidemment on s’interroge durant ce forum sur l’opportunité d’essayer de réaliser de l’IA qui serait auto-consciente et semblable à l’humain. Avant d’avoir l’ambition de réaliser ce type de prothèse il est proposé de s’interroger sur sa pertinence, alors que nous ne comprenons pas encore, loin de là, le processus introspectif qui se déroulerait au sein de notre cerveau, au sein de notre conscience. Pourquoi, comment, vouloir faire de l’IA une solution quand on pressent que les algorithmes de l’IA ne seraient pas capables de faire face à la complexité du processus de décisions emprunté par les humains ? Finalement, il est considéré qu’il est préférable de faire le choix d’atteindre des objectifs plus réalistes en développant la ci-nommée ‘Technologie de l’IA forte’ qui pourrait résoudre des nouveaux problèmes toutefois en ligne avec des objectifs spécifiques. Suite à l’expression de cet objectif bien plus humble, il est malgré tout envisagé que potentiellement l’IA pourrait dépasser l’intelligence humaine et suggéré que l’IA pourrait être aussi créative que celle des humains !! 

Suite à cette très ambitieuse présentation générale je cite des extraits introductifs (traduits par mes soins) de l’article du 31/08/2021, recueilli dans la revue numérique du ‘CERN Courier’ qui a pour titre : ‘Stealing theorists’lunch’, soit : ‘Voler le déjeuner des théoriciens’. Cet article est concentré sur le sujet spécifique de l’exploitation de l’IA pour résoudre des problèmes de physique théorique et non des moindres. En préambule il est précisé que les techniques de l’intelligence artificielle (IA) sont utilisées en physique expérimentale des particules depuis au moins 30 ans (ce qui est exact à ma connaissance) et elles deviennent progressivement très répandues en physique théorique (sic).

L’IA exploitée dans le domaine expérimental, l’ancêtre de ce que l’on appelle l’IA forte, consiste à suppléer les physiciens pour assurer la détection et la sélection des évènements physiquement significatifs, prévus en rapport avec une théorie préalablement conçue. En effet parmi la foultitude des événements produits, lors de la collision de paquets de protons, dans les détecteurs, il est impossible d’isoler naturellement, simplement, les bons événements. Ainsi depuis une trentaine d’année, d’une façon empirique, il a été mis au point des algorithmes qui participent à la sélection des traces de particules présentant de l’intérêt. On peut concevoir qu’au cours du temps, ces algorithmes sont devenus de plus en plus sophistiqués et complémentaires pour atteindre des objectifs humainement et scientifiquement définis tout autant sur le plan qualitatif que quantitatif.

Pour illustrer mon propos, je choisis l’exemple de la découverte du boson de Higgs expérimentalement confirmée en 2012. Cette particule n’est pas directement visible dans les détecteurs parce que sa durée de vie est très petite, estimation la plus élevée de l’ordre de 10-20s, et on ne peut l’identifier qu’en la reconstruisant à partir de ses produits de désintégration qui ont des caractéristiques physiques prévues très précises. Dans ce processus d’identification des traces et de reconstruction, l’IA forte a toute sa place et elle est maintenant très performante. C’est de l’IA aussi nommée : supervisée, puisque ce sont les physiciens qui introduisent dans les algorithmes les paramètres physiques des événements recherchés dans les détecteurs. 

Revenons à l’article susmentionné ‘Voler le déjeuner des théoriciens’ dans lequel A. Anandkumar et J. Ellis répondent aux questions du journaliste de la revue en prédisant les possibilités. 

Question : « Comment l’intelligence artificielle pourrait créer un impact en physique théorique ? »

J. Ellis : « Pour dire les choses simplement : où va-t-on prochainement ? Nous avons le Modèle Standard qui décrit toute la matière visible dans l’univers avec succès, mais nous savons que la matière noire devrait être en dehors de celle-ci. Il y a des puzzles, tel que : quelle est l’origine de la matière dans l’univers ? Durant mon existence nous avons proposé, par-ci par-là, des bouquets d’idées pour empoigner ces problèmes, mais nous n’avons pas fait émerger de solutions. Nous avons été capables de résoudre quelques-uns de ces problèmes mais pas les autres. Est-ce que l’intelligence artificielle pourrait nous aider à trouver des nouveaux chemins pour attaquer ces questions ? Ce serait vraiment voler le déjeuner des physiciens théoriciens. »

A. Anandkumar : « Je pense que les premières étapes sont : ou bien on peut comprendre plus de physique basique et en conséquence être capable de produire des prédictions. Par exemple, est-ce que l’IA pourrait redécouvrir le Modèle Standard ? Un jour on peut espérer constater ce que sont les désaccords avec le modèle courant, et espérer formuler des meilleures suggestions. »

J.E. : « Un exercice intéressant pourrait être de prendre quelques-uns des puzzles que nous avons en ce moment et d’une certaine façon équiper un système d’IA avec le référentiel théorique que nous théoriciens exploitons, et laisser le système d’IA moins contraignant (sic) et regarder s’il produit quelque chose (de différent). Par exemple ces dernières semaines certains résultats d’expériences casse-tête mis en évidence ont amplifié les énigmes que ce soit avec les nouveaux résultats des désintégrations du méson B ou ceux du moment magnétique anomal du muon. Il y a beaucoup d’idées théoriques pour résoudre ces énigmes mais aucune ne me conviennent dans le sens de m’indiquer un chemin clair vers une nouvelle synthèse au-delà du Modèle Standard. Est-ce qu’il est imaginable que l’on puisse concevoir un système d’IA qui, si on le dote de la base des concepts, dont nous disposons, avec conjointement les anomalies expérimentales que nous avons identifiées, alors l’IA pourrait nous montrer le chemin ? »

Dans la première partie de l’article il est clairement exposé ce en quoi consiste cette alternative au renoncement à la capacité des physiciens à penser leurs erreurs, leurs errances, leurs conservatismes. Je donne suite à une autre partie interrogative suivante :

Est-ce que la créativité humaine est conduite par notre conscience, ou l’IA contemporaine peut-elle être créative ?

A. Anandkumar : « Les humains sont créatifs de si multiple façons. On peut rêver, on peut halluciner, on peut créer – donc comment peut-on construire ces capacités dans l’IA ? Richard Feynman avait la réputation de dire « Ce que je ne peux pas créer, je ne le comprends pas. » Il apparaît que notre créativité nous donne l’habilité de comprendre ce qui se passe à l’intérieur de l’univers. Avec le paradigme actuel de l’IA ceci est très difficile. Le paradigme actuel est exploité vers des scénarios dans lesquels l’entrainement et les tests répartis sont similaires, cependant la créativité réclame l’extrapolation – être capable d’imaginer entièrement de nouveaux scénarios. Donc l’extrapolation est un aspect essentiel. Pouvez-vous aller avec ce que vous avez appris vers l’extrapolation de nouveaux scénarios ? Pour cela nous avons besoin de quelques formes d’invariances et de compréhension des lois sous-jacentes. C’est ce qui fait que la connaissance de la physique en devenir dépend de la connaissance déjà acquise. Les humains ont des notions intuitives de physique dès le début de leur enfance. Nous les prélevons de nos interactions physiques avec le monde. Cette compréhension est au cœur pour obtenir que l’IA soit créative. »

Cela peut sembler facile, après coup, de dire que le risque voire le danger était prévisible, tôt ou tard, que nous soyons réduits en 2021 à penser devoir recourir à des prothèses intellectuelles constituées d’IA hypothétique pour sortir de l’impasse en physique des particules élémentaires. Facile après coup, mais personnellement j’ai eu ce fort pressentiment, que j’ai exprimé et développé dans l’article du 16/01/2016 sur mon blog, intitulé : ‘Et si notre pensée était mal placée’, lorsque j’ai lu le premier article d’arrivée en responsabilité de la nouvelle Directrice Générale du CERN, Fabiola Gianetti en janvier 2016 : « If new physics is there we can discover it, but it is in the hands of nature. » ; soit : « Si une nouvelle physique est là, nous pouvons la découvrir, mais c’est entre les mains de la nature. » Selon mon point de vue, il ne peut pas y avoir de découverte si notre pensée n’est pas préalablement posée sur la propriété physique ou l’objet physique à découvrir. (Voir l’exemple du boson de Higgs : théoriquement postulé en 1964, mais découvert effectivement 48 ans après). Demander à la nature de nous faire voir ce pourquoi nous n’avons pas encore établi de la signification est insupportable et erroné. La nature est tellement riche en possibles qui ont du sens, que de la part du scientifique il doit y avoir un investissement intellectuel préalable qui projette un premier éclairage d’intelligibilité potentielle sur le phénomène physique que nous choisissons d’ausculter. Comment est-il possible qu’il soit proposé à la communauté scientifique : faisons-nous spectateur, la nature se dévoilera d’elle-même ? Pourquoi serait-il possible d’ignorer maintenant que c’est dans la confrontation avec le ‘pas-encore-connu’, le ‘pas-encore-compris’, que l’être humain puise sa raison d’être et qu’ainsi il plonge en permanence son regard dans un horizon des futurs possibles à découvrir.

Bref, je suspecte qu’il y ait une redoutable corrélation entre ces propos tenus en 2016 par la Directrice Générale du CERN et que ce soit des physiciens du CERN qui proposent en 2020 de se reposer sur l’IA pour extraire de l’impasse, au moins deux fois décennale, la physique théorique des hautes énergies car, en effet, durant cette période le mur de l’impasse s’est encore élevé et s’est encore épaissi.

Avec la lecture de l’interview de F. Gianetti dans ‘La Recherche’ du 1er trimestre 2022, je me réjouis, qu’en 6 ans elle ait modifié son point de vue.  En effet, p.9, à la question posée par le journaliste de la revue : « Mais il y a-t-il de la place pour de nouvelles idées radicales en physique ? Comme celle qui voudrait que les lois de la nature ne soient pas si simples ni si symétriques que ce qu’on a supposé jusqu’ici ? », elle répond : « J’en suis convaincue. Le moteur de la recherche ce sont aussi les idées qui sortent des sentiers battus… Nos expériences sont conçues pour tenter de chercher une nouvelle physique dans le cadre de scénarios théoriques existants, mais aussi de manière ouverte et indépendante. En effet, la nature pourrait avoir choisi des réponses (sic) aux questions ouvertes que les scientifiques n’ont pas encore imaginées. »

Je propose de mettre en regard les deux dernières phrases de F. Gianetti, avec celles de J. Ellis que j’ai transcrit ci-dessus « … d’une certaine façon équiper un système d’IA avec le référentiel théorique que nous théoriciens exploitons, et laisser le système d’IA moins contraignant et regarder s’il produit quelque chose (de différent) » Dans une certaine mesure ils sont en phase pour appeler à se libérer des œillères théoriques actuelles, bien que F. Gianetti n’évoque pas l’idée, pour cette éventualité, du recours à l’IA. D’ailleurs je me demande, pourquoi les physiciens ne seraient pas suffisamment intelligents pour que, d’eux-mêmes, ils ne soient pas capables de desserrer le carcan de leurs propres théories ? Puisque comme elle le dit : « le moteur de la recherche ce sont aussi les idées qui sortent des sentiers battus », c’est aux chercheurs physiciens qu’il revient de remettre en activité ce moteur.

De plus, je propose de mettre en regard ce que nous dit A. Barrau et que j’ai cité ci-dessus : « Nous choisissons et inventons les rapports au(x) monde(s) que nous jugeons pertinents. Ils ne sont pas donnés, ils sont construits. », avec, là encore, ce qu’affirme F. Gianetti : « En effet, la nature pourrait avoir choisi des réponses (sic) aux questions ouvertes que les scientifiques n’ont pas encore imaginées. » La différence des points de vue épistémologiques saute aux yeux. La nature n’est pas active et elle ne choisit pas. C’est le sujet réflexif qui choisit et activement invente les questions à poser, ébauche des réponses : ce sont des hypothèses, et grâce au retour des expériences ce sont des échos plus ou moins francs, provoqués par nos hypothèses projetées, qui nous parviennent. Cette différence de point de vue n’est pas secondaire car s’y trouve explicitée la place de la valeur première de l’investissement nécessaire et préalable de l’intelligence humaine et son rôle incontournable. En conséquence, il ne sert à rien d’investir des sommes importantes dans des instruments de recherche si au préalable notre pensée n’est pas posée sur des perspectives correspondant à notre capacité d’entendement.

Bref, selon ma conviction, il faut considérer que la loi du développement de la connaissance de la nature est une loi de confrontation sans fin, directe, entre l’intelligence humaine et la nature. Il ne peut y avoir une délégation mythique à l’IA, bien que celle-ci soit fondée par l’Homme. Je fais totalement mien l’avis : « de ce qui nous rend humains », de F. Gianetti qui, dans l’interview cité de 2022, affirme p.11 : « Nous parlons ici d’un investissement à long terme dans le but de mieux comprendre comment fonctionnent la nature et l’Univers. Il s’agit d’une quête intrinsèque à ce qui nous rend humains : nous ne pouvons pas l’arrêter. » C’est enfin une vision lucide, très juste et très enthousiasmante !

A ce stade le chapitre ‘Prologue’ est complètement publié.

La prochaine publication, le 17/06/2022, ouvrira le chapitre ‘Présence’ du mémoire. La publication complète de ce chapitre sera répartie sur 4 à 5 semaines.

 

[1] Voir les pages du ‘Monde’, ‘science et médecine’ du 8/6/2022

Partager cet article
Repost0
3 juin 2022 5 03 /06 /juin /2022 15:21

Au cours des semaines à venir je propose de publier un ensemble de textes sous le titre générique : « L’Être humain est une Réalité de/dans l’univers ».

Une fois par semaine j’éditerai une suite à ce que j’aurai publié la semaine précédente.

Le mémoire complet représente actuellement 70 pages. Il comprend 4 chapitres :

1 Prologue

2 Présence

3 Dialogue imaginaire avec Carlo Rovelli

4 A sein d’une Eternité parmi Tous les Possibles…

Ci-joint la publication du 03/06/2022

L’Être humain est une réalité de/dans l’Univers

                                                                    Prologue

Après avoir lu et relu le livre d’Adam Becker : « What is Real ?», sous-titré : « The unfinished quest for the meaning of quantum physics » ; soit : « Qu’est-ce qui est Réel ? » ; sous-titré : « La quête infinie de la compréhension de la physique quantique », j’ai considéré qu’il était temps pour moi d’entreprendre l’écriture de ce mémoire dont son titre affirme que le centre de la scène de la connaissance en physique, qu’elle soit physique quantique ou physique classique, est occupé par l’être humain fondateur de cette science. Avec cette hypothèse, il faut tenir compte du fait qu’il est imprégné de ses propres déterminations actuelles, que celles-ci soient, entre autres, ses encore ignorances, ses connaissances partielles et/ou approximatives, ses incapacités actuelles à se poser les bonnes questions, ainsi que l’écran de sa subjectivité riche de croyances ataviques. L’être humain doit être considéré comme la première réalité à l’origine de l’émergence des autres réalités qu’elles soient de l’univers ou dans l’univers, elles sont donc ses propres réalités[1].

Quelques temps auparavant j’avais lu le livre de Philip Ball : « Beyond Weird », sous-titré : « Why everything you thought about quantum physics is different ?” ; soit : « Au-delà de l’Etrangeté » ; sous-titré : « Pourquoi tout ce que vous pensez à propos de la physique quantique est différent ? », ainsi que le troisième livre du même acabit de Sean Carroll publié une année après en 2019, « Something Deeply Hidden », sous-titré : « Quantum Worlds and the Emergence of Spacetime » ; soit : « Quelque chose Profondément Caché » ; sous-titré : « Les Mondes quantiques et l’Emergence de l’Espace-Temps ».

Ces trois livres commentent une fois de plus les problématiques fondamentales qui ont surgi avec l’avènement de la mécanique quantique et des relativités restreinte et générale au début du vingtième siècle. Avènement qui fut sujet de débats de très grandes qualités tout aussi bien d’un point de vue scientifique, épistémologique, que philosophique jusqu’avant le début de la deuxième guerre mondiale car la montée du fascisme a provoqué la très regrettable dispersion de très grands intellectuels scientifiques européens à l’origine de cet ensemble de découvertes. Commenter et reconstituer l’histoire du développement de la connaissance en physique du vingtième siècle est une chose certainement utile mais cela est surtout de nos jours, puisque c’est la énième fois, le symptôme d’une extraordinaire et inquiétante actuelle stagnation de la connaissance en science physique fondamentale.

Je me suis décidé à écrire ce mémoire à thèse qui vise à proposer une conception de la physique qui permettrait, non pas de regarder dans le rétroviseur, mais de porter notre regard de chercheur en physique vers l’horizon de découvertes nouvelles qui feront avancer nos connaissances fondamentales sur le monde physique.

Mon hypothèse c’est que depuis le 17e siècle, depuis Galilée (1564-1642), les physiciens ont emprisonné leur pensée dans la croyance qu’ils étaient à même d’accéder à une connaissance Universelle, qui serait aboutie, c’est-à-dire une connaissance globalement et finalement exacte, polarisée par la croyance que l’objectivité rendant compte du monde réel est effectivement accessible à l’intelligence humaine. Ce serait donc une connaissance qui serait le fruit d’une complète réduction des déterminations de celui qui est l’auteur de la connaissance c’est-à-dire celui qui est reconnu avoir le statut de physicien. J’ai parfaitement conscience que le titre de ce mémoire peut être considéré provocant surtout si on se réfère au paradigme épistémologique toujours dominant. Paradigme qui exclut que la présence du sujet pensant, avec ses déterminations, même à l’état de trace, puisse être prise en considération dans les bonnes lois et propriétés actuelles de la physique.

Les lecteurs constateront que je cite de nombreux auteurs, tout au cours de ce mémoire, car ma conception ne m’est pas complètement propre, elle n’est pas le fruit de la réflexion d’une personne solitaire. Au contraire, j’étudie, tresse ma pensée avec celle des autres et je ne cesse pas de confronter mes propres hypothèses depuis une vingtaine d’années, à une multitude de propositions, de publications, d’ouvrages, qui me permettent de façonner et d’affiner une conception globale personnelle du monde physique qui se justifie donc au fil d’une interaction entretenue avec des membres de la communauté des physiciens avec lesquels je reconnais des convergences tout autant que des divergences. Cela ne peut pas être autrement.

Une compréhension interactive entre les différentes conceptions ainsi que l’analyse de leurs interprétations sont absolument nécessaires pour entretenir une pensée en mouvement et en progrès. Bref, dans ce contexte, le concept d’intelligence collective, à mes yeux, n’est pas vain. En conséquence un dialogue permanent, qui peut être réel ou imaginaire avec ceux qui proposent, est impératif et peut s’avérer particulièrement fructueux.

Bien que je fasse état dès les premières lignes du Prologue d’une sérieuse inquiétude à propos d’une véritable inertie intellectuelle qui rend incapable, la communauté des physiciens, depuis une bonne trentaine d’années, de produire des nouvelles idées fondatrices en physique, il y a quand même matière à espérer car il commence à y avoir de la révolte dans l’air. A ce titre le livre de Sabine Hossenfelder, en 2019 : « Lost in Maths », soit : « Perdus en Mathématiques », sous-titré : « Comment la beauté égare la physique. » doit être considéré comme un très sérieux premier coup de semonce adressé aux physiciens théoriciens pour qu’ils sortent de leur torpeur, en quelque sorte qu’ils sortent de leurs paradigmes épuisés.  Dans la quatrième de couverture, sans détour, Hossenfelder est conduite à constater ce bilan radicalement négatif : « Pourtant les théoriciens sont persuadés (sic) que leurs gracieuses équations et leurs formules élégantes recèlent de formidables vérités sur la nature. Résultat, la discipline est aujourd’hui dans l’impasse. » Quand elle interroge Gian Francesco Giudice, membre de la division Théorie du CERN à Genève, sur ce qu’il pense en 2019 des dernières données fournies par le LHC, il lui répond : « Nous sommes complètement perdus. » Enfin, pense-t-elle : « Quelque chose que je comprends. »

Dans le prologue je privilégie les références à des auteurs qui plus ou moins incidemment expriment des idées qui côtoient celles qui ont ma préférence et que je tente de développer. Ainsi je tente de recenser les expressions des physiciens et des philosophes des sciences qui visent à desserrer l’étau des contraintes qui pour l’essentiel structurent la pensée et les raisonnements en jeux. Contraintes entretenues par ceux qui se reconnaissent ou s’invitent dans la communauté des physiciens et contribuent à garantir la croyance que leurs connaissances sont véritables et ont une valeur universelle.

J’ai déjà eu l’occasion de lire en 2012 : « Le physicien est convaincu qu’un monde extérieur à lui existe. C’est un postulat métaphysique ; ce n’est pas une donnée empirique. On pourrait tout autant postuler que le monde n’est pas et que nous sommes trompés par nos sens. La physique est une construction humaine qui ne dit pas l’absolu vérité du monde. La science n’a jamais prétendu dire la Vérité, hormis dans le scientisme que je tiens pour une forme de théologie. » L’auteur de cette considération tranchante : M. Blay, à ma connaissance, n’a jamais donné suite ou n’a jamais pu donner suite à son analyse. Il aurait donc parler dans le désert ou bien lui-même cherchant une chute pour son article a sélectionné, sans trop croire à une possibilité de suite, cette ruade épistémologique.

Ce qui est signifié dans la citation ci-dessus, qui à mes yeux est approprié, peut être endossé et développé par d’autres physiciens qui auraient semble-t-il intégré, d’une façon permanente dans leurs productions professionnelles, l’idée que la connaissance en physique n’en demeure pas moins humaine et créée. Ainsi dans le petit livre de Aurélien Barrau (2016), qui n’est pas destiné s’adresser explicitement à la communauté scientifique : « De la Vérité dans les Sciences. », on peut lire page 36 : « Mon ami Carlo Rovelli, inventeur de l’une des meilleures théories de gravitation quantique – considère que la science c’est « un peu d’air frais qui entre dans la maison ». Il n’est plus seulement question de s’émerveiller devant nos propres créations mais aussi devant ce qui semble exister et se déployer indépendamment de nous. Je pense qu’il a raison. Il est sain, voire salutaire, de souligner cela. Mais il ne faut pas oublier, en parallèle de cette mise en rapport avec l’autre, avec l’ailleurs, avec l’hors, que nos manières d’appréhender cet « autre part » n’en demeurent pas moins humaines et créées. Il faut rester conscient (sic) que cette tentative d’exploration du loin n’est entreprise qu’avec nos modalités purement et inéluctablement humaines et donc locales. Nous choisissons et inventons les rapports au(x) monde(s) que nous jugeons pertinents. Ils ne sont pas donnés, ils sont construits. »

Selon ce que nous dit Barrau, si je comprends bien, c’est que nous devons rester lucide sur le fait que nous mettons en œuvre des moyens qui sont propres à notre nature humaine pour décrypter, l’ailleurs, l’hors. Ces moyens sont déterminés par ce qui fait de nous des êtres humains réflexifs. Ces moyens ne peuvent pas être considérés comme universels, ils nous sont attachés. Ce qu’il confirme à la page suivante : « La science est une louable tentative d’accéder au non-humain-du-réel – elle est toujours consciente – elle devrait en tout cas l’être (sic) – de ses limites. Limites omniprésentes ! »

Pour moi les limites omniprésentes sont celles que je désigne, en introduction, comme étant les déterminations qui nous habitent et font écran au dévoilement de connaissances de la nature qui seraient universelles s’il en est. Certes, elles sont omniprésentes, mais elles évoluent. Je ne prends aucun risque en affirmant que les déterminations qui imprégnaient le ‘sujet pensant’ (le monde de la physique) à l’époque d’Isaac Newton et de René Descartes ne sont plus les mêmes que celles d’aujourd’hui.

Je veux avant tout, remercier Aurélien pour ce qu’il nous dit car cela met en évidence une vraie honnêteté intellectuelle et un refus de l’enfermement de sa pensée dans un cheminement univoque. Effectivement, il ne se repose pas, sans cesse il explore. Ceci ne fait pas de doute ! Ce que je souhaite c’est que les différents chemins d’explorations qu’il parcourt se fondent en un seul chemin celui correspondant à son activité principale de chercheur en physique subatomique et en cosmologie. Je souhaiterais que sa philosophie de la science physique, sa conception épistémologique, imprègnent sa production scientifique. 

Je m’interroge sur les précautions d’Aurélien lorsque notamment il rappelle que la science (sic) devrait être en tout cas toujours consciente de ses limites qui sont pour lui omniprésentes. Premièrement, il ne peut pas faire référence à la science comme si elle était une personne. Quelle serait la nature de cette entité qui serait, selon son expression, autonome, douée d’une quelconque conscience propre ? Cela est un non-sens. Cela est étonnant de sa part. Pourquoi ne dit-il pas : les physiciens devraient être toujours conscients des limites de leurs raisonnements scientifiques ? Je crains que cette esquive signifie qu’il sait depuis longtemps que les physiciens refusent de relativiser à l’échelle de l’humain la signification de leurs découvertes qui ne seraient dans ce cas que provisoires. La communauté des scientifiques en physique fondamentale se considère comme étant l’avant-garde du savoir, on ne peut s’attendre à ce que, d’eux-mêmes, ils sabordent leur piédestal. Aurélien estimerait qu’il ne peut pas se particulariser. En tous les cas il considère que la situation n’est pas favorable et peut-être n’a-t-il pas les moyens irréfutables de proposer à la communauté scientifique un regard neuf pour provoquer un minimum d’adhésion à l’idée que « nos manières d’appréhender cet « autre part » n’en demeurent pas moins humaines et créées », et donc intégrer les spécificités de l’être humain tel qu’il est aujourd’hui - être humain encore aveuglé par des déterminations pas encore gommées, inhérentes à notre condition - dans le corpus de la science physique.

Je remarque qu’il n’est pas le seul à tenter des coups de projecteur qui, s’ils étaient retenus, pourraient changer le cours de la création scientifique. Ce qui ne manque pas de m’interpeler c’est que, réparti dans le temps et en tenant compte de la variété de la répartition géographique des centres de recherches, de tels sursauts de lucidité peuvent être régulièrement exprimés et enregistrés mais malheureusement autant que j’ai pu le constater ils ne s’additionnent pas, ils n’impriment pas, ils ne catalysent pas au sein de ladite communauté. Au bout du compte ils ne sont que des miroitements de lucidité, pas plus. Ainsi, j’ai pu lire dans un article du 9/01/2019 dans ‘Nature’ : « It’s also to embrace the hope that we can create a new scientific culture, in which we see ourselves both as an expression of nature and as a source of nature’s self-understanding. We need nothing less than a science nourished by this sensibility for humanity to flourish in the new millennium” » ; soit : « Il faut aussi embrasser l’espoir que nous pouvons créer une nouvelle culture scientifique, dans laquelle nous nous considérons nous-mêmes à la fois comme une expression de la nature et comme une source de l’auto-compréhension de la nature. Nous avons besoin de rien de moins qu’une science nourrie par cette sensibilité pour que l’humanité s’épanouisse dans le nouveau millénaire. »

L’article a pour titre : ‘La tache aveugle’ ; soit : ‘The blind spot’ avec le sous-titre : « Il est tentant de croire que la science nous donne une vue de la réalité telle que vue par l’œil de Dieu. Mais nous oublions, à notre péril, la place de l’expérience humaine. » ; soit : « It’s tempting to think science gives a God’s-eye view of reality. But we forget the place of human experience at our peril.” Depuis, je n’ai jamais eu l’occasion de constater qu’il ait été cité. Or, c’est le nombre de citations d’un article qui fait référence parmi les scientifiques pour mesurer la curiosité et l’intérêt provoqué par un article.   

Cet article, dans lequel j’ai rencontré de nombreux et sérieux points de vue vraiment concordant, m’a insufflé l’envie de correspondre avec les trois auteurs. L’un : professeur d’astrophysique, l’autre physicien théoricien et le troisième : professeur de philosophie.  Mais ce fut sans retour. J’aurais voulu que l’on développe sur ce qui ne fait aucun doute pour moi : « l’objectivité scientifique ne peut être confondue avec l’idée d’une compréhension extérieure ; dans ce contexte, « objectif » signifie simplement quelque chose qui est fidèle aux observations convenues par une communauté d’enquêteurs utilisant certains outils. La science est essentiellement une forme d’expérience humaine hautement raffinée, basée sur nos capacités à observer, agir et communiquer. L’affirmation selon laquelle la science révèle une « réalité » parfaitement objective est plus théologique (sic) que scientifique. »

Citons aussi S. Hawking et Mlodinov : « Nous modélisons la réalité physique à partir de ce que nous voyons du monde, qui dépend de nous et de notre point de vue. Dès lors, un « réalisme dépendant du modèle » semble préférable au réalisme absolu habituel en physique » … « Dans ces doctrines, le monde que nous connaissons est construit par l’esprit humain à partir de la matière brute des données sensorielles, et il est mis en forme par le cerveau. Ce point de vue semble difficile à accepter (sic), mais pas à comprendre. S’agissant de notre perception du monde, il n’existe aucun moyen de supprimer l’observateur – c’est-à-dire nous. »

             La suite du chapitre Prologue sera publié le 10/06.

[1]Pour indiquer à quel point avec mon hypothèse, j’invite à aller prospecter le monde de la physique sur un territoire toujours en friche, je cite dans un article des plus récents, soit le 19 mai 2022, la philosophe de la physique Elise Crull, au City College de New York, qui nous rappelle : “Entanglement, superposition, decoherence—it’s all very puzzling from a metaphysical perspective. Even after 100 years, we still debate what is “real” in the quantum realm.”

Partager cet article
Repost0
19 février 2021 5 19 /02 /février /2021 14:51

Ôter les œillères de la pensée en physique.

Dans un article à la mi-novembre, dans le Cern-Courier, intitulé : « In pursuit of the possible » ; « A la poursuite du possible », une phénomologiste des collisions répondait à un interview et expliquait ce à quoi correspondait sa nouvelle fonction au sein du CERN. Sa mission spécifique consiste, étant donné sa spécialité, à tenter de débusquer, parmi les données accumulées et enregistrées depuis que le LHC fonctionne, des événements qui auraient échappé à la sagacité des physiciens parce qu’ils n’auraient pas été pensés préalablement comme étant de l’ordre du possible.  C’est à dire qu’aucune théorie voire simplement ébauche de théorie formulée actuellement par les physiciens des particules élémentaires ne peut pré-voir la présence éventuelle de tels événements dans les détecteurs.

Depuis plus de dix ans que le LHC a été mis en activité, la déception est grande étant donné la pauvreté des résultats obtenus en rapport avec ceux qui étaient attendus. Certes l’observation pour la première fois du boson de Higgs grâce à la détection de signatures caractéristiques, dans les détecteurs CMS et ATLAS, signalant sa présence n’est pas un mince résultat puisque prédit depuis un demi-siècle. Mais toutes les espérances de nouvelles découvertes ont été franchement déçues, rien sur la matière noire, rien sur les particules supersymétriques et autres prédictions. Aujourd’hui c’est l’impasse complète dans le domaine de la physique des particules élémentaires. Le titre de l’article dont je me réfère : « A la poursuite du possible » est significatif car il indique que l’on est à la poursuite de ce que possiblement on a été incapable de pré-voir théoriquement. Cette situation, résulte selon mon point de vue (voir article du 8/11/2011 « Qui se permettra de le dire ? »), d’un aveuglement théorique des physiciens de cette spécialité considérant que toute nouvelle physique fondamentale pouvait être certainement développée en continuant d’exploiter le paradigme de la théorie quantique des champs et les propriétés de symétrie[1]. Ils n’ont jamais été alertés par leurs extrapolations et des rajouts d’hypothèses qui ont provoqué une fragilité de plus en plus évidente de l’édifice théorique qui a engendré ce que l’on nomme : le Modèle Standard de la physique des particules élémentaires.

Maintenant on est obligé de revenir en arrière et tenter de scruter le film de ce qui a été enregistré depuis 10 ans au CERN et de donner du sens à des phénomènes que l’on a laissé passer comme non significatifs. La situation est périlleuse parce que comme le rappelle S. Weinberg : « Lors des expériences, le LHC crée environ un milliard de collisions entre protons par seconde. C’est trop de données, même pour la capacité de calcul du CERN. Par conséquent, les événements sont filtrés en temps réel et mis au rebut sauf si un algorithme signale qu’ils sont intéressants. A partir d’un milliard d’événements, ce « mécanisme déclencheur » n’en conserve qu’entre 100 à 200 triés sur le volet[2]… Pour moi, le fait que le CERN ait passé les dix dernières années à effacer des données qui détiennent la clé d’une nouvelle physique fondamentale (sic), c’est ça, le scénario de cauchemar. » Evidemment l’algorithme qui sépare le bon grain de l’ivraie est conçu sur la base de la physique du Modèle Standard bornée par les théoriciens n’ayant aucune ouverture de pensée en dehors de ce modèle. Il y a donc peu d’espoir d’accrocher quelque chose de nouveau qui fasse sens parmi tout ce qui a été mis en mémoire.

Pour la phénoménologiste, sa tâche est humble, celle-ci consiste à chercher des déviations par rapport aux résultats déjà obtenus en développant des calculs plus précis. Si déviations il y a, cela peut être considéré comme une fenêtre pour une nouvelle physique. Cette démarche est troublante car sans théorie préalable voire sans seulement, a minima, une ébauche de théorie on ne peut pas voir la lumière ni interpréter la lumière qui filtre par la fenêtre. Cette démarche est inquiétante car cette physicienne déclare : « Dans la plupart des cas les progrès en physique proviennent des observations. Après tout, c’est une science naturelle, ce n’est pas des mathématiques. » Ce point de vue est franchement erroné et inquiétant, il suffit de considérer les travaux de Boltzmann, l’avènement de la relativité générale d’Einstein, les travaux de Dirac pour prédire l’antiélectron et partant l’antimatière, l’invention du neutrino en 1931 et effectivement observé en 1956, la théorie des quarks, etc… La physique est une science qui révèle la dynamique de la confrontation de l’intelligence humaine avec la nature pour décrypter ses lois. La compréhension, la conquête de la place de l’être humain au sein du monde en est le perpétuel enjeu. La physique est une science de la pensée hardie et chaque rupture ascendante avec celle qui est considérée comme un aboutissement permet de franchir un nouveau palier de l’émancipation de l’intelligence humaine et partant nourrit son évolution. Bien sûr historiquement on peut constater qu’après des ruptures ascendantes, il y a toujours une période plus ou moins longue d’assimilation, de cheminements pragmatiques, d’ajustements, de tâtonnements mais de fait c’est toujours le mûrissement d’un nouvel élan de la pensée qui se prépare pour dépasser les nouveaux obstacles que celle-ci rencontre au dévoilement des lois de la nature. La nature ne se laisse pas voir, la contemplation passive à son égard ne conduit pas à son dévoilement. La conception, la vision Platonicienne n’est plus de mise. Pensons au sort réservé à Actéon qui a vu Artémis déesse de la nature prendre son bain nue.

Ma conception Anthropo-philosophique constitue un référentiel qui devrait inspirer plus fréquemment les physiciens car elle conduit un éveil continue de la pensée et elle s’oppose à la routine et à la fossilisation de celle-ci. Sachant que la mécanique quantique est la matrice de la physique des particules élémentaires, je rencontre une conception partagée par Bernard d’Espagnat (Physicien théorique 1921-2015), qui dans son livre : « Le réel voilé », 1994, édit. Fayard, écrit dès les premières lignes de son Avant-propos : « Je le dis sans ambages : quiconque cherche à se faire une idée du mondeet de la place de l’homme dans le monde – doit tenir compte des acquis et de la problématique de la mécanique quantique. Bien plus : il doit les mettre au centre de son questionnement. Cette vérité ne se révèle pas à nous d’emblée (sic)… »

Très sérieusement on doit considérer que la stagnation depuis plusieurs décennies de la pensée en physique théorique est très préoccupante car ce propos que je reproche à la phénoménologiste n’est pas un propos isolé, accidentel. Il reflète l’état d’esprit d’une trop grande partie de la communauté scientifique en question qui est celui du renoncement de la pensée que j’avais déjà relevé avec ma plus grande inquiétude au début de l’année 2016 quand j’ai lu la phrase suivante de Fabiola Gianetti inaugurant sa nouvelle responsabilité de Directrice Générale du CERN : « If new physics is there we can discover it, but it is in the hands of nature » ; « Si une nouvelle physique est là, nous pouvons la découvrir, mais c’est dans les mains de la nature. » Le propos de F. Gianetti creuse et confirme le chemin de la déroute. C’est un propos qui sous-estime le rôle du chercheur en physique fondamentale puisqu’il n’y a pas de découverte s’il n’y a pas d’investissement intellectuel préalable. Ce qu’elle nous dit, c’est qu’elle n’y croit plus et en conséquence elle ne peut pas nous dire « Une nouvelle physique n’est jamais ‘là’ naturellement, le ‘là’ d’une nouvelle physique ne peut être que celui déterminé, fixé par l’intelligence des physiciens » En effet, nous devons penser qu’il y a un nombre incommensurable de ‘’ dans la nature et on ne peut pas tous les embrasser simultanément car notre intelligence n’est pas universelle bien que cela soit l’horizon qui nous met en perpétuel mouvement.

A l’article de F. Gianetti, j’avais fait part de ma réaction dans l’article du 16/01/2016 : « Et si notre pensée est mal placée ! ». 5 années après, le marasme n’est toujours pas endigué.

Le titre de l’article du Cern-courier : « A la poursuite du possible » m’a directement interpellé car c’était la première fois que dans un article de physique je rencontrais le terme ‘possible’ utilisé comme substantif, et j’ai pensé qu’il y avait peut-être un rapport avec ma litanie que je cite régulièrement : « Au sein d’une éternité parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance de l’univers… » On note rapidement que dans un cas on est à la poursuite du ‘possible’ alors que dans l’autre cas on n’est pas dans une poursuite puisque on admet qu’ils sont tous déjà là et l’être humain doit en appréhender en permanence la possible multitude. Actuellement, on s’est lancé dans une poursuite infructueuse à cause d’une pensée bornée, considérée  absolue, encore imprégnée de la ‘Théorie du Tout’, de la part des théoriciens de la physique des particules élémentaires.  

Je me souviens lorsque j’ai lu en 2005 le livre de 470 pages : « La phénoménologie du LHC », comprenant toutes les conférences de l’université d’été en Ecosse de 2003, consacrées à l’exposé théorique de toute la physique qui sera découverte grâce au LHC. Celui-ci était programmé à l’époque, pour fonctionner à partir de 2007. En étudiant ce livre, j’ai été impressionné par les blocs de certitudes, sans failles possibles, exposés par un nombre très limité de physiciens théoriciens triés sur le volet et probablement cooptés. Je cite : « L’ampleur de la physique couverte par le LHC est très large : des recherches du boson de Higgs et de la physique au-delà du Modèle Standard (sic), aux études détaillées de la chromodynamique quantique, des secteurs de la B-physique et les propriétés de la matière hadronique aux hautes densités d’énergie… Ce livre inclue les contributions des chercheurs leaders (sic) de ces sujets, et commence par une introduction basique du Modèle Standard et de ses extensions les plus probables. »

Dans ce livre toutes les cases étaient cochées. Tous les ‘là’ étaient censés avoir été identifiés. Il n’y avait aucune place pour une autre respiration de la pensée en physique des hautes énergies. 15 ans après, on essaye à la marge d’enrichir la trop maigre récolte de résultats scientifiques par quelques possibles qui auraient été oubliés.

‘Parmi tous les possibles’ cela signifie : lorsqu’un nouveau résultat de physique fondamentale est obtenu il ne doit pas être considéré comme autosuffisant, il faut plutôt maintenir l’esprit ouvert en considérant que le résultat obtenu peut représenter la partie émergée d’un iceberg d’influences, d’interactions qui encourage à conjecturer que nous ne pensons pas dans un système clos et que nous mettons plutôt en évidence l’étendue qui s’accroit d’un savoir dont nous venons d’en décrypter seulement une partie. Dans un article du 22/07/2019 : ‘Ai-je fait si fort’, j’ai tenté de rendre compte de la dimension anthropologique de ce processus.

Prenons pour exemple la cosmologie. Depuis plus de 30 ans on recherche les constituants de la matière noire qui doivent être présents dans l’univers, le nôtre, qui serait limité spatio-temporellement. Toute l’impressionnante énergie cérébrale dépensée depuis ce temps et tous les détecteurs plus sophistiqués les uns que les autres n’ont jamais donné le moindre signe de vraisemblance à cette hypothèse. Et pourtant, encore un très grand nombre de physiciens persiste à considérer qu’il n’y a pas d’autres alternatives. La phénoménologiste au CERN (Giulia Zanderighi) est aussi, encore, malgré tout, chargée de vérifier, entre autres, s’il y a des signatures possibles de matière noire supersymétrique enregistrées dans les détecteurs. On commence maintenant à supposer qu’en fait, des trous noirs, primordiaux ou pas, pourraient être des vecteurs de supplément d’interaction gravitationnelle dans l’univers que nous habitons. Ces trous noirs pourraient être des vestiges de bébés univers du multivers de notre univers. C’est par la force des choses, à cause de plus de trente années d’échecs retentissants, que l’on commence à considérer que notre univers ne serait pas fermé, limité, mais qu’il ferait partie d’un ensemble (ex : type multivers) que nous avons à conquérir intellectuellement pour constater grâce à des observations que nous habitons cet ensemble. C’est grâce à ce processus d’appropriation intellectuelle conduisant des expériences et/ou des observations que nous apprenons à franchir l’au-delà des connaissances acquises.

A des distances moins au grand large de cette belle aventure intellectuelle, il n’y a que trente ans que l’on a découvert les premières planètes en dehors de notre système solaire. On aurait pu se dire depuis Galilée (1564-1642), que tout système solaire, avec une bonne probabilité, doit comprendre des planètes gravitant comme celles autour de notre étoile. Ce n’est qu’une fois que nous avons posé notre pensée sur cette possibilité (c’est-à-dire récemment) que nous avons conçu des dispositifs observationnels très sensibles permettant d’identifier des exoplanètes. Les auteurs principaux de ces découvertes ont obtenu le prix Nobel en 2019. Aujourd’hui on en a identifié plus de 4000 et on peut conjecturer que dans notre galaxie il y a au total plus de 100 Milliards de planètes (gazeuses, telluriques, etc…). De là, imaginer que d’autres formes d’intelligence puissent exister dans notre Galaxie, c’est parfaitement sensé. Toutefois, on a devant nous de nombreuses étapes à franchir avant que nous-mêmes soyons en capacité d’identifier d’autres formes d’intelligence.

Historiquement, on a de beaux exemples qui montrent qu’Homo-Sapiens ne pourrait pas Être ce qu’il est et ce qu’il deviendra s’il n’était pas mû par la dynamique de repousser les frontières de la connaissance de son monde. Prenons l’exemple de l’avènement de la Relativité Générale (1915). Quelques mois après Karl Schwarzschild déduit une métrique en tant que solution partielle, particulière (symétrie sphérique), des équations d’Einstein. Cette métrique contient néanmoins un terme intriguant car il peut tendre vers l’infini si le terme au dénominateur tend vers zéro. Ne sachant pas trop quoi en faire à cette époque, on déclare que c’est une singularité mathématique, donc on la contourne, et grâce à cet évitement on recueille les premiers résultats prédits par la R.G. Plusieurs dizaines d’années après, cette singularité mathématique est qualifiée de singularité physique car on commence à comprendre que cette singularité pourrait signifier quelque chose au niveau physique et cela aboutira à rendre compte de l’objet physique céleste appelé trou noir. Ce n’est qu’en 2000 que le trou noir central de notre galaxie, avec 4 millions de fois la masse solaire, est scientifiquement officialisé en France par l’académie des sciences. Il est légitime de considérer que la très grande majorité des galaxies de notre univers (plusieurs centaines de milliards) ont en leur centre un trou noir. Et maintenant on sait qu’il y en a d’autres qui cheminent par paires dans l’univers. Depuis 2016, en toute certitude, on a détecté plusieurs dizaines de collisions de ces trous noirs. Malgré ces magnifiques résultats on est toujours plongé dans l’inconnu car la singularité est placée au centre du trou noir et qu’en est-il de la matière qui une fois qu’elle franchit l’horizon des événements ne peut, à cause de la force gravitationnelle croissante, que s’agglomérer au centre du trou noir. Qu’en est-il de la physique et de ses propriétés au centre du trou noir ? Présentement, la réponse obligée, mais insupportable, consiste à reconnaître que c’est la fin de la matière et de l’information qu’elle véhicule, bref la fin de la physique et de son discours.

Heureusement, grâce à des développements théoriques on commence à lever le voile et il est crédible de conjecturer qu’il n’y a pas obligatoirement une fin car avec les avancées de la théorie de la gravité quantique qui est encore en développement, la matière accrétée au sein du trou noir pourrait rebondir et réapparaître sous différentes formes. Des possibilités d’observations d’objets célestes nouveaux, témoins directs ou indirects, de ces rebonds, sont identifiées. Observations nouvelles parce que maintenant elles font sens. Les auteurs de ces articles récents qui avancent cette hypothèse d’une dynamique au cœur des trous noirs et non pas cette fin irrémédiable, expriment en même temps un soulagement, une jubilation et une victoire de la pensée dépassant l’idée d’une fin dans l’univers. Ceci a besoin d’être décanté mais la voie est ouverte. Si cette hypothèse fructifie, cela voudra dire que l’on commence à comprendre des structures de l’espace-temps à grande courbure engendrées par une force gravitationnelle très intense ainsi que ce qui peut en émerger. Les conséquences ne seraient pas banales car l’hypothèse des trous de ver déjà théorisée dans un article publié par Einstein et Rosen en 1935 pourrait devenir sérieusement concluante. Dans ce cas on saura cibler les régions de l’univers où on pourra observer au moins leurs effets. Un article d’un physicien Russe bien argumenté explique déjà quels sont, entre autres, les trois phénomènes observables que l’on pourra attribuer à la présence d’un trou de ver dans une région de l’univers.

 

 

[1] Voir livre, en français, de Sabine Hossenfelder : « Lost in maths ; comment la beauté égare la physique. »

[2] De ces centaines quelques dizaines au plus sont considérés comme significatifs.

Partager cet article
Repost0
1 décembre 2020 2 01 /12 /décembre /2020 11:01

Ça tourne autour du pot.

Actuellement je lis le livre de Daniel Sibony. ‘A la recherche de l’autre temps’. Octobre 2020, édit O. Jacob. Dans cet ouvrage, l’auteur exploite toutes ses ressources : mathématicien, physicien, théologien, psychanalyste qui expose des cas très parlants.  La préface à ce livre est signée Alain Connes qui nous dit principalement dans celle-ci : « Deux idées me sont chères concernant le ‘temps’, la première a trait au temps individuel, la seconde au temps de la physique… Quant au temps de la physique, ce que j’ai découvert c’est que ce n’est pas « le passage du temps » qui est la vraie origine de la « toute variabilité » des choses, mais une raison bien plus fascinante que j’appellerai « aléa quantique ». L’impossibilité, aussi bien théorique qu’expérimentale, de prédire ou de reproduire le résultat pourtant toujours univoque d’une expérience quantique qui reste gouvernée par le principe d’incertitude de Heisenberg et donne au quantique cette variabilité fondamentale.

L’interprétation de la mécanique quantique se heurte à un phénomène appelé « réduction du paquet d’ondes » qui n’obéit pas à l’équation de Schrödinger. Il nous faut comprendre que la variabilité quantique est plus fondamentale que le passage du temps, et réaliser en quel sens l’intrication quantique donne à l’aléa du quantique une cohérence cachée. » : « D. Sibony, par sa réflexion en profondeur sur le temps, nous ouvre grande les portes de cette pensée en devenir. »

Cette conviction, intuition, de A. Connes est reprise par Sibony, p150, « Cela confirme poétiquement une idée quantique d’Alain Connes à savoir qu’on perçoit le passage du temps du fait qu’on ne sait pas tout sur l’espace des observables. »

C’est depuis 2007 ou 2008, que je tente de suivre la réflexion de Connes à propos du temps. En effet à cette époque dans une conférence, à l’université de Metz, intitulée ‘Un espace non commutatif engendre son propre temps » au cours de laquelle, il avait exprimé ses réflexions basiques :

  • L’espace-temps est très légèrement non commutatif, en fait le point lui-même dans l’espace-temps n’est pas commutatif. Il a une toute petite structure interne qui est comme une petite clé. Le point a une dimension 0 au niveau de la métrique mais avec ma géométrie (non commutative) il a une structure interne et j’ai un espace de dimension 6 non commutatif
  • L’espace non commutatif tourne avec le temps et on peut lui faire subir des opérations thermodynamiques. Je ne pouvais pas m’empêcher de penser qu’il y avait un lien entre ce temps donné par la théorie et le temps ressenti de la physique.
  • Dans la symétrie pure, il y a quelque chose de mort, de glacé.
  • Une algèbre non commutative tourne avec le temps, (d’après le théorème de Tomita) c’est le seul endroit des mathématiques où il y a un élément d’imperfection.

J’avais déjà à cette époque développé mon hypothèse de la ‘Présence’ du sujet pensant inexpugnable et d’un temps propre du sujet (TpS) que j’avais évalué de l’ordre de 10-25s. Durant cet intervalle de temps le sujet pensant ne peut penser, c’est une durée irrémédiable et aveugle de l’intelligence humaine. C’est la succession des tic-tacs d’une horloge qui scande le temps mais entre un tic et un tac il n’y a pas de temps puisqu’il n’est pas mesurable. Il en est de même pour l’être réflexif, TpS c’est la durée de l’établissement de la présence du sujet pensant pour qu’il puisse déployer sa pensée. Donc selon mon hypothèse TpS est le point aveugle de l’intelligence humaine.

J’étais, dès 2007, très intéressé par les réflexions de Connes car selon mon point de vue j’inférai qu’il y avait convergence entre son point de dimension 0 mais ayant une structure interne avec la ‘Présence’ du sujet pensant qui génère TpS, ce temps propre assurant le fonctionnement du tic-tac qui égrène le temps du savoir des physiciens. Bref le point de dimension 0, ayant une structure interne selon Connes, je le vois habité de la ‘Présence’ de l’être réflexif. TpS est donc la cause de l’aléa quantique qui est selon Connes plus fondamental que le passage du temps.

Il me fallut attendre Mai 2015 à l’occasion du Colloque : ‘A la recherche du temps’, à l’académie des sciences pour savoir si A. Connes avait affiné sa réflexion sur le sujet. Grande, fut ma déception car il a fait un très bref exposé, de plus, essentiellement, hors du sujet programmé. A propos de ce qui était attendu, il s’est contenté de la déclaration sibylline suivante déconcertante : « l’aléa quantique est le tic-tac de l’horloge divine (sic) ». Je considère que ce genre de propos constitue une échappatoire, se référer au divin, c’est refuser de penser. Sauf que cela est assez fréquent chez les platoniciens[1] et d’un point de vue intellectuel ce n’est pas rassurant. R. Penrose que je cite dans la note de bas de page, fait aussi appel au divin pour esquiver les conséquences du théorème de Gödel, qui pourtant depuis 1930 a été plusieurs fois confirmé.

En désaccord avec l’esquive d’Alain Connes qui me navre, j’ai déjà affirmé dans un article du 02/11/2012 : « Synthèse : un Monde en ‘Présence’ », le tic-tac de l’horloge qui égrène le temps du savoir du sujet pensant témoigne de la ‘Présence’ de celui-ci qui est affecté d’un point aveugle à sa capacité de penser qui vaut de l’ordre de 10-25s ou moins. J’y vois là, la cause première de l’aléa quantique et sur ce sujet nos points de vue s’entrecroisent. L’article est toujours accessible sur Overblog, ainsi que tous les autres.

Un autre article publié dans ‘Nature’, le 9/01/2019 a apporté de l’eau à mon moulin. The Blind Spot’ ; ‘It’s tempting to think science gives a God’eye view of reality. But we forget the place of human experience at our peril’ soit : ‘La tache aveugle’; ‘Il est tentant de penser que la science donne la vue de l’œil de Dieu de la réalité. Mais, à notre péril, nous oublions la place de l’expérience humaine (sic).’ Les trois auteurs sont physiciens et/ou philosophes.

En rapport avec cet article, j’en ai posté deux : le 14/01/2019 : « The Blind Spot : La tache Aveugle » et le 22/01/2019 : « La Tache Aveugle commentée », je renvoie à ces articles détaillés dans lesquels, je précise les accords et les différences entre les points de vue respectifs. Je cite le dernier paragraphe qui résume l’intérêt évident que j’ai porté à la lecture de cet article : « Je le rappelle en anglais, puis la façon dont je l’ai traduite pour qu’il soit constaté que je ne force pas le trait (enfin, je l’espère). Ainsi je cite : « It’s also to embrace the hope that we can create a new scientific culture, in which we see ourselves both as an expression of nature and as a source of nature’s self-understanding. We need nothing less than a science nourished by this sensibility for humanity to flourish in the new millennium.” ; “Il faut aussi embrasser l'espoir que nous pouvons créer une nouvelle culture scientifique, dans laquelle nous nous considérons nous-mêmes à la fois comme une expression de la nature et comme une source de l'auto-compréhension de la nature. Nous n'avons besoin de rien de moins qu'une science nourrie par cette sensibilité pour que l'humanité s'épanouisse dans le nouveau millénaire(sic). »

Toutefois, je me suis rendu compte que ce genre de déclaration n’avait jamais de suite de la part des auteurs, c’était écrit pour provoquer un effet de chute d’un article, sans plus. Il n’y a aucune once de misanthropie à penser cela. Mais je n’ai jamais constaté, jusqu’à présent, que des auteurs de chutes semblables se soient, par la suite, attelés à l’épiphanie éventuelle de la science annoncée par leurs propos. A ce titre, je cite un texte, datant d’au moins 2012, de S. Hawking et L. Mlodinov : « Nous modélisons la réalité physique à partir de ce que nous voyons du monde, qui dépend de nous et de notre point de vue. Dès lors, un « réalisme dépendant du modèle » semble préférable au réalisme absolu habituel en physique. » … « Dans ces doctrines, le monde que nous connaissons est construit par l’esprit humain à partir de la matière brute des données sensorielles, et il est mis en forme par le cerveau. Ce point de vue semble difficile à accepter, mais pas à comprendre. S’agissant de notre perception du monde, il n’existe aucun moyen de supprimer l’observateur – c'est-à-dire nous. »

Depuis, je n’ai jamais eu l’occasion de lire une publication qui soit dans le prolongement de ces réflexions, à mes yeux, pleines de promesses.

Enfin en juin de cette année, j’ai découvert avec intérêt l’article suivant : « The Period of the Univers’s Clock » ; « La période de l’horloge de l’Univers », avec le sous-titre : « Des théoriciens ont déterminé 10-33seconde comme limite supérieure pour la période d’un oscillateur universel, ce qui pourrait aider à construire une théorie quantique de la gravité. »

            Ces auteurs considèrent que le temps est une propriété fondamentale de l’Univers, régie par un oscillateur qui interagit avec toute la matière et toute l’énergie. D’emblée on remarque que pour eux le temps est donné dans l’Univers, alors que pour moi celui-ci n’est pas donné, il est la marque de la ‘Présence’ du sujet cogitant cet Univers. Dans l’état actuel de nos connaissances, nos hypothèses fondamentalement différentes ne portent pas vraiment à conséquence. Ce qu’il y a d’essentiel c’est de reconnaître qu’il y a un tempo fondamental qui scande le temps dans l’univers, tel que nous le concevons, quelle qu’en soit la source, et de plus l’intervalle de temps ‘hors- sol’ de Planck est mis de côté. Autres différences dans nos hypothèses respectives, elles concernent l’appréciation de la valeur temporelle du tic-tac fondamental, pour eux au maximum c’est 10-33s, pour moi c’est de l’ordre 10-26-28s. A la lecture de leur article (voir article du 08/07/2020 sur mon blog) leur évaluation s’appuie sur des considérations techniques peut être plus circonstanciées que la mienne. Les contraintes sur mon évaluation sont faibles et si un jour ils obtiennent une mesure correspondante à leur évaluation théorique ou plus ou moins, je considèrerais que ce résultat sera une aubaine. A partir de ce résultat la question principale sera : quelle est la source ?

            Pour eux ce serait un champ scalaire qui imprègnerait l’univers comme le champ de Higgs. Pour moi cela serait l’indice fort de la ‘Présence’ du sujet pensant. Dans ce cas, il en résulte une interaction avec la matière, l’énergie, et les autres grandeurs physiques, puisque c’est le sujet pensant qui les détermine. La possibilité de trancher entre les deux hypothèses se trouverait, à mon sens, sur une expérience mettant en jeu l’intrication qui pourrait révéler le rôle de l’observateur, à cause de TpS, incapable de distinguer à l’origine les objets qui s’intriquent et à partir de cette situation d’incapacité intrinsèque de différencier la localisation spatio-temporelle celle-ci perdurant tout au long de la ligne de vol des objets.

            L’expérience consisterait à placer deux observateurs, d’une même intrication, dans deux référentiels dont l’un se déplacerait à une vitesse relative significative pour s’appuyer sur la propriété de la RR de la dilatation de l’intervalle de temps, extrêmement petit mais différent de zéro, intervenant au moment de la production de l’intrication. Si mon hypothèse est bonne, l’observateur en déplacement à vitesse significative ne constaterait pas d’intrication contrairement à l’autre au repos.

            Avant de terminer cet article, je vous propose quelques citations de D. Sibony, sélectionnées parce qu’elles illustrent en filigrane ce qui m’a conduit à opter pour l’hypothèse de la ‘Présence’ du sujet pensant à l’image d’une érection première de l’être réflexif comme a pu le concevoir S. Dehaene dans un article et que j’ai commenté dans l’article ‘Turing or not Turing’ du 05/01/2018. Cette option de la grande présence première, n’est pas celle de D. Sibony, pourtant à certain moment de l’exposition de ces réflexions il aurait pu le faire, mais non, il est resté au niveau de la ‘petite présence’, celle qui résulte de la conscience-concentration, moteur du train de la vie et de son ressenti.

            Page 15 : « Il y a du temps humain parce que deux sujets veulent parler et ne peuvent le faire à la fois, il faut un écart (sic) qui lui demande du temps, par exemple celui de l’écoute ou du refus (au minimum 1/3 de seconde). Il y a du temps parce qu’on ne voit pas tout d’un seul coup, il faut parcourir d’un bout à l’autre le paysage ou la page. Il faut du temps parce qu’il n’y a pas tout. » : p38 : « Quant à l’« insaisissable » du présent, il faut rester calme : « saisir l’instant présent », ce serait quoi ? l’instant présent entre nous, là dans cette réunion, vient de passer mais il reste une instance assez présente. Le présent semble rester présent un certain temps, le temps qu’une présence se transforme. Ce qui est sûr, c’est qu’on n’a pas, pour le futur et le passé l’équivalent de la présence pour le présent, présence qui assure son apparente continuité. » p42 : « Tous ces repères comme tendre, tenter, tensité, nous ramènent au passage du temps, qui semble assez étrange ; et les remarques qui suivent peuvent le paraître aussi lorsqu’elles cherchent à préciser une intuition commune selon laquelle nous passons beaucoup de temps entre le passé rémanent et le futur anticipé, le tout sous le signe de la présence. » A ce stade du propos de Sibony je souhaite le commenter car ce qu’il dit n’est pas banal : le tout sous…, disant inconsciemment (c’est intéressant de la part d’un psychanalyste) que la présence est au-dessus du tout, comme un phare qui éclaire ce tout. Voilà pourquoi elle doit être signifiée avec un P majuscule puisqu’elle s’est érigée une fois pour toutes. Cette ‘Présence’ est évidemment selon moi, authentiquement universelle, absolument établie, plus déterminante et signifiante que la conscience.

            Page224 : « On peut dire qu’être et temps sont intriqués sans qu’on puisse dire lequel des deux a commencé ; ils forment un entre-deux dynamique. Le temps est un rapport au possible (sic) donc un rapport à l’être, et par là même au hasard absolu… J’acquiesce donc à la formule d’Alain Connes : « l’aléa du quantique est le tic-tac de l’horloge divine. », car le temps prélevé dans le phénomène quantique est au fond prélevé dans l’infini des possibles (sic), dans l’absolue variabilité et le hasard irréductible. »

 

 

[1] Autre platonicien notable, qui a reçu le prix Nobel cette année 2020, Roger Penrose : La vérité mathématique est quelque chose qui va au-delà du simple formalisme. Il y a quelque chose d’absolu et de « divin » dans la vérité mathématique. C’est ce dont il est question dans le platonisme mathématique. La vérité mathématique réelle va au-delà des constructions fabriquées par l’homme. »


 
 
Partager cet article
Repost0
15 novembre 2020 7 15 /11 /novembre /2020 15:33

Cause et effet se superposent.

            Dans l’article précédent : « Quantique », j’ai évoqué la même expérience qui a été réalisée à Vienne et à Brisbane avec trois années d’intervalle qui nous indique que la relation de cause à effet, peut être soumise à la propriété quantique de superposition. En conséquence avec la superposition d’ordres causaux obtenus : chacun est à la fois l’effet et la cause de l’autre. Une sérieuse brèche est ouverte à l’égard de notre logique habituelle si prégnante ! Comment interpréter ce résultat ? Que faire de ce résultat ?

            Avec l’évocation des conclusions de cette expérience renversante, j’ai rappelé qu’en 2015 j’avais commis un article : « Principe de causalité : construction de l’esprit ou loi de la nature ? » dans lequel j’affirme : « En résumé, je propose de considérer que le principe de causalité est un principe sélectionné, élaboré, témoin de l’intelligence humaine embryonnaire, sélection et élaboration qui ont été validées au cours d’un processus empirique et conduisant à la capacité de survivance. Ce principe ne serait donc pas dans la Nature, il correspondrait à une spécialisation sélective de l’intelligence humaine qui doit être franchement identifiée comme telle pour être prise en compte voire être dépassée. Ce principe doit être considéré comme une détermination véhiculée par l’intelligence humaine actuelle. »

            Si nous sommes à un carrefour qui nous signale qu’il y a une voie nouvelle possible à emprunter, plus riche, pour décrypter les lois de la nature, il est certainement approprié de revisiter comment, globalement, dans l’histoire de la pensée, ce sujet de la causalité a déjà été débattu. Je ne remonte pas, dans cet article, jusqu’à Platon et Aristote mais rappelle que G. Bachelard (1884-1962) soulignait qu’il y avait maldonne. Et que le malentendu tenait en définitive à la notion de causalité « naturelle » acceptée par la pensée occidentale depuis ses premiers pas scientifiques. Le principe de causalité a constamment oscillé entre deux positions : soit inscrire ce schéma dans la nature (Locke (1632-1704)) soit en faire un schéma de la pensée humaine (Hume (1711-1776), Kant (1724-1804)). Aujourd’hui nous sommes contraints de reconnaître qu’en réalité notre science est limitée par la manière que nous avons de nous y prendre. Nous devons nous y faire[1] : « Nous n’occuperons jamais par rapport à l’univers la place que nous imaginons être celle de Dieu. Nous déterminons[2] – c’est-à-dire délimitons et façonnons – les phénomènes que nous étudions en fonction de nos connaissances acquises et des moyens dont nous disposons. Nous ne découvrons donc pas « les lois de la nature » mais nous énonçons des « lois physiques » - les lois de notre (sic) physique – qui toujours, ont prélevé sur le réel, à des échelles différentes, la part qui nous en semble accessible. Le principe général, selon lequel à tout effet naturel on doit trouver une cause naturelle, se spécifie selon le type des réalités auxquelles nous avons à faire. Il n’y a pas dès lors à s’étonner que nous puissions former l’idée de différents modes de causalité. Et il y a lieu de se réjouir que nous puissions toujours en découvrir de nouveaux. C’est ce qu’on appelle le « progrès » scientifique.

            Il y aurait sans doute lieu de rendre toute sa force à la formule de Baruch Spinoza (1635-1677) « Cause c’est – à – dire raison » : ce que nous identifions comme « cause » n’est jamais que ce qui satisfait la rationalité scientifique à un moment donné, en fonction des instruments dont elle dispose et des objets qu’elle se donne. »

            En effet la raison procède de la causalité. Cette citation de Spinoza m’offre naturellement un trait d’union entre ce paragraphe où je cite D. Lecourt et que je cosigne sans retenu, et le paragraphe suivant que je consacre aux travaux d’Hilary Putnam[3] dans ce tiré à part de 1992 : « Pourquoi ne peut-on pas ‘naturaliser’ la raison. »

            En résumé : « Comme Wittgenstein, Putnam pose que le monde a une réalité immédiate qu’il serait vain de contester, mais que ce monde n’existe pour nous que dans la mesure où nous le saisissons au moyen de jeux de langage concrets. Si on découvre dans le monde des régularités, celles-ci sont donc plus le fait de nos grammaires – pris dans une acception large – qu’une propriété du monde – ce sont les phénomènes réguliers qui sont dans le monde, non la régularité. Vouloir chercher la raison dans le monde, dans la nature – fût-elle humaine ou sociale ainsi que le laissent entendre certaines sciences douces -, c’est la perdre à tout coup, et comprendre le monde ce n’est pas découvrir les structures, mais suivre, respecter et appliquer, de manière réfléchie, des règles d’intelligibilité – mettre en œuvre, autrement dit, une disposition raisonnable… »

            Avec cette rétrospective historique succincte on constate que ce sujet est un sujet de premier ordre, toujours à l’ordre du jour. Sujet de premier ordre, pas uniquement pour les épistémologues et philosophes des sciences car il fut au centre des débats scientifiques, de niveaux jamais réatteints depuis, entre Einstein et Bohr, à propos, entre autres, des propriétés de l’intrication. L’explication et l’interprétation purement quantiques de Bohr pour rendre compte de l’expérience de pensée qui a conduit à la découverte du phénomène de l’intrication est totalement inacceptable pour Einstein parce qu’il comprend que cela demande, fondamentalement, d’accepter la rupture de la chaîne de causalité. Le refus qu’une : « action fantôme », comme il la désigne, puisse rompre la logique, qui nous imprègne et qui est l’outil essentiel du raisonnement scientifique de la physique classique, qu’il n’y a pas d’effet sans cause identifiable, est totalement inacceptable. En conséquence son hypothèse impérative des variables cachées devait combler la faille créée par une explication purement quantique donc incomplète de l’intrication. N’oublions pas que les deux joyaux de l’intelligence einsteinienne : La Relativité Restreinte et la Relativité Générale sont des stricts vecteurs du raisonnement basique : il n’y a pas d’effet sans cause. Ainsi le précepte : aucune information ne peut être transportée à une vitesse supérieure à celle de la lumière procède de la contrainte dictée par le respect de la chaîne de causalité.

Dans l’article de 2015, j’ai conclu que le principe de causalité est une conception de l’esprit, qu’il est un principe sélectionné, élaboré, bref, qui ne peut être naturalisé. Est-ce que le résultat de l’expérience quantique apporte une preuve expérimentale de ma conclusion ? Si j’étais affirmatif, ce serait de ma part aller bien vite en besogne. Par contre, il est légitime d’affirmer que l’interprétation traditionnelle de la chaîne de causalité : une cause précède toujours un effet et il n’y a pas d’effet sans cause, correspond à une interprétation rigide, sans degré de liberté, qui ne se justifie pas au regard du résultat quantique car à l’échelle de la mécanique quantique transparaît une indétermination causale, une ambiguïté causale, expérimentalement observable. Le fait que sur un même qubit[4] il soit possible de superposer à la fois l’effet et la cause d’un évènement qui l’a induit, c’est-à-dire introduire de la simultanéité éventuelle entre effet et cause, comme peut l’être le spin ½ et -½ d’un électron nous indique que la chaîne de causalité est sujette à l’introduction de degrés de liberté au niveau quantique. Que la causalité puisse être manipulée par le sujet pensant avec ses technologies, pourrait laisser considérer que la causalité est un objet du sujet pensant. Mais là encore ce serait aller vite en besogne. Il faut envisager que dans un futur proche, grâce aux propriétés de la mécanique quantique et avec de nouvelles expériences pratiquées nous serons en mesure d’approfondir cette problématique.

Dans cette dernière partie de l’article j’essaie de prévoir les conséquences de ma conviction : la causalité est une conception de l’esprit[5]. C’est une conception très, très, déterminante chez le physicien d’autant que les deux lois principales classiques conquises au début du 20e siècle, toujours actuellement confirmées, sont de véritables vecteurs de la chaîne de causalité. Et la mécanique quantique a, dans la période de sa fondation, a rompu avec la notion de déterminisme mais elle a âprement discuté celle de causalité[6]. De ces affirmations fortes, proposées dans la note 6, en contrepartie, il faut prendre en compte une position plus que nuancée de Bohr qui selon lui : « Le principe de causalité s’identifie selon les cas aux lois de conservation ou à l’évolution strictement déterminée de la fonction d’onde dans le temps dès lors qu’aucune mesure n’est effectuée. Tant que l’on ne procède à aucune mesure, la description est causale ; dès lors que l’on relie le formalisme aux résultats des mesures effectuées, la description n’est plus causale. » C’est-à-dire que la pleine applicabilité de la loi de la causalité aux résultats de la mesure n’est pas possible.

On peut dire qu’avec l’avènement de la mécanique quantique une brèche interprétative de l’exploitation de la chaîne de causalité a été introduite mais au-delà de la conception de Bohr elle n’a pas proliféré, au contraire : il suffit de lire le livre : ‘Le réel voilé : analyse des concepts quantiques’ de B. D’Espagnat (1994) pour apprécier à quel point, même voilée, la causalité est toujours exploitée, indispensable, pour interpréter les phénomènes quantiques. En conséquence investir intellectuellement la nature autrement qu’à travers le prisme de la causalité est une véritable gageure.

Etant donné cette profonde détermination, une grande partie des propriétés de la nature qui n’est pas régie par la loi de la causalité nous est totalement transparente. Par exemple, notre connaissance actuelle de ce que nous nommons l’univers est condensée dans ce que l’on appelle le Modèle Standard de la Cosmologie. Celui-ci résulte de l’exploitation pleine et entière de la Relativité Restreinte (RR) et de la Relativité Générale (RG) dont leur A.D.N respectif est la causalité. In fine, nos connaissances sur l’univers se résument a : 4 à 5% de matière baryonique dont de l’ordre de 40% n’a toujours pas été observée et 96 à 95% de composants noirs c’est-à-dire obscurs à notre entendement. Jusqu’à présent inobservable malgré les moyens techniques extraordinaire déployés mais comme notre pensée théorique n’est pas bien placée, depuis 1980, tout ce que nous avons tenté d’inférer pour lever le voile sur cette proportion impressionnante qui nous est obscure n’a jamais aboutie. Toutes ces tentatives ont été réalisées en exploitant toujours les mêmes outils théoriques que sont la R.R. et la R.G. Disons-le, nous sommes dans une situation dramatique, on attend ‘Godot’. De plus notre rationalité causale nous a conduit à inventer une origine à cet univers avec une phase primordiale cousue main qui s’effrite au fur et à mesure que des observations de plus en plus pointues sont réalisées.

Il en est de même avec la propriété de l’intrication, nous sommes dans l’incapacité d’ouvrir la boite noire de cette propriété, puisque, entre autres, la RR nous dicte que la vitesse de la lumière est indépassable et nous n’avons pas élucidé, pour l’instant, un autre mode de lecture de la propriété d’intrication. Nous clamons donc que l’intrication révèle le caractère non local de la mécanique quantique. Jusqu’à présent, il n’en n’a pas été conjecturé pour autant que la nécessité de localiser dans l’espace-temps était une nécessité univoque de l’observateur, donc une propriété du sujet pensant. Tant que l’on refusera de discriminer les propriétés que l’on attribue à la nature, alors qu’elles ne sont que les projections de propriétés qui nous sont propres en tant que sujet pensant ‘Présent’ dans le monde, de celles qui seraient propres à la nature, nous ne pourrons pas franchir le ‘Rubicon’ qui nous permettra de sortir du tunnel de la pensée en panne de lumière. Pourtant, si on considère que l’espace et le temps ne sont pas donnés dans la nature mais sont des propres de l’homme ont peut rendre compte des propriétés de l’intrication. Mais l’illusion que le physicien est un sujet absolument objectif, puisqu’il considère que son discours ne comprend que des éléments et composants qui sont extérieurs à son être cogitant, éduqué à cette pensée il ne peut admettre que l’espace et le temps seraient des témoins de sa contribution au développement de son discours scientifique. J’ai pensé, qu’a priori, ce sujet pouvait être discuté avec C. Rovelli car, pour lui, avec sa théorie de la gravité quantique, le temps n’est pas fondamental mais émerge et l’espace-temps est subordonné au champ gravitationnel qui, lui, est absolument fondamental : Eh bien, que nenni !

Nous n’avons aucun début de compréhension de l’intrication ; dans les technologies, aujourd’hui, à la pointe des nouveautés, on l’utilise largement et ceci est engagée depuis une quinzaine d’années, notamment pour les besoins de la cryptographie, entre autres. L’engouement pour exploiter les propriétés de l’intrication n’est pas près de se tarir. Plus elle sera à la source de nouveautés technologiques, moins l’envie d’élucider la théorie explicative sous-jacente sera entretenue. Ce sera l’étape du ‘calcule et tais-toi’ qui prendra finalement le pas. C’est ainsi, comme on a déjà pu le constater.

Si on observe bien les choses, il est malheureusement désagréable de constater que nous quittons l’ère de la pensée pour comprendre la nature, et c’est l’ère de la technologie qui s’impose comme substitut à la défaillance de la confiance, en sa propre pensée, du sujet pensant physicien. Peut-être est-ce l’ère d’une grande paresse intellectuelle redoutable qui s’ouvre. Personnellement, j’ai vécu une première alerte de cette problématique avec l’avènement du LHC au Cern, à Genève (voir article du 16/01/2016 : ‘Et si notre pensée était mal placée.’). Dans ce sens je me permets de citer F. Combes qui termine un article dans ‘Pour la Science’ du mois de Novembre : « Ces résultats sont fantastiques et s’accompagnent d’une compréhension plus fine de l’Univers. Certes, il reste encore de nombreuses questions fondamentales. Mais de nouveaux instruments, très puissants, scrutent déjà le ciel ou le feront bientôt. C’est le cas des satellites Euclid et du James-Webb télescope, de l’observatoire Vera-Rubin (LSST) ou l’Extremely Large Telescope, au Chili, sans parler des radiotélescopes SKA ou Alma, également au Chili. Nous avons beaucoup de chance de vivre à cette époque pour trouver des réponses aux mystères de l’Univers. » Cette citation est vraiment dans la continuité de ses cours successifs au Collège de France dans lesquels elle pouvait terminer une séance avec un dernier commentaire : « Perspective », puis uniquement lister des matériels qui allaient répondre à cette perspective.

Je recite : « Au sein d’une éternité, parmi tous les possibles… », la causalité, évidemment, doit être inclue en tant que moyen possible pour décrypter les phénomènes et les lois de la nature, mais je suis convaincu que la nature ne peut pas être décrite exhaustivement en exploitant uniquement ce moyen. Elle peut répondre et nous offrir des réponses différentes, plus riches, franchement nouvelles, en exploitant d’autres moyens de lecture.  

 

[1] Dominique Lecourt, p148, dans le ‘Dictionnaire d’histoire et philosophie des sciences’

[2] Je partage totalement l’usage du verbe : déterminer, par D. Lecourt car cela correspond à ma conception du sujet pensant qui est un être déterminé, il n’est pas un être universel, il véhicule avec lui, des points aveugles, des déterminations, qui résultent de son évolution de son état originel : être de la nature, à celui sans cesse en cours d’être dans la nature. C’est-à-dire sans cesse en cours de s’élever sur le socle de l’être dans la nature, de l’observateur qui délimite et façonne progressivement moindrement les phénomènes qu’il étudie.

[3] 1926-2016, Il est une figure centrale de la philosophie occidentale à partir des années 1960, particulièrement en philosophie de l'esprit, du langage et des sciences dures.

[4] Un qubit possède deux états de base (vecteurs propres), nommés par convention, et par analogie avec le bit classique, I0> et I1 >{\displaystyle \left|0\right\rangle }{\displaystyle \left|1\right\rangle } (prononcés : ket 0 et ket 1). Alors qu'un bit classique est numérique et a toujours pour valeur soit 0 soit 1, l'état d'un qubit est une superposition quantique linéaire de ses deux états de base,

[5] Il existe une autre voie intéressante et scientifique visant à élucider cette problématique, c’est la voie des neurosciences et je renvoie à l’article que j’ai publié du 24/03/2013 : « Scientifiques, façonnés dès la naissance ? » En effet, à cette époque, au cours d’un de ses séminaires S. Dehaene avait traité ce sujet et cela m’avait servi de point d’appui pour affiner ma réflexion personnelle. Je rappelle que tous les séminaires sont enregistrés et accessibles rétroactivement sur la base de données du C.de F.

[6] Dans : ‘Les fondements philosophiques de la mécanique quantique’ 1996, édit. J Vrin : Heisenberg, conférence du 17/09/1934 : « Car il nous est absolument impossible de communiquer le déroulement et le résultat d’une mesure autrement qu’en décrivant les manipulations et les lectures de cotes nécessaires pour cela comme des processus objectifs qui se jouent dans l’espace et dans le temps de notre intuition, et nous ne pourrions pas déduire d’un résultat de mesure les propriétés de l’objet observé si le principe de causalité ne garantissait pas une corrélation univoque entre les deux.  

De Grete Hermann (1901-1984), dans le même ouvrage : « La causalité sans lacune, illimitée, n’est pas seulement conciliable avec la mécanique quantique mais, comme on peut le prouver, elle est même présupposée par cette dernière »

Partager cet article
Repost0
4 novembre 2020 3 04 /11 /novembre /2020 11:24

Quantique

            ‘Quantique’, tel est le titre du N° Hors-Série d’Octobre de ‘Science et Vie’, avec les sous-titres qui en (pré)disent long sur les ambitions de ce N° : « Le nouvel âge d’or » ; « Comment les physiciens réinventent le monde ». 

            En effet ce N° relate le foisonnement d’interprétations de la mécanique quantique, les perspectives en vue des applications futures qui, selon N. Gisin : « Je pense que les technologies quantiques vont changer le monde, et que le meilleur reste à inventer. » Il est remarquable de constater que la mécanique quantique se prête toujours à des interprétations multiples parce que la fonction d’onde, et conséquemment sa réduction, est depuis le début de son invention chargée d’indéfinitions. Il est impressionnant de constater qu’un corpus théorique aussi prolifique puisse toujours se prêter, après un siècle d’applications, à des extensions d’interprétations aussi multiples qui n’aboutissent pas mais quand même laissent prévoir des nouvelles énigmes tout autant que des nouveaux chemins de connaissances scientifiques. ‘Science et Vie’ a tenté, dans ce N° patchwork d’être le plus exhaustif possible de ce foisonnement. Après un gros mal de tête à la fin de cette lecture, j’ai décidé de n’évoquer que les points qui font sens pour mon propre compte, parce que cela concerne des thèmes pour lesquels j’ai déjà engagé une réflexion, ou bien sur des thèmes nouveaux qui ouvrent des nouvelles promesses. Je me propose de vous les faire partager mais c’est encore mieux de lire directement et… entièrement ce numéro qui bouscule.

            Pour commencer, je propose de citer Serge Haroche qui vient de commettre un livre, qui raconte son parcours personnel de physicien, avec le titre : « La Lumière révélée’, édit. O. Jacob, (à lire). A la page 44, à propos de l’expression qui concerne l’attitude controversée de certains physiciens avec leurs étudiants et leurs doctorants à propos de la mécanique quantique, ‘tais-toi et calcule’, S. Haroche préconise : « Je pense qu’il est sans doute plus efficace de commencer par « tais-toi et calcule » avant d’aborder des questions qui n’auront jamais de réponses définitives (sic) dans nos cerveaux câblés par l’évolution darwinienne pour comprendre intuitivement le monde des objets macroscopiques et pas celui des atomes ou des photons. » Je suis en désaccord avec ce pessimisme de Haroche, voir mon article du 26/09/2015 : ‘Non, on ne pense pas quantique. Pas encore !’ car nos cerveaux ne sont pas câblés définitivement et à force de nous frotter intellectuellement à la mécanique quantique, progressivement, nous finirons par penser quantique. Je rencontre une belle confirmation de mon optimisme scientifique en lisant, dans le N° de Science et Vie, p 109, John Martinis, physicien, ex-responsable du développement de l’ordinateur quantique chez Google : « Certes, la quantique est bizarre, mais quand on utilise un ordinateur quantique, ça finit par devenir naturel (sic). Le cerveau s’adapte. »

            Avant de me concentrer sur le dossier de fond de Sc. et Vie, je veux exprimer ma satisfaction de rencontrer dans celui-ci la rigueur intellectuelle qui avait fait, à mes yeux, lourdement défaut dans le N° hors-série de ‘Pour la Science’ (voir article du 05/05/2020) en mélangeant les fondements de la mécanique quantique de l’Ecole de Copenhague avec la physique ondulatoire qui est un atavisme bien Français. Cette rigueur intellectuelle nous la lisons p98 : « Et pour cause, avec la mécanique quantique, un même objet, onde ou particule, semble pouvoir être tour à tour une chose et son contraire… »

            Parmi les nombreux questionnements posés par la mécanique quantique, je vous propose de nous concentrer, page 80, ‘Une effervescence incroyable’, sur le questionnement révélé par cette percée aux confins de la quantique : la relation de cause à effet, principe pourtant fondamental de la science (et du bon sens) peut être soumise à la propriété quantique de superposition ! Tout comme une particule (électron, atome, photon…) peut avoir une infinité d’états, de positions, ou de trajectoires, cause et effet peuvent être superposés (sic) ! Ce sont trois théoriciens, qui ont, les premiers, eut l’idée d’appliquer la superposition quantique à la relation de cause à effet : en 2012, ils proposent une généralisation du formalisme quantique dans laquelle aucune hypothèse est faite sur cet ordre causal, juste histoire d’observer ce qui se passe… Résultat : ils découvrent des configurations étranges dans lesquelles, justement, cet ordre apparaît indéterminé. Autant de configurations qui ont, quelques années plus tard été observées en laboratoire !

            L’expérience, qui a été réalisée successivement à Vienne il y a cinq ans, puis à Brisbane, il y a trois ans, se présente comme un circuit photonique quantique, où l’ordre des opérations est contrôlé par un état quantique (ou qubit de contrôle) : si ce qubit est préparé dans l’état 0, il va diriger les informations d’abord vers A, qui les enverra ensuite vers B. Mais s’il est préparé dans l’état 1, il va diriger les informations vers B, qui les enverra alors vers A… Sauf que ce qubit de contrôle, justement, est placé dans un état de superposition : il prend à la fois les valeurs 0 et 1 ! Les informations sont donc à la fois dirigées vers A puis B, et en même temps vers B puis A. En bref, il y a une superposition d’ordres causaux : chacun est à la fois l’effet et la cause de l’autre. La logique usuelle est balayée.

Voilà qui ouvre un gouffre ! Un gouffre qui pourrait être un pont reliant enfin la quantique à la relativité, le Graal des physiciens (lire p. 90).

Je suis très heureux de retrouver ce sujet car je l’ai déjà traité, il y a plusieurs années, dans l’article du 10/11/2015 : ‘Principe de causalité : construction de l’esprit ou loi de la nature ?’, dans lequel j’affirme : « En résumé, je propose de considérer que le principe de causalité est un principe sélectionné, élaboré, témoin de l’intelligence humaine embryonnaire, sélection et élaboration qui ont été validées au cours d’un processus empirique et conduisant à la capacité de survivance. Ce principe ne serait donc pas dans la Nature, il correspondrait à une spécialisation sélective de l’intelligence humaine qui doit être franchement identifiée pour être prise en compte voire être dépassée. Ce principe doit être considéré comme une détermination véhiculée par l’intelligence humaine actuelle. »

Quant à mon article du 03/07/2017 : ‘Comment la ruse quantique peut brouiller cause et effet’, j’évoque pleinement l’expérience (que je cite déjà le 10/11/2015) citée dans Sc. et Vie et j’ai mis particulièrement en exergue une des conclusions proprement renversante des expérimentateurs : « … en mécanique quantique, ce n’est pas exactement ce que vous faites qui importe, mais ce que vous savez. »

Je me souviens que quelques semaines après, j’ai rencontré un éminent physicien à Genève dans son labo et lorsque j’ai évoqué ce sujet, il l’a broyé en affirmant du haut de son autorité que c’était de la com. et certainement pas de la science. Je suis resté sans voix.

Autre question radicalement nouvelle posée, page 82, que je ne développe pas car vraiment abscons mais qui conclut « qu’une place est donné à l’observateur, celui-ci n’est plus extérieur à la théorie qui décrit le monde. Abolissant la frontière jusque-là infranchissable entre la nature et celui qui la regarde. »

Selon moi, il n’y a pas à développer une théorie supplémentaire abscons pour arriver à cette conclusion. Avec mon hypothèse de l’intelligence humaine qui est déterminé à cause de sa relation des plus intimes avec la nature qui par là même conditionne son évolution, de facto l’être humain, observateur, est dans le monde qu’il cherche à décrire. Cette idée est parfaitement concomitante avec ma thèse que l’être humain est à la fois un être de la nature et un être dans la nature. Ce qui me réjouit c’est que pour la première fois, cette même idée se trouve être, ici, exposée par un chemin différent, scientifique, très différent ! Grâce à mon hypothèse, je peux extraire, parmi d’autres, deux données déterminantes qui abolissent la frontière entre la nature et celui qui la pense. Celles-ci comprennent ce que j’ai identifié comme étant le ‘Temps propre du Sujet’ (TpS) de l’ordre de 10-26 à -28s voire moindre[1], puis la conviction que le temps est un propre de l’Homme et en conséquence il n’est pas donné dans la nature mais il est la confirmation de la ‘Présence’ du sujet pensant dans la nature. A cet égard, je cite un propos de N. Gisin rapporté dans Sc. et Vie, p.108 : « Mais dire que le temps n’est qu’illusion, c’est terrifiant (sic). Il faut raconter des choses plus belles. La science, c’est aussi savoir raconter des histoires. » Je ne sais que penser de cette réflexion dramatique de Gisin qui me paraît opportuniste car au cours d’une rencontre, après avoir ensemble identifié des points de convergences sur ce sujet, et à l’occasion de la sortie du livre au titre explicite : ‘Your Brain Is a Time Machine’ ; ‘The Neuroscience and Physics of Time’, de Dean Buonomano, en 2017, lorsque je lui ai proposé d’écrire un premier article sur ce sujet, il s’est immédiatement rétracté, arguant qu’il était un physicien surchargé de travail (sic).

Enfin, je cite un troisième exemple produit par cette incroyable effervescence : « La troisième révélation, enfin, est peut-être la plus fascinante : elle concerne l’intrication, cette propriété quantique qui lie deux particules comme si elles ne faisaient qu’une, quelle que soit la distance qui les sépare, comme si l’espace n’existait pas. Toute mesure sur l’une affecte simultanément l’état de l’autre, aussi éloignée soit-elle de la première. Ces liens ont été maintes prouvés par l’expérience. Mais depuis quelques années, des chercheurs dévoilent qu’ils sont plus intenses encore qu’imaginés. Il existe des intrications plus que quantiques ! Car cette ubiquité peut être quantifiée. Cela découle directement du fameux théorème de Bell : dans un monde classique, où tous les objets sont parfaitement localisés et indépendants, ce théorème prévoit que la corrélation entre deux particules est toujours inférieure ou égale à 2 (l’intrication est nulle). Mais dans un monde quantique, ou des particules peuvent s’intriquer, cette intensité devient ‘plus que classique’ et peut s’élever à 22. Ces valeurs ne quantifient pas une force, au sens de force de gravité ou force magnétique, mais plutôt une quantité de non-localité (sic) entre particules. Sauf qu’aujourd’hui les physiciens de la théorie quantique réalisent que, théoriquement, rien ne s’oppose à ce que cette non-localité dépasse cette valeur de 2,83. Les chercheurs ont même prouvé qu’il est possible d’aller jusqu’à 4 ! Ce qui veut dire qu’entre 22  et 4, il existe – du moins sur le papier – des corrélations ‘plus que quantique’…

Avant de terminer de faire référence à ce N° Hors-Série, je veux citer le Physicien Robert Spekken, du Perimeter Institute : « Je suis convaincu que la fonction d’onde décrit un état (parmi d’autres) de la connaissance que nous avons de la réalité. » Vous comprenez qu’avec cette conviction de R. Spekken on entend aussi : « … parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance de l’univers. » Aucune théorie physique ne peut nous permettre de décrypter valablement les lois de la nature si elle ne situe pas la place et la contribution de l’intelligence humaine qui ne cesse de s’émanciper de ses origines d’être de la nature pour atteindre l’idéal de l’être dans la nature. Cette dynamique, qui n’a pas de fin et qui évidemment contredit l’affirmation de court terme de S. Haroche, situe l’enjeu des développements à venir de notre connaissance de ce qu’est naturellement la nature. Au cours de la lecture de ce N), j’ai rencontré des tentatives multiples de définition de la : Réalité, et beaucoup d’interrogations à son sujet. Pour moi : la Réalité, c’est ce qui nous conduit à des confrontations avec des événements et des phénomènes naturels. Ces confrontations n’ont pas et n’auront pas de limites parce que chacune des confrontations traitées, accroît notre capacité de nous interroger sur de nouvelles.  

 

[1] Pour la première fois, j’ai rencontré une publication le 19/06/2020 qui fait fi du temps de Planck et les auteurs conjecturent d’un battement fondamental de 10-33s, maximal dans l’univers. Cette publication laisse présager qu’il y a un pont de convergence avec mon hypothèse et celle des auteurs. Voir article du 08/07/2020.

Partager cet article
Repost0
28 octobre 2020 3 28 /10 /octobre /2020 09:03

Pensée unique en physique. Est-ce possible ?

J’ai sélectionné les quelques pages de 142 à 148 du nouveau livre de Jean Pierre Luminet : « L’écume de l’espace-temps », édit : O. Jacob, dont je conseille la lecture. Ces quelques pages illustrent des dérives qui deviennent de plus en plus fréquentes dans le domaine de la recherche. Ces dérives sont souvent dues à la recherche d’une notoriété rapide, à la pression de la recherche de moyens financiers, et puis surtout à cause de la faible consistance du modèle théorique tel que celui qui veut rendre compte de l’émergence de l’univers. A partir de là, de grosses bêtises sont possibles. L’exemple de la dérive, très contemporaine, relatée par J.P. Luminet est aussi authentiquement illustrative des risques que représentent un fonctionnement ‘corporatiste’ de la communauté scientifique. A un certain niveau ceci a déjà été dénoncé par Lee Smolin à propos de la tyrannie des adeptes de la Théorie des Cordes car il fut un temps pendant lequel de jeunes thésards devaient impérativement faire une thèse sur ce sujet pour être recrutés dans un laboratoire sinon ils devaient aller voir ailleurs. Plus récemment Sabine Hossenfelder, à un autre niveau, avec son livre ‘Lost in Maths’ ; ‘Comment la beauté égare la physique’, avait montré « que la plupart des physiciens décrètent des modèles, développent des théories stupéfiantes qui sont tout bonnement invérifiables, résultat : la discipline est aujourd’hui dans l’impasse. » (Voir article du : 09/07/2019 : ‘Un début de démystification.’

Cette période d’errance théorique qui commence sérieusement à durer est peut-être le symptôme d’un changement d’ère radical de la recherche en physique dans le sens où les sujets que l’on traite actuellement sont très pointus, très complexes, et il n’est plus possible d’envisager qu’une seule et même théorie puisse embrasser la totalité d’un sujet voire d’un objet de l’univers. A l’ère des théories et des modèles forgés se substituent l’ère de la technologie qui nous permet de construire des instruments d’observation si performants qu’ils nous font voir concrètement plus que ce que notre propre pensée ne peut embrasser[1]. On le constate lorsque l’on tente de reproduire, de simuler, ce que l’on a observé, et bien, on fait appel, on combine empiriquement plusieurs ‘corpus théorique’ simultanément pour tenter d’être au plus près de ce que l’on a observé. Je prends comme exemple la simulation de la collision multi-message des deux étoiles à neutrons du 17/08/2017, simulation qui réussit à calquer effectivement ce qui a été observé parce que l’équipe d’astrophysiciens auteur : « … a considéré parmi différentes choses, la théorie de la relativité, les lois des gaz, des champs magnétiques, de la physique nucléaire, et les effets des neutrinos. » (Voir article de Phys.Org, du 21/10/2020: « Improved model shows gamma rays and gold at merging neutron stars”

Citons, page 142, J.P. Luminet : « Les critiques contre l’inflation ne sont pas nouvelles. Elles ont pris naissance dans toute une série d’articles techniques remontant à plusieurs années. Au premier rang des contestataires, Paul Steinhardt, devenu l’un des critiques les plus virulents de la théorie dont il avait été pourtant l’un des premiers promoteurs. Il fit valoir les sérieux problèmes concernant les bases théoriques, comme l’identification de l’inflation par un champ bien défini d’une théorie physique des hautes énergies, la forme arbitraire de l’inflation, et surtout le besoin de conditions initiales très particulières pour que l’inflation se déclenche, alors qu’elle était censée au départ les éliminer. Steinhardt et quelques rares autres voix dissidentes en concluaient que l’inflation n’était pas une théorie précise, mais un cadre de pensée tellement flexible que n’importe quel résultat pouvait en sortir, la rendant non vérifiable et non réfutable.

La très grande majorité des cosmologistes a refusé d’examiner ces critiques et encore plus d’étudier des alternatives à leur modèle chéri (sic). Un examen approfondi de pareille situation ouvre d’intéressants aperçus sur la sociologie de la science, ignorés non seulement du public, mais aussi le plus souvent des médiateurs que sont les journalistes scientifiques. La science, et en particulier la cosmologie, n’est pas à l’abri d’un fléau universel : la pensée unique – dont par les temps qui courent, nous ressentons plus que jamais les ravages sociétaux et culturels. La science fonctionne sur des consensus provisoires, c’est-à-dire sur des opinions partagées par le plus grand nombre. Elles résultent d’un accord satisfaisant entre la théorie et l’expérience. Mais un consensus qui survit assez longtemps, a tendance à se transformer en pensée orthodoxe[2]. Il se met alors à exercer un véritable terrorisme intellectuel envers toute pensée contraire… » ; « La théorie de l’inflation joue depuis plus de trente ans le rôle d’un concept cosmologique original qui s’est transformé en pensée totalitaire. Voir article du 31/03/2015 : « L’objectivité scientifique exclut qu’elle soit parasitée par des problèmes de doctrine », dans cet article la pensée totalitaire concerne, selon mon point de vue, la pensée à propos de la matière noire.

 Cette tendance s’est nettement accentuée en 2016, lorsqu’une conférence de presse internationale organisée sous l’égide de l’Agence spatiale européenne a annoncé les résultats obtenus après trois années d'exploitation des données recueillies par la mission Planck Surveyor, une collaboration rassemblant pas moins de 260 chercheurs. Ce remarquable télescope, embarqué dans l’espace, a cartographié le rayonnement du fond cosmologique avec une précision sans précédent. Le message principal délivré a été que les résultats de Planck s’accordaient parfaitement aux prédictions des modèles d’inflation les plus simples, renforçant la conviction que la théorie était fermement établie et que le grand livre cosmologique était définitivement écrit. Les clameurs de la presse spécialisée ont suivi : « victoire de l’inflation », « l’inflation confortée » ont fait les gros titres des journaux.

En compagnie de deux collègues de l’Université Harvard, Paul Steinhardt a entrepris de réanalyser méticuleusement les données de Planck, et ils sont parvenus à une conclusion toute différente : les données de Planck vont à l’encontre des modèles d’inflation « les plus simples », c’est-à-dire présentant une forme d’inflation simple et régulière. Or ces derniers prédisent des déviations à l’invariance d’échelle plus grandes que celles qui ont été observées, ainsi que des ondes gravitationnelles suffisamment fortes pour laisser des traces détectables dans le rayonnement fossile, traces qui n’ont pas été détectées. En réalité, si l’on tient absolument à l’inflation, les résultats de Planck requièrent que le champ d’inflation épouse un profil de densité d’énergie plutôt tarabiscoté… »

« L’autre article, cette fois non technique mais de nature épistémologique, paru en 2017 dans la très populaire Scientific American, concluait que les adeptes de l’inflation formaient une véritable secte de croyants dépourvue de tout esprit critique. Les défenseurs de la théorie ont réagi tout aussitôt, allant jusqu’à signer une lettre collective dans laquelle ils s’indignaient qu’une grande revue américaine ait osé donner la parole aux dissidents ! Face à l’argument selon lequel l’inflation n’est pas testable parce que ses prédictions changent complètement quand on fait varier de façon arbitraire la forme de l’inflation ou les conditions initiales, ils ont rétorqué que la testabilité d’une théorie n’exigeait en aucune façon que ses prédictions soient indépendantes du choix des paramètres. Si une telle indépendance paramétrique était requise, ajoutaient-ils, alors il faudrait aussi remettre en cause le statut du modèle standard des particules, lequel est déterminé par un ensemble de 19 paramètres.

Il y a de quoi rester perplexe quand on sait que les 19 paramètres arbitraires du modèle standard sont justement considérés par beaucoup de chercheurs comme « La plus douloureuse humiliation de la physique d’aujourd’hui. » La liste comprend des grands noms de la physique théorique actuelle. A noter cependant que Mukhanov, l’un des premiers à avoir tiré des prédictions cosmologiques à partir de la théorie, n’a pas signé la lettre. Lors d’un séminaire donné en 2017 à l’occasion d’une conférence organisée pour l’anniversaire de S. Hawking, il a déclaré très clairement que la plupart des constructions des modèles inflatoires n’étaient que gaspillage de temps. »

Une poussière dans l’œil.

« En même temps que les fluctuations quantiques produisent des variations aléatoires de l’énergie inflatoire, elles produisent des distorsions aléatoires de l’espace qui se propagent sous forme d’ondes gravitationnelles traversant l’univers après la phase d’inflation. Ces perturbations ont pour effet de laisser une empreinte dans le rayonnement de fond cosmologique sous forme d’une polarisation de la lumière qui nous parvient. La polarisation est une orientation préférée des champs électrique et magnétique de l’onde lumineuse. Elle peut se faire selon deux modes : le mode E, qui forme des configurations ressemblant à celles des champs électriques et le mode B, qui forme des configurations ressemblant à celles des champs magnétiques. Dès 1968, le cosmologiste Martin Rees avait calculé que les fluctuations de densité de l’univers primordial devaient polariser le rayonnement fossile selon les deux modes. Les modes E ont bien été observés par les télescopes WMAP et Planck. Comme les ondes gravitationnelles issues de l’inflation peuvent engendrer des modes B, leur détection était considérée comme une preuve très convaincante de la théorie, même si d’autres phénomènes physiques complètement différents peuvent aussi induire une polarisation de type B dans le rayonnement fossile. Mais en dépit de recherches intensives, les cosmologistes ne trouvaient pas de trace des ondes gravitationnelles primordiales impliquées par l’inflation. Jusqu’à ce que le 17 mars 2014 les scientifiques de l’expérience BICEP2, installée sur la base Amundsen-Scott au pôle Sud, annoncent leur détection !

Branle-bas de combat dans le petit monde de la cosmologie théorique. Le jour même est postée sur YouTube une vidéo prétendument improvisée. On y voit un jeune chercheur chinois, assistant d’Andrei Linde, sonner au domicile privé de son mentor et faisant semblant de lui annoncer l’extraordinaire nouvelle : l’expérience BICEP2 a découvert les ondes gravitationnelles d’origine primordiale, l’inflation est définitivement prouvée ! Linde feint la surprise. On ouvre une bouteille de champagne. Tout le monde a en tête le prix Nobel de physique… »

« En France, une émission de radio pour La Tête au carré est vite programmée. J’y suis invité en compagnie de mon ancien collaborateur Alain Riazuelo, membre de l’équipe Planck qui travaille sur la polarisation du rayonnement fossile. Nous faisons valoir que la prudence est de mise car il y a d’autres sources possibles susceptibles de polariser le rayonnement fossile. Avant de crier victoire, mieux vaut attendre les résultats du télescope Planck attendus pour les mois suivants, ce dernier étant mieux équipé pour étudier la polarisation sur sept bandes de fréquences que le télescope BICEP2, qui n’en a qu’une. En septembre, la sentence tombe : les chercheurs avaient en réalité observé une polarisation entièrement due à aux grains de poussière de notre Voie Lactée (sic)… Le verdict sera confirmé de façon irréfutable en 2016 par une analyse conjointe entre Planck et BICEP2. En somme, une poussière dans l’œil avait fait croire à la réalité de l’inflation ! »

Avant ce chapitre, les quelques phrases précédentes de Luminet présentent un panorama de la recherche pas très reluisant, qui malheureusement est plutôt fondé : « Une telle théorie (inflation) qui n’exclut rien ne peut pas être mise à l’épreuve expérimentale. Si elle reste une pratique scientifique courante, c’est, pour le dire crûment, qu’elle permet de produire des articles à la chaîne et de fournir des centaines de sujet de thèse[3], et non pas parce qu’elle fait vraiment progresser notre compréhension de l’Univers. Selon la base de données en physique des hautes énergies INSPIRE-HEP, on compte plus de 20 000 articles (sic) dans la littérature scientifique qui utilisent les mots « inflation » ou « inflatoire » dans leurs titres et résumés. »

Je me souviens de l’abus inacceptable de ce que l’on appelle : ‘la communication’, dans le domaine scientifique, lorsqu’au CERN, avec la mise en route du LHC, le site du CERN annonçait : on va reproduire les conditions du Big Bang. Ce slogan n’est resté que quelques jours. Cela montre bien que l’on est capable de vouloir mystifier les gens avec la science.

 

 

 

[1] Einstein a plusieurs fois proclamé sa foi en la supériorité théorique pour accéder à la compréhension des phénomènes naturels ; l’expérience, l’observation n’étant que subordonnées à celle-ci. « Ma conviction est que nous sommes en mesure, grâce à une construction purement mathématique, de trouver les concepts, ainsi que les lois qui les relient, propres à nous ouvrir les portes de la compréhension des phénomènes naturels. » Il se pourrait que cette conviction einsteinienne ne soit plus d’actualité.

2 On a déjà abordé cette problématique, très récemment, avec les postulats de l’homogénéité et de l’isotropie de l’univers, postulats consensuels utiles pour avoir une référence commune entre les cosmologistes et cela a été productif. Il se trouve, étant donnés les progrès de notre savoir accumulé et les progrès des instruments d’observation, que nous ayons les moyens de mettre en doute ces postulats pour l’ensemble de l’univers observable. Mais on peut constater que pour de nombreux physiciens c’est sacrilège car ils ont tellement intégré ces postulats qu’ils sont devenus pour eux la réalité de l’univers.

[3] On rencontre, avec cet exemple, typiquement le mode de fonctionnement corporatiste. Les intérêts du corps a plus de valeur que toute autre chose. Le reste lui est subordonné.

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens