Overblog
Suivre ce blog Administration + Créer mon blog
17 février 2024 6 17 /02 /février /2024 10:19

Les mystères de l’IA via ChatGPT

C’est à l’occasion de la lecture d’un article paru dans le journal ‘Le Monde’ du 27 Décembre, avec le titre : ‘ChatGPT comprend beaucoup plus que nous le prétendons’, que je tente, à la hauteur de mes connaissances sur ce sujet, d’élucider cette dimension mystérieuse. L’auteur de cet article est Hugues Bersini, directeur du Laboratoire d’intelligence artificielle de l’Université libre de Bruxelles, et il lance une alerte sur l’incompréhensible fossé qui se creuse entre la manière dont cette technologie est mise en œuvre et les performances ou les usages dont elle est capable (sic). 

En lisant cet article alarmiste, je me demandai si l’inquiétude de Bersini eut été de même nature s’il avait connu et étudié les travaux remarquables du linguiste Emile Benveniste (1902-1976) que l’on peut découvrir dans l’ouvrage suivant : ‘Dernières Leçons, Collège de France 1968-1969)’ (EHESS, Gallimard, Seuil)[1]. Personnellement, j’ai fait cette incursion à l’occasion d’une réflexion sur les grands débats scientifiques entre, entre autres, N. Bohr et A. Einstein durant les années 1920-1930, avec l’avènement de la Mécanique Quantique. Cette incursion, qui fut pour moi éclairante, m’a conduit à poster un article sur mon blog le 11/07/2012 : ‘Faire alliance avec les linguistes pour avancer’, dont je citerai ci-après quelques extraits.

Dans un premier temps, je cite : I), de larges extraits de l’article de H. Bersini ; puis j’indique les éclairages : II), pouvant répondre, à mon avis, à son questionnement grâce aux travaux d’E. Benveniste ; j’expose : III), les informations basiques qu’il faut connaître à propos du fonctionnement global de l’IA ; enfin IV), j’exploite ces connaissances interdisciplinaires.

I) Je cite : « Selon Geoffrey Hinton[2], il ne fait aucun doute que ChatGPT comprend beaucoup plus que nous ne le prétendons dans les médias. Pourtant, pendant sa phase d’entrainement, ce logiciel était censé apprendre simplement à prédire le prochain mot d’une phrase, et pour l’essentiel à partir d’une quantité gigantesque (des milliards) de textes qu’on lui présente. En tant qu’humain nous n’avons pas appris la logique, l’arithmétique ni le codage informatique en complétant des textes donnés en exemple, alors pourquoi et comment lui y parvient ? le mystère est à son comble (sic)… l’IA neuronale, inconsciente et apprenante est codée par des humains, sous forme de règles syntaxiques, logiques et autres ontologies sémantiques.

            Comment fait ChatGPT, pour induire les règles générales de l’arithmétique, au départ de la simple présentation des multiples opérations arithmétiques contenues dans les textes dont on l’a abreuvé ? Comment fait-il pour générer les bons codes informatiques, contenant les bonnes variables et instructions, adaptés à tout problème nouveau exprimé en langage courant, qu’on lui demande de résoudre ?... Comment procède ChatGPT pour, dans ses milliards de connexions synaptiques, maîtriser toutes les abstractions cognitives (générer du texte syntaxiquement correct et riche de sens, résoudre des opérations mathématiques d’une certaine complexité, produire des logiciels syntaxiquement corrects) passer de l’une à l’autre sans difficulté aucune, et cela dans toutes les langues ? Interrogeons-le.

            Après interrogation l’auteur réagit : « Tu ne nous aides vraiment pas, ChatGPT !» et il s’inquiète du fossé épistémologique béant qui s’est creusé, entre la manière dont cette technologie est mise en œuvre et les performances et les usages dont elle est capable, qui s’avère le plus déroutant.

            Reconnaissons-le, comme il l’affirme, ChatGPT comprend et raisonne mais d’une manière qui nous est, à nous, devenue incompréhensible. Comment un prédicteur statistique du mot qui suit dans une phrase peut-il se retrouver à résoudre des problèmes logiques, mathématiques et informatiques d’une telle complexité ?

            Quelque chose de magique se produit dans ces milliards de paramètres, ces centaines de couches neuronales, qui s’adaptent d’eux-mêmes pour composer ces gigantesques modèles de langage. La démarche scientifique exige de comprendre cette incroyable prouesse (sic). »

II) Quelle est cette magie ? Comment comprendre cette incroyable prouesse ?

Comme je l’ai indiqué, une incursion dans les travaux d’E. Benveniste peut nous aider à répondre à ces deux questions très actuelles. A cet effet, je cite un extrait de mon article du 11/07/2012, extrait qui offre une synthèse de ma lecture de ces travaux. Comme on pourra le constater, les considérations de Benveniste sur le langage nous permettent de réfléchir comment la langue fabrique du sens, comment se constituent les significations. Questions qui ne figurent pas dans le programme habituel des linguistes, parce qu’ils supposent le plus souvent le sens donné, et donc ils cherchent à scruter sa transmission plutôt que son émergence. En 1968, Benveniste a cette idée neuve : c’est au sein des phrases, dans la succession des termes, que s’engendre le sens. La signification est générée par ce qui est en train de se dire, par l’énonciation, par les phrases en mouvement, proférées par un sujet singulier. On est fort loin d’avoir tiré les enseignements de cette conception dynamique mais voilà ce qui devrait attirer notre attention avec l’émergence de notre perplexité à cause des performances supposées de l’IA.

Extrait : « L’essentiel de la langue, c’est de signifier. Comment ça signifie ? Comment s’engendre la capacité de penser dans l’appareil même du langage ? Ce qui ressort quand on suit Benveniste c’est que le langage sert tout autant à concevoir du sens qu’à transmettre du sens. Et probablement plus à en concevoir. Pour Benveniste : « ça signifie » est synonyme de « ça parle », et c’est donc sans le recours à quelque « réalité externe » ou « transcendantale », mais dans les « propriétés » du langage même (sic), qu’il prospecte et analyse les possibilités de faire sens, spécifiques de cet « organisme signifiant » qu’est l’humanité parlante. (Cela laisserait entendre que le langage construit son monde sans se référer, sans le recours, sans quelque prélèvement à une quelconque réalité externe, qui serait a priori accessible au sujet pensant.) Etudier le « pouvoir signifiant » dans les propriétés mêmes du langage, selon Benveniste, « signifier » constitue un principe interne du langage (sic). Il a cherché à montrer comment l’appareil formel de la langue la rend capable non seulement de « dénommer » des objets et des situations mais surtout de « générer » des discours aux significations originales, aussi individuelles que partageables dans les échanges avec autrui. » « L’organisme de la langue génère aussi d’autres systèmes de signes qui lui ressemblent ou augmentent ses capacités, mais dont elle est le seul système signifiant capable de fournir une interprétation. »

 « Enoncer quelque chose, c’est aussi un acte cognitif : une pensée s’énonce en mots » »

Avant d’exploiter les matériaux offerts par E. Benveniste, j’expose : III), les informations de base qu’il faut connaître à propos du fonctionnement global de l’IA. Certaines de ces informations m’ont été données par ChatGPT même, directement après l’avoir interrogé sur ce sujet :

III) « Il est important de noter que ChatGPT ne possède pas de compréhension profonde ou de conscience de soi (sic). Les réponses sont basées uniquement sur les probabilités statistiques des mots ou des phrases. Ainsi, pour générer un texte, ChatGPT va calculer, à partir d'une séquence de mots, les probabilités qu'une autre séquence de mots la suive, puis proposer la suite la plus probable. Les modèles de langage les plus couramment utilisés sont des algorithmes d’apprentissage automatique qui apprennent à prédire la probabilité d’un mot donné étant donné un contexte de mots précédents (sic)En d’autres termes, ils apprennent à faire suivre un mot après un autre déjà existant. Les modèles de langage sont souvent utilisés pour générer du texte en utilisant des réseaux de neurones récurrents (RNN). Les RNN sont des réseaux de neurones qui peuvent prendre en compte des séquences de données, telles que des séquences de mots dans un texte. » Il existe également des modèles de langage plus avancés, tels que GPT-3 de OpenAI, qui utilisent des transformers pour générer du texte. Les transformers sont des modèles de langage qui peuvent prendre en compte des relations à long terme entre les mots dans un texte. Ils sont capables de générer du texte plus cohérent et plus naturel que les modèles de langage traditionnels (sic).  

C’est au cours des dernières années, que l'intelligence artificielle a réussi à faire de grandes percées grâce au développement de l'apprentissage profond. Dixit Nicolas Doyon[3] : « On travaille désormais avec des réseaux de neurones à plusieurs couches : une couche d'entrée, des couches intermédiaires et une couche de sortie. Entre un neurone d'une couche et un neurone d'une autre couche, il y a une force de connexion, aussi appelée poids synaptique[4], et lorsque le réseau apprend, chacun de ces poids est ajusté. Et comment le réseau apprend-il ? Par entraînement, c’est ce qu’indique le P de GPT (Generative Pre-trained Transformer) Pour y arriver, ChatGPT a dû s'entraîner sur des milliards de données. La teneur de cette lecture tient bien sûr du secret professionnel. Cependant, on peut supposer que le réseau, pouvant comprendre plusieurs dizaines de millions de neurones artificielles (sous forme d’algorithmes), a été entraîné à partir de plus de 300 milliards de mots, correspondant à des milliards de pages enregistrées dans des mémoires informatiques. »

A mon avis, c’est à ce niveau que ce trouve que se trouve le nœud de notre affaire. L’apprentissage consiste à obtenir de la part du réseau artificiel des réponses aux requêtes humaines. Réponses justes, évaluées comme telles, lors de la finalisation de l’apprentissage. La phase d’apprentissage dure généralement plusieurs mois pour l’essentiel, elle est très coûteuse en temps informatique et en temps humain d’évaluation des réponses. C’est à travers ce processus y compris celui de corrections rétroactives[5] que s’établit, empiriquement au sein du réseau, les corrections des poids ‘synaptiques’ qui progressivement s’ajustent pour fournir les ‘bonnes’ réponses attendues par l’évaluateur humain de ce bon fonctionnement du réseau. Ces allers et retours pour entrainer ‘les transformer’ peuvent se compter en milliers de fois voire plus si nécessaire, jusqu’à ce que les réponses aux requêtes deviennent optimales en accord avec les attentes. Nous devrions nous demander si cet entraînement des ‘transformer’ ne nous conduirait pas à ce qu’ils décryptent les secrets de la construction syntaxique de la langue. 

IV) En prenant en compte les travaux d’E Benveniste : « Sa conception dynamique de l’engendrement du sens au sein des phrases, dans la succession des termes. Sa génération de la signification par ce qui est en train de se dire, par l’énonciation, par les phrases en mouvement. », on pourrait considérer que c’est à cette dynamique la que l’on initie les Transformer. L’exploitation des milliards de pages de textes existants, par les réseaux neuronaux de l’IA, dans des boucles en nombres sans limites d’apprentissage visant à concevoir du sens pour les requêtes à venir de l’utilisateur humain autoriserait à considérer que ces réseaux neuronaux sont initiés aux propriétés du langage même. Si on en croit Hughes Bersini cela se ferait ‘à l’insu de notre plein gré’. Et il pourrait être bien plus édifié s’il partageait le résultat des études de Benveniste pour qui : « Signifier constitue un principe interne du langage, de même que l’appareil formel de la langue la rend capable non seulement de dénommer des objets et des situations mais surtout de générer des discours aux significations originales, aussi individuelles que partageables dans les échanges avec autrui. »

En fait, avec la mise en œuvre de l’IA, si on croit Benveniste nous acceptons de déléguer à l’IA une part de ce que nous sommes, je cite : « les possibilités de faire sens sont spécifiques de cet organisme signifiant qu’est l’humanité parlante. »

N’oublions pas que durant ces dix dernières années de développement de l’IA, des fondateurs se sont mis en retrait, de même que certains demandent que tout développement soit définitivement abandonné car selon eux, des résultats, des conséquences, échappent déjà à leurs créateurs.

Dans cette partie ci-dessus de l’article j’utilise le conditionnel hypothétique, pour que ceux qui découvrent les travaux d’E. Benveniste s’approprient, réflexivement, personnellement, ses découvertes d’une façon ou d’une autre. Quant à moi, depuis le temps que je parcours ses travaux sans être pour autant un spécialiste de la linguistique, ce conditionnel n’est pas nécessaire.  

L’idée : « que l’humanité parlante serait un organisme signifiant d’où émanent les possibilités de faire sens », mérite, à mon avis, qu’elle soit approfondie. Cette coexistence voire cette coïncidence entre l’humanité parlante et cet organisme signifiant, fait entendre une intrication complète entre le genre humain et le pouvoir de l’expression langagière de l’humanité. Bref, l’humanité a pour berceau le langage qui lui fait sens.

Cette idée renvoie à un article que j’ai posté sur mon blog, le 10/10/2013, avec le titre : Comment nous sommes devenus avec/dans le langage ?’. Je fus motivé à l’écriture de cet article par la découverte de celui de la revue scientifique : ‘Plos One’, de N. Uomini et G. Meyer, indiquant qu’il y avait une concomitance sérieusement probable entre le début de l’émergence et du développement d’un (proto)langage et la capacité à travailler le silex pour fabriquer des outils. Cela remonterait à peu près à 1,75 millions d’années avec Homo erectus. Là encore, ma motivation première concernait exclusivement l’approfondissement des ressources de notre discours à propos de la science physique. Ci-dessous, je cite quelques extraits :

« Ce sujet est délicat car il est bien connu, à force de tentatives, qu’il est quasiment impossible de nous approprier une compréhension stable de ce que nous sommes en tant qu’être humain. Pouvons-nous penser ce que nous avons été avant que nous soyons ce que nous sommes, c’est-à-dire un être de langage, un être de pensée ? N’oublions pas que les philosophes du langage à la fin du 19e siècle ont considéré que leur discipline pouvait progresser seulement s’ils renonçaient collectivement à essayer de penser l’homme avant le langage. A partir de ce renoncement concerté, la linguistique (étude du langage établi) a pu prendre son essor.

Si cela est ainsi, si c’est grâce à l’intercession de la nature qu’Homo erectus s’est engagé dans la voie extraordinaire de l’Être de langage, cela peut être considéré comme une humiliation de plus comme celle que Darwin nous a infligée avec sa découverte de l’évolution, suivie par celle de Freud avec sa découverte de l’inconscient. La faculté de langage ne serait donc pas une faculté intrinsèque individuelle[6] qui nous aurait caractérisé tout au long de la longue marche de l’humanité (entamée il y aurait à peu près 7 millions d’années) mais un surgissement d’une réelle et âpre confrontation entre ce qu’est la nature et une action sur celle-ci pour en tirer un avantage. Selon l’article cité, nous serions donc à même de dater les prémices de l’émancipation de l’être de la nature qui commence à se construire en un être dans la nature.

La coévolution des deux aptitudes proposées par N. Uomini et G. Meyer est à mes yeux pertinente car le processus intellectuel visant à façonner le silex dans un but déterminé met en jeu une faculté de projection, d’anticipation, comme lorsqu’il s’agit de concevoir, façonner, le mot qui convient pour exprimer une volonté, une pensée, aussi élémentaires qu’elles puissent être. Projeter implique de penser aussi l’existence d’un temps au-delà de l’immédiateté de l’instant présent. C’est une des raisons qui m’a conduit à toujours proposer la concomitance : langage – pensée – flux du temps, et à mes yeux cette concomitance constitue un propre de l’homme. »

Selon mon point de vue, que j’ai forgé avec l’aide des scientifiques plusieurs disciplines, avec les outils en plein développement de l’Intelligence Artificielle, nous serions en train d’artificialiser une grande partie de ce qui constitue notre patrimoine humain. Cela étaye effectivement l’alarme générale lancée par Hugues Bersini qui : « Alerte sur l’incompréhensible fossé qui se creuse entre la manière dont cette technologie est mise en œuvre et les performances ou les usages dont elle est capable », et qui réclame une : « démarche scientifique [qui] exige de comprendre cette incroyable prouesse »

La concurrence potentielle à laquelle nous soumet notre pure création qu’est l’IA, nous soumet à l’obligation de nous interroger sur ce qui fait de nous des êtres humains et ne pourrait pas être artificialisable. Voilà un questionnement typiquement humain et qui nous oblige à transcender la routine de notre existence fondamentale.

A priori les perspectives de développement de l’IA, ne s’arrête pas à celui de l’IA générative telle que ChatGPT. Les autres étapes dans le collimateur des sociétés de développement sont celles de l’IA interactive, de l’IA autonome, de l’IA consciente.

Récemment, Mark Zuckerberg, PDG de Meta (Facebook), a révélé un investissement colossal de plus de 10 milliards de dollars dans l'infrastructure informatique visant à développer l'Intelligence Artificielle Générale (AGI). Contrairement à l'intelligence artificielle (IA) actuelle, spécialisée dans des tâches spécifiques, l'AGI ambitionne d'égaler ou de surpasser les capacités humaines (sic) dans une vaste gamme de tâches cognitives complexes. Affaire à suivre… La boîte de Pandore est ouverte. Mais approfondissons nos recherches car au fond de la boîte il y a encore l'Espérance.

 

[1] Il a aussi publié, entre autres, « Problèmes de linguistique générale 1 et 2 » respectivement en 1966 et 1974.

[2] Chercheur canadien spécialiste de l'intelligence artificielle et plus particulièrement des réseaux de neurones artificiels. Prix Turing 2019. Il a été l'un des premiers chercheurs à avoir fait la preuve de l'utilisation de l'algorithme de rétropropagation pour l'entraînement de réseaux de neurones multi-couches. Il fait partie des figures de proue de la communauté de l'apprentissage profond et de ceux qui ont alerté sur les risques nouveaux liés à l'intelligence artificielle

[3] Professeur titulaire, Département de mathématiques et statistique, Faculté de Sciences et génie.
Université Laval. Québec.

[4] En étudiant le fonctionnement des neurones humains, on a découvert qu'ils ne réagissent pas à tous les messages qu'ils reçoivent. Un message doit atteindre un seuil minimal. Les synapses ne servent pas uniquement à transmettre l'information d'un neurone à l'autre ; leur plasticité jouerait un rôle central dans l'apprentissage. Les chercheurs ont, en effet, remarqué que la force de connexion des synapses évolue avec le temps. "De manière simplifiée, plus une synapse est utilisée, c'est-à-dire plus elle propage un potentiel d'action vers le neurone suivant, plus elle devient forte. On voit bien au microscope que, lorsqu'une personne apprend, l'épine dendritique, une région du neurone, devient plus grosse. Bref, en devenant plus grosse et plus forte, la synapse modifie peu à peu notre manière de penser", spécifie Nicolas Doyon.

[5] Obtenues grâce à la technique de rétropropagation du gradient qui est une méthode permettant de calculer le gradient de l'erreur pour chaque neurone d'un réseau de neurones, de la dernière couche vers la première. Il est dit que l’application de cette technique a permis à l’IA de faire un remarquable progrès stratégique.

[6] Voir dans le livre de Paolo Bartolomeo : « Dernières nouvelles du cerveau », Edit : Flammarion, sept. 2023, page 83 : « Selon le linguiste israélien Daniel Dor, la métaphore la plus appropriée pour le langage n’est pas celle de l’ordinateur, mais plutôt celle du Net. Le langage est avant tout une technologie construite pour la communication… »

Partager cet article
Repost0
3 février 2024 6 03 /02 /février /2024 11:53

Prémices d’un nouveau paradigme à propos du fonctionnement de notre cerveau.

J’ai découvert sur le site de phys.org, le 19/01/2024, un article intitulé : « La physique quantique pourrait-elle être la clé qui perce les secrets du comportement humain ? ». Je le joins ci-dessous presque en intégralité car je suis le développement de ce sujet depuis plusieurs années et à plusieurs occasions je l’ai traité d’une façon impressionniste, sur la pointe des pieds, comme on dit. Toutefois j’en ai réalisé une synthèse en juin 2022 que j’ai publié dans 3 articles successifs en juillet de la même année dans un ensemble intitulé : « Dialogue imaginaire avec Carlo Rovelli’ ». Présentement, je cite des extraits qui ont directement à voir avec ce que j’ai suggéré à C. Rovelli à propos de l’hypothèse d’une explication quantique au regard de ce que l’on observe et pourrait comprendre du fonctionnement de notre cerveau. Avant tout, ci-dessous une grande partie du contenu de l’article du 19/01/2024 :  

« La physique quantique pourrait-elle être la clé qui perce les secrets du comportement humain ? par Dorje C. Brody, The Conversation

Le comportement humain est une énigme qui fascine de nombreux scientifiques. Et il y a eu beaucoup de discussions sur le rôle de la probabilité dans l’explication du fonctionnement de notre esprit.

La probabilité est un cadre mathématique conçu pour nous indiquer la probabilité qu’un événement se produise et fonctionne bien pour de nombreuses situations quotidiennes. Par exemple, il décrit le résultat d’un tirage au sort comme 1/2 – ou 50 % – parce que lancer pile ou face est tout aussi probable.

Pourtant, la recherche a montré que le comportement humain ne peut pas être entièrement capturé par ces lois de probabilité traditionnelles ou « classiques ». Pourrait-elle plutôt s’expliquer par la façon dont les probabilités fonctionnent dans le monde plus mystérieux de la mécanique quantique ?

Les probabilités mathématiques sont également une composante essentielle de la mécanique quantique, la branche de la physique qui décrit comment la nature se comporte à l’échelle des atomes ou des particules subatomiques. Cependant, comme nous le verrons, dans le monde quantique, les probabilités suivent des règles très différentes.

Les découvertes faites au cours des deux dernières décennies ont mis en lumière le rôle crucial de la « quantique » dans la cognition humaine, c’est-à-dire la façon dont le cerveau humain traite l’information pour acquérir des connaissances ou de la compréhension. Ces résultats ont également des implications potentielles pour le développement de l’intelligence artificielle (IA).

« L’irrationalité » humaine

Le lauréat du prix Nobel Daniel Kahnemann et d’autres spécialistes des sciences cognitives ont mené des travaux sur ce qu’ils décrivent comme « l’irrationalité » du comportement humain. Lorsque les modèles comportementaux ne suivent pas strictement les règles de la théorie classique des probabilités d’un point de vue mathématique, ils sont considérés comme « irrationnels. Par exemple, une étude a révélé qu’une majorité d’étudiants qui ont réussi un examen de fin de trimestre préfèrent partir en vacances par la suite. De même, une majorité de ceux qui ont échoué veulent aussi partir en vacances.

Si un étudiant ne connaît pas son résultat, la probabilité classique prédirait qu’il optera pour le congé parce que c’est l’option préférée qu’il ait réussi ou échoué. Pourtant, dans l’expérience, une majorité d’étudiants ont préféré ne pas partir en vacances s’ils ne savaient pas comment ils s’en étaient sortis.

Intuitivement, il n’est pas difficile de comprendre que les étudiants ne veuillent peut-être pas partir en vacances s’ils s’inquiètent tout le temps de leurs résultats d’examen. Mais la probabilité classique ne rend pas compte avec précision du comportement, il est donc décrit comme irrationnel. De nombreuses violations similaires des règles de probabilité classiques ont été observées dans les sciences cognitives.

Cerveau quantique ?

Dans la probabilité classique, lorsqu’une séquence de questions est posée, les réponses ne dépendent pas de l’ordre dans lequel les questions sont posées. En revanche, en physique quantique, les réponses à une série de questions peuvent dépendre de manière cruciale de l’ordre dans lequel elles sont posées.

Un exemple est la mesure du spin d’un électron dans deux directions différentes. Si vous mesurez d’abord la rotation dans le sens horizontal, puis dans le sens vertical, vous obtiendrez un résultat.

Les résultats seront généralement différents lorsque l’ordre est inversé, en raison d’une caractéristique bien connue de la mécanique quantique. Le simple fait de mesurer une propriété d’un système quantique peut affecter la chose mesurée (dans ce cas, le spin d’un électron) et, par conséquent, le résultat de toute expérience ultérieure.

La dépendance à l’ordre peut également être observée dans le comportement humain. Par exemple, dans une étude publiée il y a 20 ans sur les effets de l’ordre des questions sur les réponses des répondants, on a demandé aux sujets s’ils pensaient que l’ancien président américain, Bill Clinton, était honnête. On leur a ensuite demandé si son vice-président, Al Gore, semblait honnête.

Lorsque les questions ont été posées dans cet ordre, respectivement 50 % et 60 % des répondants ont répondu qu’ils étaient honnêtes. Mais lorsque les chercheurs ont interrogé les personnes interrogées sur Gore d’abord, puis sur Clinton, respectivement 68% et 60% ont répondu qu’elles étaient honnêtes.

Au quotidien, il peut sembler que le comportement humain n’est pas cohérent parce qu’il viole souvent les règles de la théorie classique des probabilités. Cependantce comportement semble correspondre à la façon dont les probabilités fonctionnent en mécanique quantique.

Des observations de ce type ont conduit le chercheur en sciences cognitives Jérôme Busemeyer et beaucoup d’autres à reconnaître que la mécanique quantique peut, dans l’ensemble, expliquer le comportement humain de manière plus cohérente.

Sur la base de cette hypothèse étonnante, un nouveau domaine de recherche appelé « cognition quantique » a vu le jour dans le domaine des sciences cognitives.

Comment est-il possible que les processus de pensée soient dictés par des règles quantiques ? Notre cerveau fonctionne-t-il comme un ordinateur quantique ? Personne ne connaît encore les réponses, mais les données empiriques semblent fortement suggérer que nos pensées suivent des règles quantiques.

Comportement dynamique

Parallèlement à ces développements passionnants, au cours des deux dernières décennies, mes collaborateurs et moi-même avons développé un cadre pour modéliser – ou simuler – la dynamique du comportement cognitif des gens lorsqu’ils digèrent des informations « bruitées » (c’est-à-dire imparfaites) du monde extérieur.

Nous avons de nouveau constaté que les techniques mathématiques développées pour modéliser le monde quantique pouvaient être appliquées à la modélisation de la façon dont le cerveau humain traite les données bruitées.

Ces principes peuvent être appliqués à d’autres comportements en biologie, au-delà du cerveau. Les plantes vertes, par exemple, ont la capacité remarquable d’extraire et d’analyser des informations chimiques et autres de leur environnement et de s’adapter aux changements.

Mon estimation approximative, basée sur une expérience récente sur des plants de haricots communs, suggère qu’ils peuvent traiter ces informations externes plus efficacement que le meilleur ordinateur que nous ayons aujourd’hui.

Dans ce contexte, l’efficacité signifie que l’usine est toujours en mesure de réduire autant que possible l’incertitude concernant son environnement extérieur dans les circonstances. Il pourrait s’agir, par exemple, de détecter facilement la direction d’où vient la lumière, afin que la plante puisse pousser vers elle. Le traitement efficace de l’information par un organisme est également lié à l’économie d’énergie, ce qui est important pour sa survie.

Des règles similaires peuvent s’appliquer au cerveau humain, en particulier à la façon dont notre état d’esprit change lors de la détection de signaux extérieurs. Tout cela est important pour la trajectoire actuelle du développement technologique. Si notre comportement est mieux décrit par la façon dont les probabilités fonctionnent en mécanique quantique, alors pour reproduire avec précision le comportement humain dans les machines, les systèmes d’IA devraient probablement suivre des règles quantiques, et non des règles classiques.

J’ai appelé cette idée l’intelligence quantique artificielle (IQA). De nombreuses recherches sont nécessaires pour développer des applications pratiques à partir d’une telle idée.

Mais un IQA pourrait nous aider à atteindre l’objectif de systèmes d’IA qui se comportent davantage comme une personne réelle.

Fourni par The Conversation 

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l’article original. »

            Cet article, qui s’ajoute à bien d’autres publiés ces derniers temps, amplifie la légitimité de considérer que nous sommes en train d’ouvrir une nouvelle porte qui permet d’entrevoir un nouveau champ de connaissances à propos du fonctionnement de notre cerveau. Ce qui est certain, c’est que ce sera la coopération entre plusieurs domaines scientifiques qui permettra la conquête de ces connaissances. Il est évident que les neurosciences auront aussi une contribution très significative.

            Ma contribution a émergé, ces vingt dernières années, à force d’être interpelé par les énigmes qui perdurent depuis plus d’un siècle suite à l’avènement de la mécanique quantique. J’en ai fait la synthèse à l’occasion d’un dialogue imaginaire avec Carlo Rovelli comme je l’explique en introduction dans l’article du 15/07/2022 sur Overblog avec le titre de chapitre : ‘l’Être humain est une réalité de/dans l’Univers.’ présenté en trois sections, la 2e le 22/07/2022, la 3e le 29/07/2022.

            Ci-dessous, je propose des extraits prélevés dans ces 3 sections où est explicitée la problématique de l’hypothèse du règne de la mécanique quantique sur le fonctionnement de notre cerveau :

« [Carlo], j’apprécie beaucoup que tu poses le problème de la résolution de la place de l’être réflexif, au sein de la nature, pour assurer une progression de nos connaissances actuelles en physique. C’est la première fois que je rencontre de la part d’un physicien une conscience aussi aiguë de ce problème. Et c’est aussi évident, à mes yeux, que la question se pose lorsque l’on souhaite élucider pleinement les phénomènes propres de la mécanique quantique qui continuent de nous interpeler depuis plus d’un siècle. Notre fonctionnement cérébral ne doit pas être très éloigné d’un fonctionnement régit par des propriétés quantiques. Cette assertion osée, quoique[1], que je formule pourrait laisser penser qu’à terme on sera en mesure de penser quantique. Ce qu’il ne faut pas exclure ! Etant donné les avancées en neurosciences, il se pourrait, à force de se frotter aux problèmes naturels qui sont traités grâce à la mécanique quantique, que des réseaux neuronaux, par apprentissage, s’établissent d’une façon de plus en plus stable et rodés dans notre cerveau et nous entraînent à penser naturellement quantique. » 

« [Carlo, je te propose] de considérer que la conception de la physique classique offre le confort d’une pensée d’une description physique du monde hors de soi, mais avec l’avènement de la mécanique quantique nous devons considérer que nous avons non seulement atteint la fin du confort de cette pensée mais que celui-ci est irréversiblement aboli. Car la mécanique quantique rend compte aussi de l’organisation et du fonctionnement du monde intérieur constitutif de l’être humain. Au plus bas niveau, pensons à la chimie quantique, à un niveau constitutif plus élevé, considérons la biologie quantique, au stade le plus élevé de ce qui fait de nous des êtres humains se développe exponentiellement le domaine des neurosciences. Par exemple dans ce domaine, des propriétés et des méthodes spécifiquement quantiques permettent de modéliser des aspects de la dynamique du fonctionnement du cerveau comme indiqué ci-dessus. Grâce à la physique quantique nous disposons d’outils, de concepts, de méthodes, appropriés pour accéder à la compréhension et à la description du réel de l’humain. Avec la mécanique quantique, dès sa fondation, une place est attribuée à l’observateur, celui-ci n’est plus extérieur à la théorie qui décrit le monde. La frontière jusque-là, apparemment, infranchissable entre la nature et celui qui la regarde et la pense n’a plus de raison d’être.

Nous disposerions donc d’un unique corpus théorique qui nous permet de progresser dans la compréhension du réel de l’humain ainsi que du non-humain-du réel. Le préalable philosophique du réalisme pur tel qu’il a été défini par Einstein et adopté par une très grande majorité de physiciens ne peut plus servir de référence. La frontière supposée, sous-entendue, qui fit que le principe du réalisme scientifique Einsteinien s’imposa, est gommée. Ainsi on peut comprendre le travail de résistance acharné qu’il développa, sans succès, pour relégitimer le cadre préalable d’une philosophie réaliste pure.

Weinberg n’a pas non plus pressenti qu’avec l’avènement de la mécanique quantique la dichotomie entre monde extérieur et monde intérieur de l’être humain n’avait plus lieu d’être. Il n’a pas non plus intégré l’idée que la mécanique quantique est une boite à outils théorique supportant de décrypter à la fois les lois de la matière inerte, les lois de la matière active organisée, le vivant, lorsqu’il formule le grief suivant : « Or, une théorie ne devrait pas se référer aux êtres humains dans ses postulats (sic). Il serait souhaitable de pouvoir comprendre des choses macroscopiques, comme les appareils expérimentaux et les êtres humains, selon les termes de la théorie sous-jacente. Il n’est pas souhaitable de les voir intégrés au niveau des axiomes de la théorie. » Il a expliqué que toutes les recherches qu’il avait menées pour tenter de dépasser ce qui lui paraissait fondamentalement anormal restèrent infructueuses. En conséquence, il reconnaissait que les fondements de la mécanique quantique définis par l’école de Copenhague étaient toujours incontournables et... extraordinairement fertiles. »

[Carlo], actuellement, il n’y a aucun indice scientifique qui autorise à affirmer cette conception réductionniste de la physique quantique que tu énonces dans ces quelques phrases suivantes : « Le photon observé par Anton Zeilinger[2] dans son laboratoire est une de ces entités. Mais A. Zeilinger en est une autre. Zeilinger est une entité comme une autre, au même titre que le photon, un chat ou une étoile. » ; « L’essence de ce qui se passe entre un photon et Zeilinger qui l’observe est la même que celle de ce qui se passe entre deux objets quelconques lorsqu’ils se manifestent l’un à l’autre en agissant sur l’autre. » ; « Mais la mécanique quantique ne décrit pas uniquement comment le monde agit sur ces systèmes : elle décrit le grammaire élémentaire et universelle (sic) de la réalité physique, sous-jacente non seulement aux observations en laboratoire, mais à n’importe qu’elle interaction. »

Atteindre la grammaire élémentaire et universelle de la réalité, est un souhait motivant mais ce n’est là qu’un horizon. Une fois de plus, à cause du tropisme du réalisme en physique, sous ta plume, au forceps, tu déclares que cet objectif est atteint. A mon sens, ce genre de déclarations ne peut produire que des effets parasites à la quête de nouvelles connaissances qui doivent être toujours prospectées sous l’angle d’une ouverture et d’une liberté le plus ample possible.

  « Roger Penrose, en tant que physicien fut une sorte de pionnier pour tenter de découvrir le/les liens entre le savoir des lois physiques et le savoir, du pourquoi, du comment, il pourrai(en)t émerger de notre système cérébral, lorsque dans les années 1980 avec l’anesthésiologiste Stuart Hameroff, il avait essayé de découvrir une relation, entre la structure naturelle et le fonctionnement naturel de notre cerveau, qui rende compte de notre compréhension ainsi que de l’expression de certains énoncés des lois physiques. Concrètement, dans sa recherche il avait tenté d’attribuer à la gravité le processus de la réduction de la fonction d’onde[3]. Sa pré-vision était que les problèmes de la mécanique quantique et ceux que pose la compréhension de la conscience sont liés de multiples façons. Il fut de plus amené à admettre que les concepts de la mécanique quantique puissent intervenir dans la compréhension des phénomènes mentaux chez l’homme.

Certes, depuis le temps, les travaux de R. Penrose n’ont pas à ce jour ouvert de voies fructueuses qui laisseraient envisager des résultats prometteurs, par contre depuis quelques décennies les neuroscientifiques progressent à grand pas en ce qui concerne la compréhension du fonctionnement du cerveau ainsi que de ses dysfonctionnements. Une étroite coopération devrait s’engager entre les physiciens et les neuroscientifiques car nous devrions explicitement prendre en compte le fait que la physique est la science de l’interface entre l’être humain et la nature.

Cette coopération entre physiciens et neuroscientifiques est objectivement pressenti par les auteurs d’un article du 11 Mai 2022 rapporté par Ingrid Fadelli : « Exploitation des méthodes du groupe de renormalisation pour étudier comment le cerveau traite l’information ». Emportés par l’élan de leur annonce les auteurs de cet article proposent la perspective suivante : « À l’avenir, la théorie introduite pourrait être utilisée pour examiner diverses autres dynamiques cérébrales et processus neuronaux, allant au-delà de la criticité. En outre, cela pourrait finalement ouvrir la voie à l’introduction d’autres constructions théoriques (sic) fusionnant la physique et les neurosciences. » »

« D’autres constructions théoriques fusionnant la physique et les neurosciences : voilà un projet ambitieux qui devrait nous mobiliser. Peut-être que ce projet est déjà en chantier par des chercheurs pionniers dans quelques laboratoires. J’ai vraiment la conviction que c’est une voie à suivre. Le décloisonnement des connaissances scientifiques, auquel j’aspire depuis longtemps, demande de vaincre des inerties très significatives. Il me semble que pour prendre le problème à bras le corps, il faut réunir un comité scientifique ad-hoc, avec les moyens appropriés, ayant la vocation de catalyser au niveau international des lignes directrices, proposées dans un manifeste, qui engendreront des axes de recherches et d’enseignements pluridisciplinaires. Voilà, Carlo, ce que je souhaite avec conviction.

Enfin je cite ce que nous dit Christof Koch[4] : « Il ne fait guère de doute que notre intelligence et nos expériences résultent des capacités naturelles de notre cerveau à établir des enchaînements de causes et d’effets. Cette disposition a extrêmement bien servi la science au cours des derniers siècles. Le cerveau humain, cet organe d’à peine un kilo et demi à la texture comparable au tofu, est de loin le morceau de matière active organisée le plus complexe connu de l’univers. Mais il obéit aux mêmes lois de la physique que les objets de la nature connus actuellement. Rien n’échappe à ces lois. Nous ne comprenons pas encore tout à fait les mécanismes causaux en jeu, mais nous les expérimentons tous les jours. » La première phrase citée de Ch. Koch, doit mettre en éveil notre vigilance car nous ne disposons toujours pas des connaissances assurées pour affirmer ce qui est prétendu par l’auteur : que notre intelligence si diverse résulterait directement des capacités naturelles de notre cerveau… Certes, notre cerveau est un substrat essentiel duquel émerge nos capacités intellectuelles. D’un côté il y a de la matière active organisée, de l’autre de l’immatériel ! Ce sont des phénomènes extraordinaires qui sont en jeux, et nous sommes totalement impliqués dans ce cercle magnifique. Restons lucide, notre compréhension de ce processus du passage d’une activité matérielle propre à notre cerveau à l’émergence d’un flux immatériel continu de cogitations et de pensées, humaines et humanisantes, ne nous sera peut-être à jamais vraiment accessible. Peut-être qu’à ce niveau nous esquissons l’horizon limite de notre capacité d’introspection. »

             « Grâce aux avancées actuelles et à venir, que permettent les travaux des chercheurs en neurosciences, les physiciens bénéficieront d’une compréhension plus élaborée concernant notre relation cognitive avec la nature telle qu’elle est engendrée, ils bénéficieront aussi d’une compréhension des motivations et des dynamiques misent en œuvre. A mon sens, Carlo, la conception structuraliste globale relationniste entre l’être humain et la nature, que tu proposes, ne peut pas intégrer, pas plus ne peut bénéficier des avancées des connaissances qui sont et seront développées à propos de nos capacités cognitives. »

J’espère que ce vaste panorama, comprenant à la fois les perspectives que nous offrent la mécanique quantique vis-à-vis du fonctionnement de notre cerveau, comprenant aussi les tentatives qui n’ont pas abouti mais permettent une réorientation vers des territoires de recherche plein de promesses, vous offre un bilan qui vous est utile. Pour ma part, ce travail de recension m’a permis de placer en exergue le fait qu’avec la mécanique quantique, dès sa fondation, une place est attribuée à l’observateur, celui-ci n’est plus extérieur à la théorie qui décrit le monde. La frontière jusque-là, apparemment, infranchissable entre la nature et celui qui la regarde et la pense n’a plus de raison d’être. Ainsi nous disposerions donc d’un unique corpus théorique qui nous permet de progresser dans la compréhension du réel de l’humain ainsi que du non-humain-du réel. La frontière abolie, dès qu’elle sera objectivée, favorisera l’émergence d’un nouveau paradigme qui nous permettra d’élucider les énigmes quantiques que nous véhiculons depuis plusieurs générations de physiciens. Je pense notamment à l’énigme de l’intrication ainsi qu’à ses interprétations diverses. 

 

[1] Citons le point de vue de R. Penrose : « Il admet également que les concepts de la mécanique quantique puissent intervenir dans la compréhension des phénomènes mentaux chez l’homme. » p.14 chez Flammarion collection Champs : 1999.

[2] Anton Zeilinger, Prix Nobel de physique en 2022, fondateur de l’Institut d’Optique et d’Information Quantique à Vienne.

[3] Dans une publication en 2020 et une plus récente de juin 2022, une équipe de recherche dirigée par Catalina Curceanu il a été clairement indiqué que les effets déductibles de cette hypothèse ne sont pas observés. Une 3e étape expérimentale est programmée

[4] Directeur scientifique et président de l’institut Allen pour les sciences du cerveau, à Seattle. In ‘Pour la Science’ Hors-série N° 115

Partager cet article
Repost0
18 décembre 2023 1 18 /12 /décembre /2023 16:15

Une nouvelle théorie propose d’unir la gravité d’Einstein à la mécanique quantique.

Le 4 Décembre sur le site ‘Phys.org’ et sur arXiv : DOI : 10.48550/arxiv.1811.03116, un article fort intéressant et sérieusement étayé propose de résoudre le problème jusqu’alors insoluble de la gravité quantique. Problème posé depuis 70 ans mais il est possible qu’une élucidation finale aboutisse cette fois-ci. Je le souhaite d’autant plus que cette élucidation proposée embrasse sans équivoque mon hypothèse formulée et rappelée à longueur d’articles. En effet selon mon point de vue le temps est un propre de l’être humain, celui-ci n’est pas donné dans la nature. A ce titre, le temps, l’espace-temps, n’est pas intégrable au sein du corpus de la mécanique quantique alors que le sont tous les éléments naturels émergeants et constitutifs de notre univers.

Ci-dessous, je cite de larges extraits de l’article du 4/12 qui rendent compte de l’originalité des travaux théoriques de Jonathan Oppenheim de l’University College London (UCL) et justifient l’espoir qu’une conclusion puisse émerger, dans le sens correspondant à ma conception fondamentale du temps, puisque des observations expérimentales sont conçues en parallèle à l’élaboration de la nouvelle théorie. Ainsi, sur un sujet aussi sensible et controversé depuis si longtemps, une confirmation ou une infirmation est directement envisageable.   

Je cite : « Une théorie radicale qui unifie systématiquement la gravité et la mécanique quantique tout en préservant le concept classique d’espace-temps d’Einstein a été annoncée dans deux articles publiés simultanément par des physiciens de l’University College London (UCL). »

La physique moderne repose sur deux piliers : la théorie quantique d’une part, qui régit les plus petites particules de l’univers, et la théorie de la relativité générale d’Einstein, d’autre part, qui explique la gravité par la courbure de l’espace-temps. Mais ces deux théories sont en contradiction l’une avec l’autre et une réconciliation est restée impossible depuis plus d’un siècle.

L’hypothèse dominante est que la théorie de la gravitation d’Einstein doit être modifiée, ou « quantifiée », afin de s’adapter à la théorie quantique. C’est l’approche de deux candidats de premier plan pour une théorie quantique de la gravitation, la théorie des cordes et la gravitation quantique à boucles.

Mais une nouvelle théorie, développée par le professeur Jonathan Oppenheim de l’UCL et exposée dans le ‘Physical Review X’, remet en question ce consensus et adopte une approche alternative en suggérant que l’espace-temps peut être classique, c’est-à-dire qu’il n’est pas du tout régi par la théorie quantique[1].

Au lieu de modifier l’espace-temps, la théorie – surnommée « théorie post-quantique de la gravitation classique » – modifie la théorie quantique (sic) et prédit une rupture intrinsèque de la prévisibilité qui est médiée par l’espace-temps lui-même. Il en résulte des fluctuations aléatoires et violentes de l’espace-temps qui sont plus importantes que ce qui est envisagé par la théorie quantique (sic), ce qui rend le poids apparent des objets imprévisible s’il est mesuré avec suffisamment de précision.

« La théorie quantique et la théorie de la relativité générale d’Einstein sont mathématiquement incompatibles l’une avec l’autre, il est donc important de comprendre comment cette contradiction peut être résolue. Faut-il quantifier l’espace-temps, ou faut-il modifier la théorie quantique, ou est-ce tout autre chose ? Maintenant que nous proposons une théorie fondamentale cohérente dans laquelle l’espace-temps n’est pas quantifié, c’est à chacun de se faire une opinion. »

Le co-auteur Zach Weller-Davies, qui, en tant que doctorant à l’UCL, a aidé à développer la proposition expérimentale et a apporté des contributions clés à la théorie elle-même, a déclaré : « Cette découverte remet en question notre compréhension de la nature fondamentale de la gravité, mais offre également des pistes pour sonder sa nature quantique potentielle. »

« Nous avons montré que si l’espace-temps n’a pas de nature quantique, alors il doit y avoir des fluctuations aléatoires dans la courbure de l’espace-temps qui ont une signature particulière (sic) qui peut être vérifiée expérimentalement. »

            Certaines des conséquences de la théorie sont examinées et une expérience est proposée pour la tester : mesurer une masse très précisément pour voir si son poids semble fluctuer dans le temps.

Par exemple, le Bureau international des poids et mesures à Sèvres en France pèse régulièrement une masse de 1 kg, alors qu’elle était auparavant la norme de 1 kg. Si les fluctuations dans les mesures de cette masse de 1 kg sont plus faibles que ce qui est nécessaire pour assurer la cohérence mathématique, la théorie peut être exclue.

Le résultat de l’expérience, ou d’autres preuves émergentes qui confirmeraient la nature quantique par rapport à la nature classique de l’espace-temps, fait l’objet d’un pari dont la cote est de 5000 : 1 entre le professeur Oppenheim et le professeur Carlo Rovelli et le Dr Geoff Penington, principaux partisans de la gravitation quantique à boucles et de la théorie des cordes respectivement.

La proposition de tester si l’espace-temps est classique en recherchant des fluctuations aléatoires de masse est complémentaire à une autre proposition expérimentale qui vise à vérifier la nature quantique de l’espace-temps en recherchant ce qu’on appelle « l’intrication à médiation gravitationnelle[2] » C’est-à-dire intriquer deux objets massifs par l’intermédiaire de la seule interaction gravitationnelle. Des groupes d’expérimentateurs travaillent couramment à l’amélioration de leurs expériences dans le but de pouvoir les réaliser avec des résultats probant. La course est sérieusement lancée pour déterminer si cette nouvelle proposition l’emportera sur les approches traditionnelles établies.

Le professeur Sougato Bose (UCL Physics & Astronomy), qui n’a pas participé à l’annonce d’aujourd’hui, mais qui a été parmi ceux qui ont proposé en premier l’expérience d’intrication, a déclaré : « Les expériences visant à tester la nature de l’espace-temps nécessiteront un effort à grande échelle, mais elles sont d’une importance énorme du point de vue de la compréhension des lois fondamentales de la nature. Je crois que ces expériences sont à portée de main – ces choses sont difficiles à prévoir, mais peut-être connaîtrons-nous la réponse dans les 20 prochaines années (sic). »

Cette vérification expérimentale de la nature classique de l’espace-temps en accord avec mon hypothèse permettra de confirmer la compatibilité de mon autre hypothèse aussi fondamentale que le temps est un propre de l’être humain ce qui implique qu’il est discret à cause du ‘Temps Propre du Sujet’ pensant : ‘TpS’ ou encore τs avec un ordre de grandeur de 10-26 ; -27s (voir mon premier article sur ce sujet posté le 02/11/2012). Ce ‘TpS’ correspond à la scansion de l’horloge primordiale qui égrène le temps au sein de notre univers qu’astrophysiciens et cosmologistes ne cessent d’investir et de prospecter car selon mon point de vue : « L’Être humain est une Réalité de/dans l’univers ». Là encore cette scansion primordiale du temps est accessible à la confirmation expérimentale comme je le rappelle encore dans le tout récent article du 21/10/2023. Mes deux hypothèses sont parfaitement compatibles car il est évident que ce qui est discret à des petites échelles n’est pas automatiquement quantique bien que la réciproque institue cette corrélation.

L’article cité ci-dessus est accompagné par un autre article publié le même jour par Thomas Galley membre de l’Institut d’Optiques Quantiques et d’Information Quantique (IQOQI) de Vienne, Institut d’excellence selon mon appréciation. L’article s’intitule : « Il se pourrait qu’il n’y ait pas, après tout, de gravité quantique »

Th. Galley analyse avec perspicacité le travail de Jonathan Oppenheim et constate : « Il laisse la gravité en tant que théorie classique et la couple à la théorie quantique par l’intermédiaire d’un mécanisme probabiliste. Une telle stratégiste hybride était traditionnellement considérée comme un faux-départ (non starter) car cela conduisait systématiquement à des inconsistances. Oppenheim évite ces pièges, mais au prix d’avoir à insérer des probabilités – « coup de dés » – dans l’évolution de l’espace-temps. De futures expériences pourraient tester la viabilité de cette approche en sondant si la gravité est quantique.

Au cours des 70 dernières années, l’un des problèmes les plus importants de la physique fondamentale a été de réconcilier la physique quantique avec la relativité générale. Il y a deux stratégies pour cette unification : soit quantifier la gravité, soit trouver un moyen d’insérer de la matière quantique dans un référentiel de la gravitation classique (sic). La première est clairement privilégiée, mais aucune des propositions de gravité quantique n’a encore été confirmée expérimentalement. Cela semble laisser une ouverture pour l’autre stratégie, mais les théoriciens ont montré – à travers des théorèmes ci nommés de ‘non-go’ – que le couplage de la matière quantique à la gravité classique conduit à des incohérences, telles que des violations du célèbre principe d’incertitude d’Heisenberg. En effet, le modèle le plus connu de ce couplage quantique-classique, l’équation d’Einstein semi-classique, souffre des incohérences prédites par ces théorèmes de ‘non-go’.

Avec sa nouvelle approche, Oppenheim contourne les barrières des théorèmes de ‘non-go’ en abandonnant l’une de leurs hypothèses sous-jacentes : que le couplage entre la gravité classique et la matière quantique est réversible. Néanmoins, toutes les théories n’ont pas besoin d’être réversibles, elles peuvent être aussi stochastiques.

Oppenheim développe une théorie stochastique qui relie en deux approches statistiques séparées, la partie quantique et la partie classique du système. Le couplage stochastique d’Oppenheim ne mélange pas les caractéristiques quantiques et classiques : il préserve la nature de chacun des systèmes. Par exemple, le couplage assure qu’il n’y a pas la violation du principe d’incertitude d’un système quantique, ainsi qu’il n’y a pas transmission d’un signal qui soit plus rapide que celui relatif à la vitesse de la lumière dans le référentiel classique.

Ce qui suit pour cette nouvelle théorie de la matière quantique et de la gravité classique sérieusement élaborée c’est de la soumettre à des données expérimentales. Comme indiqué des équipes de physiciens expérimentateurs sont déjà à l’œuvre pour essayer d’améliorer leurs fondements afin de mener à bien ces expériences. Affaire à suivre avec beaucoup d’intérêt pour ma part. Avec beaucoup d’intérêt, en effet, car c’est l’ensemble de mes hypothèses qui pourrait être validé :

1 La plus englobante de ces hypothèses : « L’Être humain est une Réalité de/dans l’univers » ;

2 En conséquence, j’en déduis que ‘TpS’ correspond à la scansion de l’horloge primordiale qui égrène le temps au sein de notre univers ;

3 J’estime ‘TpS’ ou encore τs ayant un ordre de grandeur de 10-26 ; -27s ;  

4 En conséquence l’espace-temps que j’infère est indépendant du formalisme mathématique de la théorie quantique.

 

 

 

[1] Déjà un article du 30 Mai 2022, sur le site de Physics World, avec le titre imagé, annonçait : « Superposition et intrication s’envolent du nid quantique » et confirmait : « Les deux effets physiques peuvent être observés indépendamment du cadre théorique utilisé pour les expliquer, et une équipe internationale de chercheurs vient de montrer que le lien entre eux ne dépend pas non plus du formalisme mathématique de la théorie quantique. »

[2] Expérience, a priori, difficile à réaliser car l’interaction gravitationnelle est franchement plus faible que les autres interactions jusqu’à maintenant identifiées. En conséquence, le processus d’intrication gravitationnelle recherché expérimentalement sera parasité par l’enclenchement de l’intrication via ces autres interactions et notamment l’interaction électromagnétique. Les équipes expérimentales vont devoir trouver une parade pour faire écran à ces autres interactions. Espérons qu’ils l’ont déjà identifiée !!

Partager cet article
Repost0
21 octobre 2023 6 21 /10 /octobre /2023 15:24

Les nouveaux Nobélisés de physique nous révèlent que les mouvements des électrons sont devenus accessibles.

Les électrons sont, même si on ne peut pas les voir, omniprésents dans notre vie : notre vie biologique ainsi que dans notre vie technique, bref, dans notre vie de tous les jours. Dans notre vie biologique, les électrons forment l’union entre les atomes, avec lesquels ils forment les molécules et ces molécules sont les plus petites briques fonctionnelles de tout organisme vivant.

Si on veut comprendre comment ils fonctionnent, nous avons besoin de savoir comment ils bougent. Ce savoir a été conquis grâce aux travaux persistant, sur deux décennies, des trois Nobelisé(e)s en physique, en 2023 : Anne l’Huillier, Ferenc Krausz ; Pierre Agostini. Ils ont montré le chemin pour exploiter des pulses extrêmement courts de lumière permettant de mesurer, de qualifier, les processus rapides dans lesquels les électrons bougent ou changent de niveaux d’énergie. Pour observer ces phénomènes physiques nous avons besoin d’une technologie appropriée[1] obtenue grâce à la contribution originale de Paul Corkum. Dans le monde des électrons, leurs évolutions se produisent en quelques dizaines d’attosecondes. L’attoseconde est si petite qu’il y en a autant dans une seconde qu’il y a de secondes qui se sont écoulées depuis le Big Bang (sic). L’attoseconde est une durée de temps qui vaut un milliardième de milliardième de seconde, soit au moyen de son expression mathématique : 10-18s.

De ces travaux, il résulte qu’une fenêtre est ouverte pour l’observation des électrons et des mécanismes qui les gouvernent. A partir de là, il sera possible d’agir sur cette entité et les mécanismes qu’elle génère.

Acquérir la capacité d’observer et d’opérer à cette échelle du temps est important parce que c’est à cette vitesse que l’électron, élément clé de l’atome, opère. Par exemple, il suffit de 150 attosecondes à l’électron pour faire le tour du noyau d’un atome d’hydrogène. Cela signifie que l’observation au niveau de l’attoseconde procure aux scientifiques l’accès à des processus fondamentaux qui étaient, effectivement, jusqu’à présent inaccessibles à notre connaissance.

Les progrès sont asymptotiques, en 2003 le groupe de A. L'Huillier bat le record avec l’obtention d’une période temporelle de 170 attosecondes. En 2008, le physicien F. Krausz atteint une période de 80-attosecondes. Alors que P. Agostini ne pouvait mesurer que des durées minimales de 250 attosecondes en 2001. Nous devons nous rappeler que le passage de la femtoseconde : 10-15s à l’attoseconde, a nécessité, au bas mot, une dizaine d’années. La prochaine étape en perspective est la zeptoseconde 10-21s. Difficile d’évaluer dans combien de temps ce résultat sera obtenu, s’il est accessible !

La liste des applications déjà entrevue grâce à la possibilité d’observer le mouvement des électrons s’étend sur une variété de domaines tels que l’électronique et la médecine.

Le physicien M. Pearce, membre du comité Nobel, a déclaré : « Une fois que nous comprenons et contrôlons les électrons nous franchissons et ouvrons une grande étape vers l’avant » ; « Par exemple, nous pouvons voir s’il est d’un côté de la molécule ou bien de l’autre. »

D’autres experts affirment : “Les électrons se déplacent si rapidement, qu’il fut hors d’atteinte de pouvoir les isoler, mais maintenant savoir les observer au cours de la plus petite fraction de seconde possible, permet aux scientifiques d’avoir un aperçu « flou » d’eux, et ceci ouvre de toutes nouvelles sciences »

Il est donc partagé la pensée que le fait d’accéder à une observation effective du mouvement de l’électron, ainsi que d’avoir un aperçu (flou) de sa présence, cela permet, de facto, d’engager une appropriation intellectuelle chez les scientifiques, assurée dans la continuité, ce qui enclenche une faculté de spéculer, sélectionner, sur ce qu’il est possible de faire grâce à cette nouvelle connaissance. A ce stade cela vaut, au-delà de ce qui est nouvellement prédictif pour l’électron, pour toute nouvelle situation scientifique qui se présente, quel que soit le phénomène ou l’objet physique en question. Alors il est pertinent de se demander jusqu’à quelle valeur infiniment petite d’intervalle de temps, pouvons-nous espérer accéder à de l’observation ?

Dans de nombreux articles, depuis 2012, particulièrement celui du 2 Novembre, sur mon blog, dans l’article : « Un Monde en Présence », j’ai inféré que nous serons confrontés à une durée limite de notre capacité humaine d’observation, de détection, au voisinage de 10-26 ; -27s. Cela pourrait encore être un intervalle de temps plus petit, mais nous serons confrontés à un point aveugle, non seulement pour des raisons technologiques mais irréversiblement pour des raisons humaines car notre cerveau a un fonctionnement temporelle discontinu et cela se répercute sur les capacités d’éveil de nos sens et en conséquence sur nos capacités d’investigation des éléments physiques constitutifs de l’univers. Sur ce sujet, la synthèse la plus récente se trouve dans mon blog, à la date du 30/06/2022 : 05 suite de la publication 03 de ‘Présence’, et du 08/07/2022 : 06 suite et fin de la publication de ‘Présence’. Dans ces articles je rappelle mon argumentation sur l’existence d’un ‘Temps propre du Sujet’ pensant : ‘TpS’, de fait instituant le tic-tac universel de l’horloge fondamentale égrenant le temps. Ce temps propre de l’homme coïncide avec le temps de la physique, du physicien. Contrairement à ce qu’affirme Alain Connes, il n’y a pas de tic-tac d’une horloge divine qui égrènerait le temps (ce que j’ai qualifié d’hypothèse paresseuse). Le temps propre de l’être humain est universel, puisque ‘l’être humain est un être de/dans l’univers’.  

Ci-après, je me réfère au livre de Guido Tonelli[2] : « Temps, ou les mystères de chronos. », édit : Dunod, 2023, dans lequel il est évoqué, page 129 – trop passivement selon mon point de vue – « La durée de vie de certains composants fondamentaux de la matière est si brève qu’aucun terme n’est approprié pour le décrire, nous devons recourir aux mathématiques et de noter cette durée 10-25seconde, même si notre imagination a du mal à appréhender ce que représente un intervalle de temps aussi infime. ». Cette passivité que je déplore de la part d’un physicien, je l’identifie, dans les quelques citations suivantes de son livre : « La durée de vie des particules dont la désintégration est due aux interactions fortes est très courte, autour de 10-23s. » et page 144 : « Le poids lourd de toutes les particules connues : le quark ‘Top’ se désintègre immédiatement (sic) après avoir été produit. Il a tellement hâte de disparaître de la circulation qu’il ne « s’habille » même pas avant de disparaître. C’est le seul des quarks qui meurt complètement « nu ». Sa durée de vie moyenne est estimée à 5×10-25seconde[3] et la trajectoire qu’il empreinte avant de se désintégrer est impossible à mesurer. » ; « Le boson de Higgs, un autre objet très massif a aussi une durée de vie très courte. Les produits de sa désintégration, c’est-à-dire les particules plus légères en lesquelles il se désintègre, sortent pratiquement du sommet primaire de l’interaction. On estime que sa durée de vie moyenne est de l’ordre de 10-22seconde. »

Effectivement, en appui de ce que je cite ci-dessus, je déplore la passivité de Tonelli car il identifie les raisons pour lesquelles nos capacités d’identification des composants fondamentaux de la matière inévitablement se réduisent jusqu’à disparaître sans qu’il y ait de sa part le moindre sursaut intellectuel, sans qu’il constate et anticipe qu’une problématique authentiquement scientifique est en train d’émerger.

Empiriquement nous pouvons constater que quelle que soit l’infinie petitesse des intervalles de temps d’observation dont nous pouvons disposer, il y a toujours des entités naturelles à identifier et/ou des phénomènes physiques qui se produisent. Ce que j’infère depuis 2012, c’est que l’infini petitesse, ne peut pas être pour nous, observateur, infiniment petite. Selon mon estimation, en deçà de 10-26 ; -27s nous n’aurons plus la capacité de discerner des intervalles de temps aussi minimes. A ce stade nous serons intellectuellement aveugles. Les physicien(ne)s nobelisé(e)s, avec les autres, en réussissant à concevoir un instrument qui nous permet de compter les attosecondes se réjouissent d’avoir un aperçu « flou » de l’électron en mouvement dans un atome, dans une molécule. Quant au boson de Higgs qui aurait une durée de vie de l’ordre[4] de 10-21 ; -22s, on ne peut observer directement sa trace, on ne peut l’identifier que grâce aux empreintes enregistrées de ses produits de désintégration qui apparaissent dans les détecteurs d’une sensibilité maximale plus tardivement. Malgré tout, notre compétence pour reconstruire sa présence est de très grande qualité. En ce qui concerne le quark ‘Top’, sa durée de vie moyenne est estimée à 5×10-25seconde et la trajectoire qu’il empreinte avant de se désintégrer est impossible à mesurer. Nous sommes donc confrontés à un processus de perte d’observation, d’identification, des éléments de la nature et de leur propriété. Ainsi nous devenons de plus en plus aveugles et il faut comprendre ce que cela signifie. C’est au cours des années 1969, 1970, que j’ai commencé à m’interroger sur ce processus inexorable avec la désintégration des résonances des hadrons par interaction forte.

Implicitement, les physiciens considèrent que tant qu’il y aura quelque chose de nouveau à détecter dans la nature, d’une façon ou d’une autre, l’être humain sera toujours en mesure de l’identifier d’une façon directe ou indirecte. Il faudrait quand même méditer le résultat qui vient d’être nobélisé : il y a d’un côté l’électron objet quantique par excellence, et d’un autre côté une horloge qui scande les attosecondes. Les attosecondes sont comme des trous de serrure de plus en plus infimes du temps qui d’une façon ou d’une autre nous laissent ‘voir’ les choses de la nature. Ceci vaudra jusqu’à ce que le trou de serrure le plus infime du temps, techniquement conçu, coïncidera avec le Tic-Tac cérébral du genre humain : TpS[5]. Ce paradigme qui finira par s’imposer aux physiciens ne doit pas être considéré comme une limite humiliante mais devra être considéré comme l’occasion incontournable de situer vraisemblablement la place et le rôle de l’être humain, dans son mode d’être présentiel, dans un univers éternellement appréhendé. Ce sera donc installé sur un tout nouveau belvédère que le physicien, être dans la nature, pourra tenter de décrypter ce qu’il considère comme étant de l’ordre de la nature, de l’ordre du ‘hors-de-soi’.

 

 

[1] Paul Bruce Corkum est un physicien canadien spécialisé dans la physique attoseconde et des lasers. A regret, il n’a pas été Nobélisé à cause de la limite imposée à trois nobélisables maximum sur un même sujet.

[2] Sur la 4e de couverture de son livre, il est indiqué : « Des mythes anciens à l’horloge cosmique, de Newton à Einstein, Chronos reste un mystère pour les physiciens d’aujourd’hui comme pour les premiers humains, et celui qui le maîtrise domine le monde. » ; « G. Tonelli, chercheur invité au CERN et professeur à l’université de Pise, est l’un des principaux protagonistes de la découverte du boson de Higgs. »

[3] Soit 10 millionièmes de milliardième de milliardième de seconde.

[4] De l’ordre de l’ordre de la zeptoseconde : mille milliardièmes de milliardième soit 10-21, ou dix mille milliardièmes de milliardième soit 10-22s.

[5] Le livre suivant : « Your Brain Is a Time Machine”, de David Buonomano 2017, W.W. Norton, je le recommande pour ceux qui souhaitent creuser le sujet. Je cite Sean Carrol : « Pourquoi le temps semble s’écouler de moment en moment ? C’est un mystère parce que les physiciens disent une autre histoire : le temps ‘est’ tout simplement, une étiquette passive dans les différentes parties de l’univers. En puisant dans la philosophie et les neurosciences D. Buonomano, nous aide à comprendre cette question, et en conséquence clarifie notre place (sic) dans le monde physique. » De Lee Smolin : « Le livre de Buonomano est une révélation qui propose une nouvelle perception radicale du cerveau dans lequel la fonction primordiale des circuits neuronaux est de générer des processus dont les actions définissent le temps. »

Partager cet article
Repost0
4 août 2023 5 04 /08 /août /2023 09:47

Prolongements de l’article : La physique au risque de la préhistoire.

 

            Dans la continuité de la publication de l’article du 18 juin « La physique au risque de la préhistoire », j’ai fait parvenir à Jean Guilaine (professeur émérite au Collège de France) l’email suivant :

« C’est à l’occasion de l’étude du livre de Philippe Grosos : « La philosophie au risque de la préhistoire » que j’ai éprouvé l’envie de vous envoyer cet email.

« En effet nous avons déjà eu l’occasion d’avoir un échange épistolaire en Septembre et Novembre 2016 à propos, en tant que physicien… à la retraite, de mon concept de ‘Présence’ de l’Être réflexif, ainsi que mon hypothèse : ‘l’espace-temps’ est un propre de l’Homme. Remarquablement mon concept de ‘Présence’ et celui de l’émergence de ‘l’ontologie présentielle’ de Ph. Grosos s’épaulent.

Je considère que c’est un concept dont les physiciens devraient s’emparer. Mais voilà, impossible, pour eux, de dépasser leur croyance que la science physique dévoile la réalité du monde. Tout ce qui pourrait sembler se référer à, un tant soit peu, de l’anthropocentrisme est considéré inacceptable. Or, il n’y a pas plus anthropocentrique que l’hypothèse du Big Bang qui conditionne notre représentation de l’Univers. L’hypothèse du Big Bang correspond à une continuité historique de l’être humain qui a besoin d’une Origine servant de point d’appui afin que la pensée collective puisse se déployer, jusqu’à ce qu’il soit conçu une nouvelle cosmogonie qui efface la précédente.

Je me permets de vous transmettre un document ci-joint correspondant à l’article que j’ai écrit et posté à propos de l’exploitation du livre de Ph. Grosos ainsi que votre préface.

                              Bien à vous. Merci pour tout, et Amitiés.      Philip Maulion »

En retour Jean Guilaine m’a fait parvenir l’email suivant le 24/06 :

« Merci, cher Monsieur, pour votre sympathique mail et pour le texte qui l’accompagne. J’ai en effet eu plaisir à lire et préfacer l’ouvrage de Ph. Grosos.  Les origines de notre espèce et sa définition en regard de son environnement nous réservent encore bien des enquêtes.

Avec mes sentiments dévoués.

Jean Guilaine »

            Ensuite j’ai pu communiquer à Philippe Grosos le message suivant :

 

« Bonjour cher Philippe Grosos

J'ai eu un nouvel échange épistolaire avec J. Guilaine à l'occasion de ma découverte et de l'étude de votre livre "la philosophie au risque de la préhistoire". A l'occasion je vous joins l'article correspondant sur mon blog : "La physique au risque de la préhistoire'. Je me permets ce parallélisme parce que depuis une dizaine d'années je suis convaincu que les scientifiques doivent, afin de sortir des impasses théoriques de la physique et partant de la cosmologie, adopter le concept de la 'Présence' dans le corpus de la pensée fondamentale. Ma grande satisfaction a été de découvrir que votre concept de l'émergence de l'ontologie présentielle est probablement de même facture (si vous voulez bien me le confirmer... ou, bien sûr, le relativiser voire le corriger). 

Il est clair que votre 'ontologie présentielle'/'ontologie participative' engage un éclairage qui doit fructifier dans le domaine de la philosophie. Par contre dans le domaine de la science physique, il induit un changement de paradigme qui provoque une résistance compréhensible mais qui devient de moins en moins justifiable chez les physiciens. 

Quand j'ai demandé à J. Guilaine vos coordonnés je lui ai dit : "Je suis a priori optimiste à l'idée qu'un dialogue puisse fructifier étant donné la similitude de son hypothèse de l'ontologie présentielle avec la mienne de la 'Présence'. Bien qu'elles se situent dans des champs d'études qui sont à notre époque très différenciés, il y a peut-être matière à construire un pont"

Que pensez-vous de cette proposition d'entreprise digne d'ingénieurs des Ponts et Chaussées ?

 Avec mes sentiments amicaux.    Ph. Maulion »

En retour j’ai reçu la réponse suivante :

« Cher Monsieur Maulion,

Je vous remercie de votre courriel, qui m’a permis de découvrir votre blog et ainsi vos sujets de réflexion.

Je vous remercie également de votre intérêt pour mon ouvrage.

Il me semble qu’il faut toujours rester prudent face à des rapprochements de pensées, car ils cachent souvent bien des divergences d’horizons. Mais évidemment, on peut aussi se réjouir de certaines convergences lorsqu’elles ont lieu. L’essentiel me semble qu'elles stimulent pour chacun nos réflexions. Et c’est là ce qui me semble important.

En vous souhaitant une bonne continuation dans votre travail,

Bien cordialement, Philippe Grosos »

 

            Effectivement, grâce à cet échange épistolaire il y a pour moi matière à être stimulé, bien qu’il y ait une impossibilité déclarée relative à mon projet de construire un pont car en résumé, Ph. Grosos évoque la nécessaire prudence a priori face : « à des rapprochements de pensées, car ils cachent souvent bien des divergences d’horizons. Mais évidemment, on peut aussi se réjouir de certaines convergences lorsqu’elles ont lieu. » Voyons et auscultons quand il y a, de ce que nous avons pensé, rapprochements ou divergences cachés ou encore convergences peut-être. Cherchons si, à l’épicentre de ces oscillations caractéristiques du doute positif, un socle consistant pourrait être identifié pour servir de point d’appui au tablier du pont à concevoir qui permettrait de rejoindre les deux rives de nos champs d’études respectifs.

            Dans son livre, Ph. Grosos creuse, il propose de rechercher au plus profond du temps arrière de l’humanité les conditions de l’émergence de la philosophie. La philosophie grecque, telle que nous l’entendons, ne sera pas transformée, mais elle sera éclairée, enrichie, peut-être à terme des premiers frémissements de la pensée humaine. Telle est implicitement voire explicitement l’ambition d’une pareille entreprise remarquable qui m’enthousiasme car elle met en valeur, à mes yeux, une dynamique irrépressible d’élucidation qui va dans le sens du développement de notre nature humaine.  

            Par contre j’ai proposé mon concept de ‘Présence’ par nécessité, je l’ai proposé en tant que concept correctif nécessaire pour que le corpus de la physique théorique sorte de l’errance actuelle[1] et qu’enfin il se déploie vers un nouvel horizon fertile comme je l’ai développé dans une série d’articles entre le 3 Juin et le 12 Août 2022 sous le titre générique : ‘L’Être humain est une réalité de/dans l’univers’. Ma proposition n’est en aucune façon artéfactuelle, encore moins conjoncturelle. Elle est, à mon sens, source d’un nouvel élan de productions théoriques qui permettra d’orienter notre regard sur des propriétés et des phénomènes physiques non encore anticipés et concomitamment anéantiront les présupposés qui font encore obstacles.

            Le mode d’être présentiel proposé par Ph. Grosos et mon concept de ‘Présence’ ont, à mes yeux, une fonction semblable, celle d’établir un rôle actif à l’être humain cogitant toujours en devenir. Cela peut paraître plus évident lorsqu’il s’agit d’atteindre la source historique hypothétique de la philosophie que lorsqu’il s’agit de justifier qu’il y a une source active identique qui opère pour la physique. En fait, en vérité, cela est d’autant moins évident en physique qu’il est communément pensé que les lois de la physique que nous mettons en évidence sont celles réelles de la nature[2] préexistantes à l’émergence d’une humanité dans le monde et en conséquence l’être humain n’en serait qu’un lecteur extérieur, passif.

Avec la découverte de la mécanique quantique depuis plus d’un siècle cette croyance brute au réalisme est sérieusement battue en brèche. De fait, nous décrivons le monde tel qu’il nous apparaît et non pas tel qu’il est. Une loi comme celle de Newton qualifiée d’universelle a perdu ce statut. Dans le référentiel spatio-temporel classique, habituel, dans lequel les physiciens expliquent des propriétés physiques, il est impossible, par exemple, de rendre compte de la propriété de l’intrication, et cette défaillance perdure depuis 90 années. En conséquence on est obligé d’admettre qu’elle est une propriété non locale. Ce qui est une hérésie à l’égard de la croyance au réalisme.

Ma conviction, je l’ai développée dans la série d’articles exposés sous le titre générique très explicite : ‘L’Être humain est une réalité de/dans l’univers’. Cela explique le vif intérêt que j’ai rencontré à l’égard du livre de Ph. Grosos. Le cheminement de sa pensée me convainc et s’il l’a exploité à propos de la philosophie, à mon sens, elle vaut autant pour la physique moyennant les adaptations nécessaires correspondant à la spécificité de ce savoir historique acquis par l’humanité. Il est, en outre, juste de considérer qu’historiquement les deux champs de connaissances en question ont connu un développement entremêlé du fait de l’histoire du développement de la réflexion humaine. Nous disposons d’indications situées dans cette histoire mettant fin à cet entremêlement, et annonçant une distinction franche à venir, entre des raisonnements relevant à la fois d’une manière de dire ainsi que d’une conscience de vivre en société de ceux relevant de l’intégration d’observations de lois et propriétés présumés invariantes révélant des causes naturelles. Thalès de Milet aurait été un de ces premiers philosophes présocratique aussi qualifié de savant grec, mathématicien (théorème de Thalès, toujours enseigné en quatrième) né à Milet vers 625-620 av. J.-C. et mort vers 548-545 av. J.-C. dans cette même ville. Personnage légendaire, qui eut Anaximandre comme disciple, qui semble n'avoir rien écrit mais sa méthode d'analyse du réel en fait l'une des figures majeures du raisonnement scientifique. Il sut s'écarter des discours explicatifs délivrés par la mythologie pour privilégier une approche caractérisée par l’observation et la démonstration (voir Wikipédia).

Le cheminement de la pensée de Ph. Grosos m’a tellement convaincu que je tente ci-dessous d’inscrire dans le fil de sa pensée ma conception de la naissance de la physique. Toutefois, nous devons garder à l’esprit que la volonté impérative de décrypter progressivement les lois élémentaires de la nature s’impose aux premiers Homo en réponse à une nécessité de survie qui engage un processus franc d’hominisation. C’est dans une période qui se situerait autour de 2 000 000 d’années avant notre ère avec l’émergence, entre autres, d’Homo erectus, qu’apparaît un mode d’être propre que je caractérise par l’installation d’une ‘Présence’ dans le monde. C’est pourquoi[3], qui veut penser la naissance et la vocation de la physique, il lui faut envisager que c’est avec l’émergence, entre autres, d’Homo erectus au sein d’un monde où il commence à se penser lié, voire fixé à un sol, à une terre, en cours d’installation en elle au point de pouvoir la concevoir sienne. Qui veut penser la naissance de la physique doit pouvoir se demander jusqu’où celle-ci est redevable d’un mode d’être au monde en lequel, entre autres, Homo erectus, acquérant capacités d’observation et d’adaptation suffisantes pour se couler dans les contraintes que lui impose la nature et ainsi et s’engager dans un processus d’évolution darwinienne. Comment penser que, de tout cela, la physique, puisse s’exempter ? Comment croire que sa naissance puisse en faire abstraction ?

J’ai éprouvé une véritable satisfaction lorsque le neuroscientifique Stanislas Dehaene (professeur au collège de France) a clairement indiqué en Octobre 2017 dans un article de ‘La Recherche’, que la connaissance scientifique ne pouvait s’exempter d’une compréhension de sa naissance. Ci-jointe sa version qui aurait mérité que celle-ci suscitât un début de débat sur ce sujet. A mon grand dépit cela ne le fut pas :

Le cerveau d'Homo erectus avait peut-être déjà atteint la compétence d'une machine de Turing universelle (sic), capable de représenter toutes les structures logiques ou mathématiques possibles. Peut-être est-ce une illusion, mais pour l'instant, notre espèce a réussi à comprendre l'organisation des structures du monde à toutes les échelles de l'Univers. Dans un deuxième temps, il y a environ 100.000 ans, on observe une explosion culturelle qui suggère un langage, une communication... On peut donc se demander s'il n’y a pas d'abord la mise en place d'un système de représentations mentales enchâssées, puis l'apparition d'une capacité à communiquer ces représentations. » Article de ‘La Recherche’, Octobre 2017.

Dès lors, je me demande si la capacité de représentation symbolique et récursive n’est pas apparue, dans un premier temps, indépendamment du langage, avant tout comme un système de représentation rationnelle du monde.

Et complémentairement dans un interview du 23 septembre 2021 on peut lire : « « Les conquêtes de notre cerveau sont aussi celles de la science. Je suis fasciné que notre cerveau parvienne à découvrir les lois de l’univers, depuis l’infiniment petit jusqu’à l’infiniment grand, jusqu’à se comprendre (sic) lui-même. C’est assez stupéfiant… on peut se demander pourquoi, au fur et à mesure que progressent nos recherches, l’Univers nous reste intelligible. Pourquoi ? Sans doute parce qu’au cours de son évolution notre cerveau a internalisé à la fois des modèles du monde extérieur et d’immenses capacités d’apprentissage. Ce que j’essaie de faire partager dans mon livre, c’est mon perpétuel sentiment d’émerveillement. »

Malgré ma reconnaissance à l’égard de S. Dehaene pour avoir tenté de susciter un débat aussi essentiel, a priori, je ne partage pas l’idée qu’Homo erectus aurait été imprégné tout de go : «de la compétence d'une machine de Turing universelle (sic), capable… » Je privilégie la démarche d’une conquête toujours en cours. Selon ma conception, avec, entre autres, Homo erectus, germe la ‘verticalité’, métaphore très appropriée proposée par J. Guilaine dans la préface du livre de Ph. Grosos. Pour ma part, une origine présumée, identifiée, doit toujours mettre en évidence qu’elle est à l’origine d’une évolution, d’une dynamique qui ne cesse d’opérer. C’est pourquoi selon mon scénario de la conquête de la connaissance du monde physique, mon fil directeur se résume ainsi : « Au sein d’une éternité parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance de l’univers… ». Dans ce scénario j’attribue à la conflictualité théorique de l’Être dans la Nature/l’Être de la Nature, la source de la dynamique de l’évolution de l’Être humain, c’est-à-dire à l’affirmation grandissante de l’axe de la verticalité présentielle, au détriment l’axe horizontal, métaphore de l’Être de la Nature.

Pour illustrer mon propos, « parmi tous les possibles, on ne peut pas cesser de creuser », que je considère comme étant une obligation éthique, il est bon de faire vivre, et de soumettre, au voisinage de ses propres considérations prioritaires d’autres expressions de point de vue. Il en est ainsi, un exemple, quant au processus de l’émergence de la verticalité présentielle proposé par Pascal Picq, paléoanthropologue et enseignant au Collège de France, dans son livre (2016, édit Flammarion) : ‘Premiers hommes’, page 336 : « Ce qui fait que notre évolution devient humaine depuis Homo erectus ne vient pas de l’invention des outils, de la chasse, du partage des nourritures, de l’empathie… mais de l’émergence de la condition humaine. Homo, comme le disait le grand éthologue Jakob von Uexküll, est un transformateur de monde par sa pensée et ses actions. Et en premier lieu, par sa puissance écologique qui l’emmène dans des écosystèmes de plus en plus diversifiés, ce que n’ont jamais pu faire les autres hominoïdes ou même les hominidés les plus proches – sinon les Homo erectus archaïques. Cette puissance écologique repose en outre sur une puissance biologique, physiologique et cognitive qui provient – fait inédit dans toute l’histoire de la vie – de ses innovations techniques et culturelles, comme le feu et la cuisson. »

L’Univers nous reste intelligible. Pourquoi ? Interroge S. Dehaene, comme le fit en d’autres temps A. Einstein qui disait que : « Le mystère, c’est que l’univers soit compréhensible. » Mystère pour les réalistes acharnés comme Einstein, mais point de mystère si on accepte l’idée que l’univers que nous nous représentons actuellement dans le cadre du modèle standard de la cosmologie est un univers qui est conçu en fonction de nos capacités d’inférer actuelles. Nos capacités ne peuvent pas déployer un regard universel. Nos capacités d’inférer sont déterminées par les conditions du développement de nos besoins de compréhension du monde. Notre désir d’accéder à la connaissance universelle, horizon éternel qui ne cessera de l’être, est entravé par des déterminations qui résultent des conditions originaires de la conscience de notre présence dans le monde. Pour résumer, si cela se peut, notre mode d’être présentiel s’affirme, grâce à l’enrichissement continu de nos connaissances (l’être dans la nature à l’œuvre), au détriment de notre mode d’être participatif (l’être de la nature) celui-ci attaché à notre origine naturelle qui nous leste de son inertie.

Etant donné l’état de la crise de la physique théorique fondamentale ces dernières décennies, il a été considéré pendant une certaine période que le développement d’une réflexion pluridisciplinaire pouvait porter ses fruits. Donc des conférences, des publications, des livres, réunissant principalement des physiciens, des philosophes voire des théologiens, furent à la mode pendant un certain temps. J’ai lu, étudié, parcouru, les productions de ces réflexions collectives. Ce qui m’a frappé c’est qu’elles étaient peu collectives car chacun des intervenants faisaient des exposés en suivant les rails de sa spécialité. Cette mode n’est plus maintenant. Ce qui peut paraître surprenant c’est qu’à cette époque il n’y eut pas un Ph. Grosos pour partager le fruit de son travail à la communauté scientifique et, à mon sens, potentiellement proposer une réelle sortie de crise. Si Ph. Grosos est le représentant d’une vraie avant-garde, alors il faut maintenant sonner trompettes pour annoncer la bonne nouvelle.

Une des expressions les plus explicites confirmant l’impossibilité de concevoir le rôle d’une ‘Présence’ dans le corpus de la physique fondamentale, je l’ai lu en découvrant le discours d’inauguration de la prise de fonction de Fabiola Gianetti en tant que nouvelle Directrice Générale du CERN à Genève dans les premiers jours de 2016 : « If new physics is there we can discover it, but it is in the hands of nature. » soit « Si une nouvelle physique est là, nous pouvons la découvrir, mais c’est entre les mains de la nature. »

Penser que la nature se laisserait voir sans que préalablement les scientifiques aient posé au minimum leur pensée théorique prédictive de ce qu’il y aurait à observer est aberrant. Déjà avant 2016 et depuis, jusqu’à maintenant, rien de significatif n’a été observé avec l’exploitation de cet instrument remarquable, du point de vue des avancées technologiques exploitées, qu’est le Large Hadron Collider (LHC) où officient 17000 personnes originaires d’une centaine de pays. Je dois dire aussi qu’à l’occasion du renouvellement de son mandat en 2021 et après cinq années d’échec, elle a exprimé une philosophie qui souligne une certaine évolution que je soumets à l’appréciation de chacun (dans ‘La Recherche’, Janvier-Mars 2022) : « Le moteur de la recherche ce sont aussi les idées qui sortent des sentiers battus. Les ateliers de théorie que nous organisons rassemblent des spécialistes de disciplines très diverses (sic), pour mettre de nouvelles hypothèses sur la table… Nos expériences sont conçues pour tenter de chercher une nouvelle physique dans le cadre des scénarios théoriques existants, mais aussi de manière ouverte et indépendante…  Nous parlons ici d’un investissement à long terme dans le but de mieux comprendre comment fonctionnent la nature et l’Univers. Il s’agit d’une quête intrinsèque à ce qui nous rend plus humains (sic) : nous ne pouvons pas l’arrêter. »

Si comme le souhaite Fabiola Gianetti, nous cherchons à mieux comprendre comment fonctionnent la nature et l’univers, nous devons comprendre quelle est la nature de notre relation avec la nature et l’univers. Nous ne pouvons pas être extérieur à la nature, pas plus de l’univers car nous sommes forgés par les poussières d’étoiles et tout ceci nous détermine. En 2023 vient d’être publié le livre de Guido Tonelli : ‘TEMPS’ ou les mystères de Chronos, édit Dunod. Livre ne présentant, à mes yeux, aucune originalité car toutes ces idées ont déjà été brassées moult fois dans de nombreux ouvrages, si ce n’est que sans prendre garde G. Tonelli participe à l’épaississement de l’obscurité dans laquelle se trouve pris le modèle standard de la physique des hautes énergies qui est la référence théorique officielle prévalente au CERN comme dans tous les sites de recherche de la physique des particules. Page 129, il expose que « la durée de vie, notée habituellement : τ, de certains composants fondamentaux de la matière peuvent être évalués par des moyens indirects de l’ordre de grandeur de 10-25seconde, soit dix millionièmes de milliardièmes de milliardièmes de seconde. Force est de recourir aux mathématiques, bien que notre imagination a du mal à appréhender ce que représente un intervalle de temps aussi infime. »

Dès la fin 2012, j’ai publié un article ‘Synthèse : un monde en ‘Présence’’ dans lequel j’inférai qu’il y avait une durée limite de l’observation des phénomènes dans la nature que j’évaluai à l’époque être de l’ordre de 10-23 ; -25s. Ceci donne un ordre de grandeur et cela pourrait être encore plus petit de quelques ordres de grandeurs[4]. J’ai formulé cette hypothèse d’une limite concrète à laquelle nous étions confrontés parce qu’on ne peut pas faire abstraction de notre relation avec la nature et celle-ci met en évidence notre, nos, limite(s) propre(s).

Il est très impressionnant de constater que depuis la dernière observation, en 2012, obtenu du boson de Higgs, prédit depuis 48 ans, doté d’une durée de vie, par déduction, de l’ordre de 10-22s, plus rien n’a été scientifiquement identifié. Il est aussi impressionnant de constater que de nombreux physiciens sont convaincus que depuis que le LHC refonctionne avec des performances techniques inégalées, il y a certainement des événements mis en mémoire informatique, ignorés, que nous ne sommes pas en mesure de décrypter et de plus risquent d’être effacés[5]. Pour autant l’inertie est impressionnante du refus de prendre en considération le saut du paradigme que représente celui de la ‘Présence’. Il n’y en a pas d’autres qui s’offrent en alternative.

La situation est la même pour ce qui concerne l’autre modèle standard, celui de la cosmologie. Mais la situation est différente car il est sérieusement ébranlé, en cours de fissuration, étant donné les observations que nous obtenons depuis un an provenant de ‘James Web Space Telescope’, (JWST), lancé dans l’espace le jour de Noël de 2021. Depuis, l’analyse des photos extraordinaires reçues, nous devons prévoir que le modèle standard de la cosmologie est caduc tellement les écarts entre ce qu’il prédisait et les résultats observés, relatifs à l’univers primordial (premier milliard d’années depuis le soi-disant Big Bang) sont très significatifs.

Grâce à ce nouveau télescope nous pouvons projeter des observations au plus profond de l’univers et ce qui est nouvellement observé n’était pas du tout prévu dans le cadre du modèle standard théoriquement et progressivement conçu depuis les années 1970. Bon gré mal gré on continue de situer les quantités imprévisibles d’étoiles et de galaxies par rapport à un temps zéro que l’on appelle : Big Bang. Celui-ci est, à mon sens, l’expression d’une version cosmogonique de la conception originaire de l’univers. Le 13/07, a été publié un article attribuant à l’univers l’âge de 26 milliards années, soit deux fois plus ancien que ce qui est officiellement fixé. Il est encore trop tôt pour attribuer une valeur scientifique respectable à cette publication mais ce qui est certain c’est qu’un tabou est tombé et cela s’impose. On constate que l’idée d’une origine est maintenue et je considère que cela est nécessaire parce que l’être humain, même si celui-ci est un scientifique dit objectif, a besoin de concevoir une origine pour poser sa pensée afin qu’à partir de ce ‘’ il puisse déployer celle-ci. Quitte à porter de plus en plus loin cette origine, le physicien collectif doit être conscient de son pragmatisme. A priori des bouleversements très significatifs sont à prévoir, dans les très prochaines années voire dans les prochains mois, en ce qui concerne notre conception de l’univers et le prolongement de la négation de notre présence dans l’univers devra au minimum être fragilisée au point que la contribution d’une ‘Présence’ s’imposera. De fait, force sera au minimum de conjecturer que l’être humain n’est pas nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la Nature

Enfin pour finaliser cet article, j’évoque le compagnonnage partiel de ma conception de : l’Être humain est une Réalité de/dans l’Univers, lorsque j’ai découvert le livre, (en 2021), de Carlo Rovelli[6] « Helgoland ; le sens de la mécanique quantique. » Mais sa théorie rabat tellement la présence du physicien qu’il est impossible, à mon sens, de prendre en compte sa thèse, exemple : « La clé de voûte des idées de ce livre, est le simple constat que le scientifique et son instrument de mesure font aussi partie de la nature. Ce que la mécanique quantique décrit est la manière dont une partie de la nature se manifeste auprès d’une autre partie de la nature… le photon observé par Zeilinger[7] dans son laboratoire est une de ces entités. Mais Anton Zeilinger en est une autre. Zeilinger est une entité comme une autre (sic), au même titre que le photon, un chat ou une étoile… L’essence de ce qui se passe entre un photon et Zeilinger qui l’observe est la même que celle de ce qui se passe entre deux objets quelconques lorsqu’ils interagissent, lorsqu’ils se manifestent l’un à l’autre en agissant l’un sur l’autre. » Dans cette citation le mode d’être présentiel du physicien est franchement dénié, habituellement c’est implicite, C. Rovelli l’assume, l’explicite et de plus le théorise. Je cite ci-après ce que l’auteur affirme page 98 :

 « Il existe évidemment des systèmes physiques particuliers qui sont « observateurs » au sens strict du terme : ils ont des organes sensoriels, une mémoire, ils travaillent en laboratoire, ils sont macroscopiques, etc. Mais la mécanique quantique ne décrit pas uniquement comment le monde agit sur ces systèmes : elle décrit la grammaire élémentaire et universelle (sic) de la réalité (sic) physique, sous-jacente non seulement aux observations en laboratoire, mais à n’importe quelle interaction. »

Dans cette ultime phrase, où il est affirmé une croyance à l’accès immédiat à la connaissance universelle et celle conjointe à la réalité physique qui se révèleraient d’elles-mêmes, sont révélés deux redoutables faux-amis permanents chez les physiciens détournant leur regard intelligent du mode d’être présentiel effectif correspondant à l’état de l’évolution de nos connaissances actuelles. A mon sens, ces deux faux-amis ne sont là qu’en vue d’orienter notre regard intelligent en direction d’un horizon à conquérir, motivant, pour Homo sapiens que nous sommes, toujours en quête d’un au-delà à découvrir, transformateur de monde par sa pensée et ses actions. A titre d’exemple, citons J. Guilaine, qui dans son e-mail, exprime cette dynamique vertueuse, qui ne cesse de nous habiter, engendrée par la présence permanente d’un au-delà à découvrir : « Les origines de notre espèce et sa définition en regard de son environnement nous réservent encore bien des enquêtes. »

 

 

 

 

 

[1] C’est une situation dramatique qui perdure depuis au moins trois décennies. Elle est exprimée de différentes façons mais en résumé on pourrait affirmer qu’elle est sous tendue par le caractère insaisissable, jusqu’à présent, de ce qu’est la nature effective du temps qu’exploitent les physiciens et partant de l’espace. Lee Smolin, dans son livre (2013) : « La Renaissance du Temps : pour en finir avec la crise de la physique (sic) », nous dit : « La question du Temps est au cœur de toutes les problématiques scientifiques, de la cosmologie à la mécanique quantique. Le Temps est-il une illusion qui cache une vérité éternelle, ou une réalité physique de notre Univers ? » ; « Il nous faut marquer une rupture nette, nous lancer dans une nouvelle sorte de théorie… » Cette crise de la physique peut être évaluée apparemment différemment comme l’exprime dans son livre Sean Carroll (2019) : « Quelque chose de profondément caché : mondes quantiques et l’émergence de l’espace-temps » ou encore par Philip Ball dans son livre (2018) : « Au-delà de l’étrangeté », qui cite Edwin Jaynes : « La mécanique quantique est un mélange particulier décrivant en partie la réalité de la Nature, en partie une incomplète information de l’humain à propos de la nature – le tout brouillé par Heisenberg et Bohr dans une omelette que personne ne peut débrouiller. » Et finalement Sabine Hossenfelder, dans un ouvrage (2018) construit sur la base de riches entretiens avec les plus grands théoriciens, invite les physiciens à repenser leur façon d’édifier des théories et rappelle la nécessité, pour les scientifiques, d’accepter le désordre et la complexité afin de découvrir la vérité (sic) sur notre univers.

Dans le livre Guido Tonnelli : « Temps », Dunod 2023 page 106 : « La matière est constituée de particules qui interagissent entre elles en échangeant d’autres particules. Nous pouvons résumer ainsi, d’une phrase, la théorie qui nous permet de comprendre de quoi est fait le parfum d’une rose ou le plasma comprimé qui rugit dans le noyau des étoiles. La recherche des constituants élémentaires de la matière a une histoire millénaire. Vers 600 avant J.C., les premiers philosophes grecs commencent à chercher une explication naturaliste (sic) du monde. Aujourd’hui, nous utilisons des noms étranges pour désigner les particules élémentaires, mais les règles du jeu n’ont guère changé depuis l’époque d’Anaximandre de Milet (vers 585 av. J.C. – vers 525 av. J.C.)  A cela, ajoutons une affirmation célèbre du ‘Réalisme’ d’Einstein en 1933, dans un article dit E.P.R. pour réfuter la mécanique quantique : « Si, sans perturber en aucune manière l'état d'un système, la valeur d'une quantité physique de ce système peut être prédite avec une probabilité égale à 1, alors il existe un élément de réalité correspondant à cette quantité physique. »

 

[3] Cet exercice de ‘copier-coller’, peut se mesurer en se reportant aux pages 37-38 de l’Introduction de ‘La philosophie au risque de la préhistoire’. Et je renouvelle mon conseil d’une lecture et d’une étude du livre, à coup sûr, très profitables pour tous ceux qui ont envie de creuser par eux-mêmes ce sujet. Autant au point de vue de la philosophie évidemment que celui au point de vue de la science physique que je recommande. L’Introduction comprend 3 items : ‘La boîte à outils des philosophes’ ; ‘Archéologie de la philosophie’ ; ‘Philosophie et archéologie préhistorique’.

 

[4] Les moyens techniques exploitables maintenant permettent une compréhension de plus en plus précise de ce qui se passe dans notre cerveau durant le 1/3 de seconde avant qu’il n’y ait prise de conscience effective d’une image ou encore à propos d’un concept. En effet des neurones conceptuels (sic) sont maintenant isolés dans le cerveau. » Avec cette étude exhaustive on peut dire que ce 1/3 de seconde correspond à la ‘durée aveugle de la conscience’ et cela ne peut pas être sans conséquence sur l’éveil intellectuel et la vigilance observationnelle du sujet réflexif. De là, il serait quand même difficile de postuler que le fonctionnement par intermittence avérée de la conscience du ‘sujet pensant’, conduise à un fonctionnement intellectuel, observationnel, absolument continu du sujet réflexif. Précisons que le Temps propre du Sujet pensant (TpS) : 10-25s, ou moins, que je postule n’est pas une grandeur de l’ordre de la conscience mais de l’ordre de l’existentialité.

[5] De George Ellis (professeur émérite de l’université du Cap) : « Pour moi, le fait que le CERN ait passé les dix dernières années à effacer des données qui détiennent la clé d’une nouvelle physique fondamentale, c’est ça, le scénario du cauchemar. »

[6] Carlo Rovelli est physicien théoricien et philosophe des sciences à l’université d’Aix-Marseille.

[7] Anton Zeilinger, est un physicien autrichien. Il est connu pour ses travaux de téléportation quantique. Avec Alain Aspect et John Francis Clauser, il est lauréat du prix Nobel de physique en 2022

Partager cet article
Repost0
18 juin 2023 7 18 /06 /juin /2023 11:59

La physique au risque de la préhistoire

Le titre de cet article que je propose est directement inspiré de celui du livre qui vient d’être publié : « La philosophie au risque de la préhistoire », de Philippe Grosos, édit. Du Cerf, Avril 2023. Inspiration légitime car dans la Grèce antique, la physique était considérée comme une des trois branches de la philosophie. La distinction de la physique de la philosophie s’est franchement engagée au cours du XVIIe siècle. Dans ce livre fort intéressant que je conseille vivement de lire et d’étudier se trouve exposé le concept de l’ontologie présentielle. Cette ontologie et l’histoire de son émergence comme vous pourrez le constater est fort semblable à mon concept de ‘Présence’ que je porte depuis l’article du 2/11/2012 : ‘Un monde en ‘Présence’’, conforté avec l’article du 21/07/2015 : ‘La seconde naissance de l’homme’ et puis dans l’article du 27/05/2014 : ‘Persévérons car cela progresse dans le bons sens… mais lentement, en zigzag.’ Article dans lequel j’écris :

« Dans la suite de l’article il est encore spécifié comment D. Mermin pense avoir craqué le mystère de la mécanique quantique. C’est globalement les Qbists qui l’ont convaincu. Or, à leur égard j’exprime une sérieuse réserve puisqu’ils prennent en compte la subjectivité, la présence avec un p minuscule, alors qu’à mon sens il doit être pris en compte la ‘Présence’ constitutive du sujet pensant qui enracine la conscience fondamentale de son existence, c. à d. : ‘Présence’ qui est la racine de l’Anthrôpos. D. Mermin est tellement convaincu d’avoir craqué le mystère de la mécanique quantique qu’il affirme que la bizarrerie probabiliste de la mécanique quantique est dans la tête des physiciens, ‘c’est vraiment aussi simple que cela’(sic). »

Au cours de la lecture de ce livre je privilégie ce que l’auteur développe à propos du mode d’être participatif et du mode d’être présentiel.

La préface de Jean Guilaine[1] (Professeur au Collège de France) rend compte clairement de ce qui est en jeu avec la thèse développée page après page par Ph. Grosos. Il s’agit donc de rendre compte en remontant aux sources d’expliquer le processus au cours duquel « une image centrale de l’homme s’est mise en place. A la masse des millénaires antérieurs au cours desquels les humains vivaient sous le joug des lois de la nature, la néolithisation, vers 10 000 ans avant notre ère, a favorisé l’engendrement de cette mutation. Car l’humain néolithique ne se considère plus comme un animal parmi d’autres, mais se positionne désormais au sommet de la hiérarchie du vivant. Notre auteur a bien saisi cette mutation d’un axe horizontal où l’humain côtoyait la bête, à un axe vertical dont il occupe désormais le sommet. »

Ci joints quelques extraits de quelques pages du livre, sélectionnés par mes soins, qui correspondent à mon tropisme de l’émergence de la ‘Présence’ du sujet pensant physicien.

Page 38 : « Il faut en outre envisager l’émergence de la philosophie au sein d’un monde où l’humain, depuis plusieurs millénaires, a pu se penser lié voire fixé à un sol, à une terre, installé en elle au point de pouvoir la dire sienne, dans un rapport naissant mais croissant de domestication à l’égard de son environnement, et déjà suffisamment habile pour induire un rapport de maîtrise sur un grand nombre de vivants (végétaux, animaux et même humain). Qui veut penser la naissance de la philosophie doit pouvoir se demander jusqu’où celle-ci est redevable d’un mode d’être au monde en lequel l’humain, ayant depuis longtemps acquis l’écriture, vit au sein des cités-Etats… Car commencer penser que, de tout cela, la philosophie ait pu s’exempter (sic) ? Comment croire que sa naissance même ait pu en faire abstraction (re-sic)[2] ?

Parvenir à prendre au sérieux et à comprendre l’enjeu de ce mode d’être en lequel la philosophie est née suppose donc de porter attention à une très longue durée, à une très longue ancienneté de l’histoire humaine, bien antérieurement à la seule et tardive période de l’antiquité qui voit naître cette discipline nouvelle… »

Page 53, l’auteur exploite les données propres de l’art figuratif à l’articulation de la toute fin des cultures de chasseurs-cueilleurs, avec tout le début de l’arrivée du processus de néolithisation pour inférer que « l’humain fera alors clairement son apparition, sortant ainsi du semi-anonymat en lequel il était comme confiné lors du Paléolithique récent… En effet, l’accent est alors clairement mis en la présence humaine. Et si tel est le cas, cela ne tient pas tant au fait que l’humain se figure explicitement, qu’à celui qu’il se figure désormais comme le centre à partir duquel toutes les autres représentations prennent sens… » Page 58 : « Il est indéniable que l’art figuratif d’Homo sapiens témoigne d’une singulière proximité, que nous ne connaissons aujourd’hui plus, avec le monde animal. Qui fréquente ces œuvres ne peut en effet qu’être chaque fois surpris, stupéfait même, par le degré d’intimité qui rapporte les êtres humains aux bêtes. Ils les pistent, les observent, en connaissent intimement l’anatomie la plus précise au point d’en reproduire très fidèlement l’image, sans les avoir sous les yeux. Plus encore, la configuration des œuvres sur les parois donne très souvent l’impression qu’ils les devinent, les anticipent et les sentent… Bref, cela signifie que si ces humains-là ne se conçoivent pas comme des animaux parmi d’autres, ils se pensent toutefois comme des vivants parmi les vivants. Ou encore qu’ils ont un rapport profondément participatif au vivant, et que ce rapport s’énonce par la figuration de la diversité animale. En ce sens, il est possible de nommer participatif ce mode d’être qui a singularisé le comportement et les mentalités des humains lors du paléolithique récent.

Or tout autre est manifestement le mode d’être au monde des humains, tel qu’il se met relativement rapidement en place, une fois amorcé le processus de néolithisation. Dès lors, tout se passe comme si ces derniers tendaient à affirmer leur présence. Leur présence et non seulement visibilité. C’est pourquoi ils ne se contentent pas de se figurer ; ils se figurent comme le centre rayonnant à partir duquel tout autre vivant devient visible, voire prend sens. »

Toutefois l’auteur a mis en évidence, grâce à l’étude de certaines sculptures et gravures du Paléolithique récent, des périodes de transition d’un mode d’être au monde de type présentiel en pleine période participative. Il les nomme des phases proto-présentielles au sein d’un mode d’être participatif au monde. Il y a bien eu une mise en place progressive d’une ontologie de type présentiel, en se détachant d’une ontologie de type participatif.

Finalement dans sa conclusion l’auteur affirme, page 200 : « l’anthropocentrisme est fondateur de la philosophie, parce qu’il est, plus originairement encore, l’élément clé de l’ontologie présentielle en laquelle elle s’inscrit et dont elle dépend. »

Ci-joint un extrait de la publication du 17/06/2022 sur mon blog correspondant à une synthèse de mes multiples articles sur le thème de la ‘Présence’. Ce chapitre de mon mémoire comprend 3 autres éditions supplémentaires, le 24/06 ; 01/07 ; 08/07/2022

J’emploie le terme de : ‘Présence’, pour évoquer l’érection d’une première intelligence spéculative dans le monde. C’est-à-dire une intelligence qui soit en mesure d’observer, méditer, raisonner, calculer, théoriser, mémoriser, l’expérience. Celle-ci, en l’état actuel, fruit du développement au sens Darwinien, est représentée par l’intelligence de l’homme moderne que nous incarnons aujourd’hui. Il est raisonnable de considérer que cette première intelligence spéculative a émergé il y a environ 2 millions d’années et c’est le plus souvent Homo erectus[3] qui est cité comme le vecteur premier de cette intelligence. Au tout début de son émergence le cerveau d’Homo erectus le plus archaïque pèse entre 800 et 900 gr. Les paléoanthropologues nous disent qu’à cette époque ‘l’homme si primordial’, ‘balbutiant’ n’avait aucune capacité de négocier avec la Nature ni de gérer les ressources que celle-ci lui proposait. Elle était dominante, lui dominé. Pourtant, comme nous le dit : Jean Guilaine (professeur au Collège de France, ‘La Seconde naissance de l’Homme’, page 57), « Au Paléolithique archaïque, aux alentours de 1,9 million d’années, l’analyse de la documentation fournie par plusieurs sites africains montre une gestion des matières premières fondée sur un certain rapport à l’espace (et donc au temps). A Oldowaï, (Afrique Australe) les matériaux bruts nécessaires à la taille ont été apportés de sources distantes de 3 km. De gîtes plus lointains, entre 9 et 13km, on n’a ramené que des outils finis, après avoir laissé sur place blocs et déchets. Dans ces cas le temps nécessaire pour parvenir aux gîtes respectifs envisagés est une notion intellectuellement assimilée. Ces indices, parmi les plus anciens observés, donnent une première idée de l’espace prospecté et, de ce fait, du temps mis à le parcourir. Jehanne Féblot-Augustins met ces données en rapport avec les capacités cognitives des hominidés pour constater que l’investissement technique en vue d’activités futures, c’est-à-dire la faculté d’anticipation, l’évaluation des travaux à venir demeurent faible : apparemment ces populations vivent dans le court terme. L’histoire des temps paléolithiques, dans leur extrême durée, est précisément caractérisée par une maîtrise de l’espace toujours plus élargie, par des déplacements sans cesse portés vers des frontières plus lointaines. Ces pérégrinations impliquent donc une maîtrise minimale du temps… On laisse entendre le rapide élargissement du cadre géographique des communautés : les déplacements de certains acheuléens africains pouvaient atteindre 100km. En Europe, entre -700 000 et -200 000, on observe des tendances voisines. »

Il est clair que Philippe Grosos assure avec succès, en tant que philosophe, grâce à la publication de son livre, une démonstration de l’émergence et des conditions de cette émergence, d’une ontologie présentielle depuis les profondeurs du temps passé. Ce fut pour moi dans le cadre de la science physique et pour tenter de combler ses apories contemporaines que j’ai formulé cette hypothèse de la ‘Présence’.

Mon concept de ‘Présence’ est semblable à celui de Ph Grosos, puisqu’il est une ontologie. Toutefois, c’est une ontologie qui s’affirme au fur et à mesure que l’être humain conquiert de nouvelles connaissances à propos les lois de la nature. Pour rendre compte de ce processus, j’évoque l’évolution de l’Être dans la Nature qui accroit sa verticalité sur la nature et concomitamment du haut de son belvédère réduit la place de l’Être de la Nature qui est une source de déterminations voilant encore et toujours l’intelligence de l’Être humain. Tous deux cohabitant chez l’Être humain ce qui fait qu’il sera toujours un conquérant.

 

[1] Coïncidence ? C’est au cours d’un échange épistolaire que j’ai eu en 2016 avec Jean Guilaine que j’ai été conforté sur le bien-fondé de mon hypothèse de ‘Présence’. Je l’en remercie encore.

[2] Il est évident que ce questionnement, doit être repris mot pour mot en changeant le mot philosophie par le mot physique et en utilisant le présent : « puisse toujours s’exempter ? » et « puisse encore en faire abstraction ? » Car telle est la situation en physique, dite ‘science dure’ qui est considérée transcender l’histoire de l’évolution de l’être humain qui la pense et l’explicite peu à peu.

[3] De P. Picq, paléoanthropologue et enseignant au Collège de France, dans son livre (2016, édit Flammarion) : ‘Premiers hommes’ : page 336 : « Ce qui fait que notre évolution devient humaine depuis Homo erectus ne vient pas de l’invention des outils, de la chasse, du partage des nourritures, de l’empathie… mais de l’émergence de la condition humaine. Homo, comme le disait le grand éthologue Jakob von Uexküll, est un transformateur de monde par sa pensée et ses actions. Et en premier lieu, par sa puissance écologique qui l’emmène dans des écosystèmes de plus en plus diversifiés, ce que n’ont jamais pu faire les autres hominoïdes ou même les hominidés les plus proches – sinon les Homo erectus archaïques. Cette puissance écologique repose en outre sur une puissance biologique, physiologique et cognitive qui provient de ses innovations techniques et culturelles, comme le feu et la cuisson. » ; page 337 : « Entre 1,5 et 1million d’années, presque toutes les terres habitables de l’Ancien Monde appartiennent à Homo erectus. Il y a 1 million d’années, les populations d’Homo erectus règnent par leur diversité, leur intelligence (sic), leur prestance, leur mobilité, leurs outils et par le feu sur tout l’Ancien Monde. Ils poursuivent leur évolution biologique avec un cerveau toujours plus gros (1000 à 1300 cm3)… »

Partager cet article
Repost0
6 juin 2023 2 06 /06 /juin /2023 09:27

Un nouveau paradigme substitutif à celui du Modèle Standard de la Cosmologie.

Cela fait 10 mois maintenant que le magnifique télescope : « James Webb Télescope Spatial, JWST » nous fait parvenir des images de galaxies provenant de l’univers primordial, c’est-à-dire qu’elles nous apparaissent comme étant formées durant le premier milliard d’années après le soi-disant Big Bang. Ces galaxies sont franchement plus précoces et plus massives qu’il n’a été théoriquement prévu dans le cadre du modèle standard de la cosmologie, dixit modèle ΛCDM. Λ fait référence à l’hypothèse de l’énergie noire, CDM fait référence à l’hypothèse de la matière noire froide. La découverte annoncée dès la mi-juillet 2022 de ces galaxies si précoces et si massives a évidemment provoqué de grandes surprises de la part des cosmologues et astrophysiciens, voire de la joie, face à la perspective d’avoir du nouveau grain à moudre pour affiner les connaissances acquises sur le cosmos. Toutefois, plutôt rapidement, ces scientifiques se sont rendu compte que le modèle standard ne pouvait pas, sans perdre sa cohérence, intégrer ces nouvelles découvertes. Au tout début, par inertie intellectuelle, il a été considéré qu’il y avait, pour des raisons variées, des erreurs dans l’exploitation des données que nous faisait parvenir JWST. Inertie intellectuelle qui peut se comprendre puisqu’au moins deux générations de cosmologues et d’astrophysiciens pensent l’univers dans le cadre du modèle standard. Et trop souvent, et de plus en plus souvent, la pensée que nous avions conçu un modèle standard de l’univers s’est estompée au profit de la pensée que nous étudions un univers réel, tel qu’il est. La conviction que les physiciens accèdent à la réalité immédiate des choses est très prégnante.  

            Depuis début février ce travail de résistance s’est affaibli étant donné l’accumulation de résultats cohérents qui mettent en évidence l’impossibilité de la prédiction et de l’insertion de ces nouvelles observations dans le cadre du Modèle Standard officiellement accepté par la communauté scientifique.

            Depuis Avril, des revues scientifiques officielles acceptent de publier des articles supervisés par d’autres scientifiques qui semblent contredire le modèle standard ou au moins interroger sa validité. Ci-après, je cite quelques extraits d’articles très récent où il est clairement signifié que l’émergence d’une nouvelle conception de l’univers s’avère nécessaire. Les versions originales en anglais sont renvoyées en note de bas de page.  

1 Une récente étude publiée dans la revue Nature Astronomy (le 14/04/2023) « pourrait bouleverser notre compréhension de l'univers et remettre en question les théories cosmologiques dominantes. Mike Boylan-Kolchin, professeur agrégé d'astronomie à l'Université du Texas à Austin, a découvert six galaxies beaucoup trop massives grâce au télescope spatial James Webb (JWST). Ces galaxies semblent contredire le modèle cosmologique actuellement en vigueur, le paradigme de l'énergie noire et de la matière noire froide (ΛCDM) (sic). »

2 Premiers résultats sur l’Univers primitif[1]

Nature Astronomy volume 7, page505 (2023), citer cet article publié le 18 mai.

« Les rapports sur quatre galaxies datant de l’époque où l’Univers a 2% de son âge actuel sont aussi excitants que déroutants, ce qui amène les scientifiques à remettre en question nos modèles de formation et d’évolution des galaxies.

Un flot d’articles est apparu sur arXiv rapportant des galaxies à décalage vers le rouge de 11 à 20. On pensait qu’il s’agissait des premières galaxies jamais imagées, et les niveaux de luminosité inattendus suggéraient qu’elles pourraient être jusqu’à dix fois plus massives que ce que les modèles cosmologiques prédisaient. Mais comment sont-elles devenues si massives et si rapidement après le Big Bang ? ΛCDM est-il faux ?... JWST surpasse les attentes. La sensibilité accrue de ses instruments signifie qu’il peut être nécessaire d’inclure une partie d’une physique d’ordre supérieur qui est omise des modèles et des simulations pour reproduire les nouvelles observations. Il s’agit d’un progrès scientifique rapide, avec des avancées mensuelles – sinon hebdomadaires – qui interrogent notre compréhension du cosmos et cherchent des réponses à de nouvelles séries de questions à l’aide d’outils innovants. Une chose est certaine, d’autres surprises du JWST nous attendent : l’avenir de l’étude de notre passé est très prometteur. »

 

3 Les galaxies « trop massives » de James Webb pourraient être encore plus massives. Publié sur le site « Phys.Org » le 17 mai 2023[2]

« D’après notre modèle de concordance actuellement accepté de la structure et de l’évolution de l’univers, le soi-disant modèle ΛCDM, il n’aurait tout simplement pas dû avoir le temps de former autant d’étoiles. Bien que l’ΛCDM ne soit pas un Saint Graal indestructible, il existe de nombreuses raisons d’attendre en revendiquant un changement de paradigme : les époques mesurées auxquelles nous voyons les galaxies pourraient être sous-estimées (sic). »

4 Dans Nature le 22 Mai 2023[3]

« L’assemblage extrêmement rapide des premières galaxies au cours du premier milliard d’années de l’histoire cosmique est un défi majeur pour notre compréhension de la physique de la formation des galaxies. L’avènement du JWST a exacerbé ce problème en confirmant l’existence de galaxies en nombre significatif dès les premières centaines de millions d’années. »

            A mon avis, il faut prévoir que l’exacerbation conduira à l’obligation de dépasser l’actuel modèle standard de la cosmologie et, en conséquence, de changer de référentiel standard pour interpréter les événements et les objets célestes que nous fait voir JWST. Il y aura encore beaucoup d’inertie dans l’air avant de franchir le Rubicon car la clé de voûte de ce modèle standard c’est l’hypothèse du Big Bang. Cette soi-disant origine de l’univers a une vertu anthropologique. Toutes les cosmogonies qui jalonnent l’histoire de l’humanité pourvoient l’être humain d’une origine. Nous n’avons pas échappé à cette invention d’une origine temporelle existentielle qui aurait surgi, dans un extraordinaire Big Bang, il y a 13 milliards 800 millions d’années. Alors, il faut bien admettre que cette invention a une fonction nécessaire, comme toutes celles qui l’ont précédée. Ma thèse est la suivante : l’être humain a besoin d’une origine temporelle pour disposer d’un point d’appui à partir duquel il peut déployer sa pensée, quitte à ce que cette pensée déployée ayant fructifié, après coup, annule le besoin de ce point d’appui spécifique, le reporte pour une nouvelle référence temporelle ou s’accorde un nouveau référentiel permettant un redéploiement fertile de la pensée.

Je prévois que cette capacité de redéploiement surgira avec le changement de paradigme propre à la cosmologie, qui certes se fait attendre, mais finira par s’imposer grâce à l’accumulation des images préalablement et théoriquement inattendues que nous fait parvenir JWST. On n’oublie pas que jusqu’à présent les publications concernent les images des galaxies précoces de Z = 10 à 15, alors qu’il y en a en stock jusqu’à Z = 20 (150 millions d’années après le Big Bang). Les articles les concernant ne sont pas officiellement publiables parce qu’il y a des suspicions de validations intellectuelles peut-être légitimes mais il y a aussi des interrogations à propos de la sensibilité si extrême des caméras et des spectrographes embarqués dans JWST à 1 million 500 000 km de chez nous sur la planète terre. Un tri est en cours de réalisation entre ce qui est scientifiquement authentifiable et ce qui ne peut pas l’être, étant donné l’état de l’art du décryptage de ces images.

Il faut accepter l’idée qu’il n’est pas possible d’abandonner l’hypothèse cosmogonique du Big Bang, sans qu’il soit proposé un nouveau paradigme. A part l’hypothèse de l’émergence de l’univers suite à un rebond qui pourrait retenir l’attention des scientifiques, je n’en connais pas d’autres.

Proposition d’un nouveau paradigme substitutif à celui du Modèle Standard de la Cosmologie.

Depuis 2014, dans mes articles sur Overblog, j’évoque la dynamique de la découverte des nouvelles connaissances de la nature de la façon suivante « Au sein d’une éternité, parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance de l’Univers… ». Cet énoncé directeur et rituel, je l’ai repris pour qualifier le chapitre 4 du mémoire, publié le 5 Août 2022 et le 12 Août. En effet, depuis la première énonciation en 2014, je l’ai repris dans d’autres articles au cours des années suivantes, convaincu, à chaque fois, que cela correspondait au mouvement de notre pensée conquérante depuis l’origine de l’émergence du ‘Sujet apte à penser l’organisation de la nature et partant apte à se penser à sein de celle-ci’.

Au sein d’une éternité : Je propose de considérer que l’éternité soit le contexte au sein duquel le physicien mène sa quête. Elle est un substitut à l’ambition de la volonté inaccessible d’accéder à la connaissance universelle immédiate comme par exemple, le fut entretenue, la nommée loi universelle de la gravitation de Newton, pendant plusieurs siècles.

Parmi tous les possibles : Lorsque les physiciens font une découverte originale, ils doivent considérer qu’ils ont obtenu ce résultat, qui les hisse sur un nouveau belvédère, parce que leurs connaissances présentes a permis d’inférer la conception intellectuelle de celui-ci. Mais ils doivent rester en éveil dans le champ de connaissances en question car une découverte originale n’est qu’une étape et elle ouvre à des voies multiples possibles, comme cela fut pour l’accès à cette étape. Exemple, les trous noirs sont devenus des possibles scientifiquement considérés depuis deux dizaines d’années et demie en quittant le statut d’objets inconsidérés. Rétroactivement pensons aux pas de géant franchis dans le champ de la connaissance de notre univers. Il en est de même des exoplanètes dont la première fut confirmée en 1996 et maintenant on peut imaginer effectivement le nombre probable, en milliards, de celles-ci dans notre galaxie. Restons aux aguets à l’égard des possibles potentiels en perspective

                Anthrôpos ne cesse de creuser sa connaissance de l’Univers : Au sein du bain de l’éternité, depuis son émergence, Anthrôpos ne cesse d’être mobilisé par la lumière, qui le précède, de la nécessité de savoir là où il est. Cette mise en mouvement enclenche la scansion du temps. Là est son temps. Toujours une lumière le précédera. A 13 milliards 800 millions d’années se situe actuellement la pointe extrême de ce que le sujet pensant sait. Le savoir ultime qui sera égal au savoir universel sera toujours au-delà.

J’ai la conviction que ce paradigme devrait être retenu pour franchir un véritable cap de la compréhension du monde dans lequel nous habitons. Plus qu’un paradigme, c’est un nouveau référentiel que je propose sur lequel notre pensée scientifique pourrait se déployer pour parcourir de nouveaux domaines de connaissances du monde dans lequel nous sommes. Vis-à-vis des Réalistes ma proposition dresse un obstacle car Anthrôpos est effectivement présent. Ils devront se rendre à l’évidence qu’ils devront procéder à une véritable révolution conceptuelle.

 

[1] Early results on the early Universe

Nature Astronomy volume 7page505 (2023)Cite this article publié le 18 mai

Reports of four galaxies from when the Universe was 2% of its current age are as exciting as they are puzzling — leading scientists to question our galaxy formation and evolution models. A flood of papers appeared on arXiv reporting galaxies at redshift 11 to 20. These were thought to be the earliest galaxies ever imaged, and the unexpected brightness levels suggested they could be up to ten times more massive than cosmological models would predict. But how did they grow so big and so quickly after the Big Bang? Is ΛCDM wrong?... JWST is outperforming expectations. The increased sensitivity means that some higher-order physics left out (exclue) of models and simulations may need to be included to reproduce the new observations. This is scientific progress at speed, with monthly — if not weekly — advances that interrogate our understanding of the cosmos and seek answers to new sets of questions using innovative tools. One thing we know for certain, more surprises from JWST are in store: the future of the study of our past is very bright.

[2] James Webb's 'too massive' galaxies may be even more massive. “Phys.org”, May 17 2023

From our currently accepted concordance model of the structure and evolution of the universe, the so-called ΛCDM model, they simply shouldn't have had the time to form so many stars. Although ΛCDM is not a holy indestructible grail, there are many reasons to wait claiming a paradigm shift: The measured epochs at which we see the galaxies could be underestimated.

 

[3] In Nature le 22 Mai 2023

The extremely rapid assembly of the earliest galaxies during the first billion years of cosmic history is a major challenge for our understanding of galaxy formation physics (1; 2; 3; 4; 5). The advent of JWST has exacerbated this issue by confirming the existence of galaxies in significant numbers as early as the first few hundred million years (6; 7; 8).

 

Partager cet article
Repost0
12 mai 2023 5 12 /05 /mai /2023 11:52

La physique est une science de l’observation, en conséquence....

J’ai déjà esquissé l’idée qu’à l’échelle de la mécanique quantique une frontière s’estompait entre les phénomènes naturels observés et inférés et le sujet pensant qui les observe et les décrypte. Cette esquisse je l’ai envisagée plus particulièrement dans l’article du 29/07/2022 dans une partie du chapitre : ‘Dialogue imaginaire avec Carlo Rovelli’, page 15.

Je propose de considérer que l’étude et la conception de la physique classique offre le confort de la pensée d’une description physique du monde hors de soi, ce confort conduit tout droit à l’affirmation d’une objectivité certaine. Mais avec l’avènement de la mécanique quantique nous devons considérer que nous avons non seulement atteint la fin du confort de cette pensée mais que celui-ci est irréversiblement aboli. Car la mécanique quantique rend compte aussi de l’organisation et du fonctionnement du monde intérieur constitutif de l’être humain. Au plus bas niveau, pensons à la chimie quantique, à un niveau constitutif plus élevé, considérons la biologie quantique, au stade le plus élevé de ce qui fait de nous des êtres humains se développe exponentiellement le domaine des neurosciences. Par exemple dans ce domaine, des propriétés et des méthodes spécifiquement quantiques permettent de modéliser des aspects de la dynamique du fonctionnement du cerveau comme indiqué ci-dessus. Grâce à la physique quantique nous disposons d’outils, de concepts, de méthodes, appropriés pour accéder à la compréhension et à la description du réel de l’humain. Avec la mécanique quantique une place est attribuée à l’observateur, celui-ci n’est plus extérieur à la théorie qui décrit le monde. La frontière jusque-là, apparemment, infranchissable entre la nature et celui qui la regarde et la pense n’a plus de raison d’être.

En effet le système central de réception de l’observateur physicien que nous sommes, c’est-à-dire notre cerveau, apparaît régi par des lois manifestes du monde quantique. Dans ce cas comment pouvons-nous différencier l’observation en toute certitude ce qui est de l’ordre du phénomène extérieur provoqué et étudié de l’ordre de la réaction phénoménal interne, propre, provoquée chez l’observateur. Dans ce cas on ne peut pas exclure qu’il y ait comme un enchevêtrement entre le système extérieur qui émet et le système récepteur qui l’identifierait.

            Je propose de prolonger la réflexion sur ce sujet, maintenant que j’ai pris connaissance de l’article suivant : « Est-ce que les effets quantiques jouent un rôle dans la conscience ? » sur le site ‘Physics World’. En introduction Betony Adams et Francesco Petruccione qui explorent ce domaine en développement de recherche de la biophysique quantique considèrent que Le rôle des biophotons dans le cerveau est un thème de recherche croissant en neurobiologie – et là où il y a des photons, il pourrait y avoir de la mécanique quantique.

            En effet l’application de la théorie quantique dans un contexte biologique a eu le plus de succès en ce qui concerne la photosynthèse, mais la recherche sur la boussole aviaire, l’olfaction, les enzymes ainsi que l’ADN suggèrent également que les effets quantiques pourraient être impliqués plus généralement dans le fonctionnement des organismes biologiques.

            La biologie quantique se concentre sur les effets quantiques clés – ces phénomènes quantiques qui semblent défier notre imagination classique, tels que les états de superposition, la cohérence, l’effet tunnel et l’intrication

Le cerveau est constitué de cellules nerveuses – des cellules allongées constituées d’un corps cellulaire, de dendrites et d’axones. Grâce au schéma ci-dessous on apprécie qu’il y ait une interaction discrète systématique de neurone à neurone qui se joue au niveau physique de la ‘fente synaptique’.

 

 

figure 1

(Traduction réalisée par mes soins. Version originale ci-après.)

1 la structure et la fonction d’une cellule nerveuse.

Les effets quantiques dans le cerveau pourraient être mieux formulés comme des effets quantiques dans les processus neuronaux, dans lesquels ce diagramme d’une cellule nerveuse sert d’illustration. Les cellules nerveuses sont constituées de trois éléments principaux – le corps cellulaire, qui contient les différents organites ; les dendrites, qui reçoivent des signaux entrants ; et l’axone, qui transmet ce signal. On pense que les signaux sont transmis entre les nerfs là où l’axone terminal d’une cellule nerveuse rencontre les épines dendritiques de la suivante, à la fente synaptique. Lorsqu’un signal se déplace à travers une cellule nerveuse et atteint la terminaison de l’axone, il déclenche la libération de neurotransmetteurs dans la fente synaptique. Les neurotransmetteurs se lient aux récepteurs de la membrane neurale des épines dendritiques, ouvrant ainsi les canaux ioniques et modifiant ainsi le potentiel membranaire de la cellule suivante, en transmettant le signal.

Les constituants nerveux importants pour une discussion sur les effets quantiques sont les microtubules, qui sont formés à partir de la polymérisation d’une protéine connue sous le nom de tubuline, et les mitochondries, souvent décrites comme les centres d’énergie de la cellule. Les microtubules donnent une structure au cytosquelette cellulaire et sont nécessaires à la division cellulaire ainsi qu’au mouvement des protéines motrices, un groupe de protéines qui convertit l’énergie chimique en énergie mécanique. Les mitochondries utilisent des chaînes de transport d’électrons et des gradients de protons pour créer de l’adénosine triphosphate (ATP), qui alimente les processus biologiques. Elles sont également proposées comme étant le site principal pour la production de biophotons.

 

1 The structure and function of a nerve cell 

Quantum effects in the brain might be better phrased as quantum effects in neural processes, for which this diagram of a nerve cell serves as illustration. Nerve cells consist of three main elements – the cell body, which contains the various organelles; dendrites, which receive incoming signals; and the axon, which transmits this signal. It is thought that signals are passed between nerves where the axon terminal of one nerve cell meets the dendritic spines of the next, at the synaptic cleft. As a signal moves through a nerve cell and reaches the axon terminal, it triggers the release of neurotransmitters into the synaptic cleft. Neurotransmitters bind to receptors on the neural membrane of dendritic spines, opening ion channels and thus altering the next cell’s membrane potential, passing along the signal.
Nerve constituents that
are important to a discussion of quantum effects are the microtubules, which are formed from the polymerization of a protein known as tubulin, and the mitochondria, often described as the energy centres of the cell. Microtubules give structure to the cellular cytoskeleton and are necessary for cell division as well as the movement of motor proteins, a group of proteins that convert chemical to mechanical energy. The mitochondria use electron transport chains and proton gradients to create adenosine triphosphate (ATP), which powers biological processes. They are also the proposed primary site of biophoton production. (Illustration by Angela Illing. Reproduced from AVS Quantum Sci. 2 022901, with the permission of the American Vacuum Society).

 

            Il est absurde et inapproprié de conclure : puisque notre cerveau a en partie et peut-être globalement un fonctionnement discret-quantique, alors on aurait identifié la cause de notre interprétation quantique des phénomènes naturels à l’échelle de l’infiniment petit. Evitons de conclure aussi rapidement qu’il y ait une telle détermination. La mécanique quantique est une théorie qui a été élaborée sur des décennies et elle est encore discutée. Elle est le fruit d’une pensée collective. Elle fut controversée et débattue par des grands penseurs-physiciens précurseurs et cela a contribué à ce qu’elle conduise à alimenter une fontaine inépuisable d’applications, bien que concomitamment nous soyons confrontés à des énigmes toujours présentement insolubles.

            Par exemple l’énigme de l’intrication a émergé grâce à une expérience de pensée. Or la pensée se coule dans les mots, elle est dépendante du langage. Le langage n’est pas dans ces fondements une production du cerveau. Il n’existe pas d’aire de création du langage dans notre cerveau par contre il existe de multiples aires fonctionnelles et coordonnées de circulation du langage, ainsi que des aires de mémorisation du langage parlé, écrit, au cours des apprentissages qui n’ont pas de raison d’être limités par une période au cours d’une vie. A l’origine du langage c’est le besoin d’établir une relation avec l’autre semblable, relation intentionnelle, par exemple échanger des savoir-faire relatifs à la taille du silex. Selon la théorie la plus crédible aujourd’hui, il faut remonter très loin en arrière du temps c’est-à-dire il y a 2000 000 d’années pour concevoir une origine du langage. « Pour les archéologues, les techniques employées par Homo erectus, comme la fabrication des outils bifaces ou l’entretien d’un feu, impliquent des aptitudes mentales et sociales qui utilisent une forme de langage articulé. Leur réalisation requiert des capacités d’apprentissage et de compréhension qui reposent sur un mode d’expression. En quelque sorte on pourrait attribuer une origine gestuelle du langage. La vocalisation, geste avancé de notre appareil vocal, en serait la résultante. Pour de nombreux scientifiques, une forme de pensée associative a émergé dès les premiers stades de l’évolution de l’homme. » voir article dans ‘Sciences, Hors-Séries, décembre 2022. Page 40 ‘Quelles origines pour le langage’.

            Maintenant que nous avons de bonnes raisons de considérer que notre connaissance de la mécanique quantique et son interprétation n’est pas déterminé par la structure et le fonctionnement de notre cerveau, si elle l’était ce serait secondairement, nous disposons donc du recul souhaitable pour tenter de décrypter propriétés et phénomènes qui nous interpellent depuis l’origine de cette mécanique propre au traitement physique de l’infiniment petit. Je pense plus particulièrement à la problématique : onde ou objet/onde et objet.

            Sur cette problématique, j’ai fait des propositions d’une expérience type qui permettrait selon mon hypothèse de mettre en avant une réponse circonstanciée. Sur mon blog ci-jointes les différentes versions publiées : « D’infinis précautions », le 27/08/2012 ; « l’Etrangeté quantique, une illusion ? » le 11/01/2014 ; « Appel d’offres » le 05/08/2017 ; « Synopsis » le 18/12/2017. Ci-après un extrait de synopsis :

Pour moi cette étrangeté n’est pas dans la nature mais est la conséquence d’une détermination qui est véhiculée par l’intelligence humaine et qui doit être objectivement mise en évidence pour être levée. Selon mon hypothèse il existe un chemin par la lever en formulant l’hypothèse que l’espace-temps est un propre de l’homme. Cette hypothèse que l’espace-temps n’est pas donné dans la nature peut être mise à l’épreuve dans l’expérience suivante que je résume ainsi :

L’expérience doit comprendre une équipe mixte de physiciens et de neuroscientifiques et elle analyse les résultats de trois catégories de témoins de l’expérience : des physiciens éduqués à la mécanique quantique (1), des physiciens éduqués seulement à la physique ondulatoire (2), des personnes non éduquées à la physique (3). Avec ces trois catégories on étudie la réceptivité cérébrale des différentes situations créées par l’expérience. Ces différents témoins sont des observateurs des résultats alternatifs observés dans un interféromètre (type Mach-Zender, ou type fentes d’Young) suivant qu’ils aient une connaissance complète ou pas de connaissance de la trajectoire spatio-temporelle suivi par l’objet quantique qui circule dans l’interféromètre. Si mon hypothèse est correcte les images cérébrales des trois groupes témoins devraient être différentes et le groupe (3) ne devrait pas voir les franges d’interférences quand il y a ignorance de la trajectoire spatio-temporelle car la physique ondulatoire résulte d’une éducation donc elle n’est pas inférée naturellement, alors que la trajectoire spatio-temporelle du point fait partie de notre patrimoine cérébral et est une référence acquise déterminante depuis peut être de l’ordre de 2000.000 d’années.

Quelques publications récentes peuvent être considérées comme compatibles avec mon hypothèse basique (voire illustrative) : dans elife[1] : « Our brains prefer invented visual information to the real thing » citons un commentaire de l’auteur : « Le cerveau fait plus confiance à sa propre information inventée qu’à ce qu’il voit à l’extérieur dans le monde. » Citons encore l’article[2] : « Comment la ruse quantique peut brouiller cause et effet », dans cet article les auteurs (chercheurs de l’Université de Vienne) nous disent : « Nous réalisons maintenant qu’en physique quantique, ce n’est pas exactement ce que vous faites qui compte, mais ce que vous savez. » Enfin dans le livre de Buonomano on peut lire : « Notre aptitude à nous saisir de la notion du temps a été acquise grâce à une cooptation par les circuits neuronaux qui développent la navigation, la représentation et la compréhension de l’espace… ainsi l’essentiel de notre bagage neuronal provient d’animaux qui vivent, sur le plan cognitif, dans le présent immédiat. »

Reprenons le commentaire suivant : « « Nous réalisons maintenant qu’en physique quantique, ce n’est pas exactement ce que vous faites qui compte, mais ce que vous savez. » Ici, il est légitime de considérer que le ‘sujet pensant’ est placé au centre de l’univers et c’est lui, avec son bagage intellectuel toujours en évolution déterminé par ses connaissances récentes acquises, qui détermine la connaissance nouvelle d’aujourd’hui qu’il est possible d’inférer parmi toutes les possibles. Dans la série d’articles : « L’être humain est une réalité de/dans l’univers » que j’ai publiée de Juin à Août 2022 c’est exactement cette thèse que j’ai tenté de justifier.

A cette occasion il est possible de se rendre compte de l’inertie de la pensée scientifique des physiciens dominée par la pensée réaliste car ces cinq dernières années, cette publication n’a été que sporadiquement citée. Le refus d’attribuer un intérêt scientifique à la conclusion de l’équipe viennoise, d’une façon vraiment inattendue, je l’ai mesuré en dialoguant avec un physicien réputé à Genève qui m’a répliqué, après avoir sollicité son avis sur celle-ci, « Ce n’est que de la pub ! » (sic).

En m’appuyant sur l’affirmation : ce qui compte en physique quantique c’est ce que l’on sait, je propose d’exploiter celle-ci pour confirmer ma conception de la propriété de l’intrication. En effet à l’instant de la réalisation de l’intrication pendant un Δt < 10-26,29s, le réseau de neurones activé par cette observation spécifique ne peut enregistrer qu’un état de superposition des deux objets en question. C’est à cause du Δt, correspondant au point aveugle rédhibitoire de l’intelligence (voir articles du 2/11/2012 et 22/01/2019), que l’observateur ne peut pas distinguer qu’il y a deux objets distincts embarqués dans une seule et même fonction d’onde. Comme l’a axiomatisé N. Bohr la fonction d’onde de l’état de l’intrication des objets est un état non séparable. Par la suite c’est le réseau de neurones impliqué dans l’opération de la mesure qui détermine la valeur respective de la grandeur intriquée de chacun des objets (peut-être aussi la force de l’intrication si elle existe comme certains l’infèrent). Par cette opération l’intrication est démêlée mais il n’y a pas pour autant de la part de l’observateur la possibilité de différencier un objet de l’autre puisqu’aucune trajectoire spatiale spécifique ne peut être attribuée à l’un ou à l’autre. L’indifférenciabilité installée dès l’origine perdure. C’est pourquoi survient le problème du principe de la non-localité ou encore problème de la causalité locale.

           

 

[1] In elife, DOI: 10.7554/eLife.21761

[2] Dans le Journal Nature, volume 546, pages 590-592

Voir les commentaires

Partager cet article
Repost0
27 février 2023 1 27 /02 /février /2023 15:46

Bouleversement de paradigme dans la cosmologie.

Le moment est proche, celui qui nous obligera de constater que les occultations, les opérations de rapiéçages, du Modèle Standard de la Cosmologie (MS de la Cosmologie) sont devenues définitivement inopérants. En effet la confrontation de plus en plus tendu entre ce que permet de prédire théoriquement le ‘MS de la Cosmologie’ avec ce que nous observons, entre autres, via le James Webb Télescope Spatial, impose déjà une sérieuse révision de ce qui est prédit à propos de l’univers primordial. Ces dix dernières années, j’ai assumé solitairement l’idée qu’il fallait procéder à une révision voire bien plus, c’est-à-dire à une refondation qui s’émancipe de l’hypothèse du Big Bang.

Encore récemment, je l’ai évoqué dans l’article du 07/02/2023 : « Le bornage temporel de l’univers par le Big Bang est un verrou qui devrait se dissoudre grâce à une compréhension de la rigidité conceptuelle dans laquelle nous le pensons. L’hypothèse du Big Bang a eu son utilité parce que l’être humain a besoin d’une origine pour poser sa pensée. Déjà avant la pensée grecque il en était ainsi. A partir de là, elle peut se déployer et être créatrice au point de légitimer le dépassement de l’origine sur laquelle elle a pris appui. Quitte à ce qu’une autre origine, un autre début temporel plus profond, soit conçu, pour favoriser le déploiement d’une pensée plus riche. La théorie du rebond en est, par exemple, un symptôme. »

Il est temps de vaincre l’inertie intellectuelle scientifique redoutable qui s’oppose à prendre en compte d’autres conceptions possibles de l’univers à partir de ce que les différents télescopes, qu’ils soient dans l’espace ou basés sur la planète terre, nous communiquent comme informations.

Oui ! il est temps de prendre en compte sérieusement d’autres possibles comme je l’ai préconisé à maintes occasions. J’en ai proposé une synthèse en Août 2022 en 2 parties le 04 et 08/08, ci jointe, ci-dessous.  

Au sein d’une éternité, parmi tous les possibles, …

         L’énoncé directeur et rituel qui rend compte au plus près de la conviction profonde qui m’habite pour aller de l’avant dans la conquête de connaissances, je la formule ainsi : « Au sein d’une éternité, parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance de l’Univers… » Ce sont tous les possibles en perspective qui ne cessent d’attiser ma curiosité. En ce qui concerne notre connaissance actuelle de notre univers, celle-ci n’est ni négligeable, ni finale, loin de là. A ce propos ce qui ne cesse pas de m’animer c’est de suivre et comprendre les différents cheminements de la pensée, reconnus au sein de la communauté scientifique, qui à tâtons aboutissent à un carrefour où se présentent plusieurs voies possibles du développement de la connaissance. Quelle sera celle qui en particulier conduira à la consolidation d’un savoir déjà acquis et suscitera la projection de ponts nouveaux vers des nouveaux questionnements inédits ? Nous sommes probablement à l’aube d’une situation de cette nature.

         L’histoire la plus contemporaine et standard de l’avènement de notre univers fait intervenir un temps zéro, ‘top départ’, d’un formidable Big Bang à l’origine de l’engendrement de notre univers qui se déploie depuis 13 milliards 800 millions d’années. Ce formidable Big Bang ce serait produit à partir d’un état primordial de vide absolu qui ne peut être situé dans l’espace ; d’un point de vue cosmologique il est par principe insituable puisque tous les lieux de l’espace se valent. Ce scénario a pris corps dans les années 1970, grâce à l’obtention en 1964, du fait d’un grand hasard, d’une première image de l’univers en expansion, située 380 000 ans après le Big Bang. Cette image a pu être décryptée comme telle parce qu’un scénario plus ou moins semblable avait été globalement, préalablement, théoriquement pensé durant les années 1950 par des physiciens qui avaient pour leader Georges Gamow (1904-1968).

Rapidement, le scénario du Big Bang a été étayé grâce à un grand nombre d’observations scientifiques et conforté par des justifications théoriques fournies essentiellement grâce aux équations de la Relativité Générale. Pour concevoir un modèle standard de la cosmologie, sans discontinuité historique du déploiement de notre univers à partir du temps zéro, les physiciens ont été amenés à concevoir des hypothèses qui, en l’état de nos connaissances actuelles, sont encore légitimes pour assurer une continuité temporelle qui soit cohérente. C’est la période primordiale : du temps zéro[1] jusqu’à de l’ordre du premier milliard d’années après le Big-Bang, qui fait l’objet de ces extrapolations théoriques qui prennent appuis sur des considérations puisées, entre autres, au sein du corpus de la mécanique quantique et de la physique nucléaire.

Aujourd’hui, la conviction scientifique dominante est de considérer que nous avons effacé le risque de concevoir une cosmogonie de plus, conception inhérente à l’histoire du développement de la curiosité humaine pour ce qui est des ‘Cieux’. La cosmologie est dorénavant considérée comme une science à part entière et le flux d’échanges d’informations et d’hypothèses est très intense au sein de la communauté des cosmologues et des astrophysiciens. La quantité d’instruments d’observations et de mesures sur notre planète et dans l’espace nous indique la mesure de l’engouement de l’humanité pour savoir et encore découvrir de ce que notre Univers serait constitué et mieux appréhender ses dimensions spatiale et temporelle.

Le dernier télescope spatial expédié dans le ciel le 25 décembre 2021, le ‘James Webb Space telescope’ (JWST), représentant un investissement de l’ordre de 10 milliards de dollars, donne une appréciation du désir, et de la nécessité existentielle, de toujours savoir de la part de l’être humain, ce qu’il y a dans l’au-delà de l’espace-temps déjà saisi par l’observation et/ou intellectuellement investi sur un plan purement théorique. J’éprouve souvent l’envie d’établir un lien entre ce désir de savoir et ce que nous pouvons observer chez un bébé commençant à se déplacer en rampant sur le ventre ou à quatre pattes qui a l’énergie de la curiosité d’aller prospecter cet endroit qu’il n’a pas encore eu l’occasion d’aller voir par lui-même et l’enthousiasme exprimé par les astrophysiciens quand il y a la découverte d’un au-delà dans une partie de l’espace-temps de l’univers jamais encore observée, ce qui souvent provoque une jubilation générale.

         Depuis les années 1980, jusqu’à nos jours, les physiciens, les astrophysiciens, les cosmologues, les astronomes, disposent, pour leur investissement intellectuel spécialisé dans leurs différents domaines, d’un référentiel Univers : commun et globalement crédible pour enrichir et perfectionner, grâce à leurs contributions collectives, ce que l’on désigne : le Modèle Standard de la Cosmologie. Cette situation confortable a perduré tout au long d’une période pendant laquelle les observations et les enrichissements théoriques concomitants ont renforcé l’idée que nous avions élaboré une représentation cohérente de notre Univers auquel nous pouvions attribuer le statut d’un modèle standard.

Le processus de consolidation de la conception standard de l’univers a été obtenu au prix de l’enjambement d’incertitudes, accumulées et laissées en suspens, du fait de l’impossibilité d’établir une concordance entre des composants hypothétiques de notre univers avec des observations certifiantes. Il en est ainsi en ce qui concerne l’hypothèse de l’existence de matière noire à laquelle s’ajoute l’hypothèse de l’énergie sombre. Toujours est-il que cela représente 95% de ce qui composerait notre univers.  De plus il ne faut pas oublier que la thèse du Big Bang est toujours conjecturée. Jusqu’à présent nous n’avons toujours pas observé la moindre trace qui validerait cette hypothèse.

En quelques phrases j’ai pointé les failles qui font que notre connaissance de l’univers est fragile, mais le fait que l’être humain évolue au sein d’un univers n’a pas de raison d’être remis en cause. L’existence de l’univers étant assumée, sur la base de cette certitude, la pensée des scientifiques, s’est enrichie, s’est diversifiée jusqu’aux confins de nos diverses capacités actuelles d’auscultations concrètes et abstraites. Dans cette diversité, un questionnement axé sur le pourquoi et le comment une humanité pensante a pu émerger au sein d’un univers à l’origine purement matériel a pris une ampleur quasiment immédiate. Anthropos ne cesse de creuser… en conséquence la question existentielle envahissante s’est rapidement imposée : « Pourquoi l’univers physique, matériel, dont nous avons accès à l’observation, la compréhension, est-il compatible avec notre existence, en tant qu’êtres vivants et percevants ? »

Etant données les valeurs des grandeurs physiques fondamentales, invariantes, que nous déclarons universelles, recensées au sein de l’univers et qui sont indépendantes, les unes, des autres, en un nombre limité (de l’ordre de 26), quel est ce hasard et ces circonstances qui ont permis l’émergence de la vie humaine ? Question taraudante, celle correspondant au chapitre du grand livre du questionnement scientifique avec l’intitulé : « Pourquoi un tel Ajustement Parfait de l’Univers (Fine-Tuning Universe) : « Pourquoi l’univers semble avoir les paramètres adaptés pour accueillir la vie intelligente ? » Je cite Stephen Hawking (1942-2018) : « Les lois de la science, tels que nous les connaissons à présent (sic), contiennent plusieurs nombres fondamentaux, comme celui de la charge électrique de l’électron et du rapport des masses du proton et de l’électron… le fait remarquable est que les valeurs de ces nombres semblent avoir été très finement ajustées pour rendre possible le développement de la vie. » 

Dans un premier temps, ces dernières décennies, les physiciens ont constaté, en fonction des certitudes scientifiques acquises, que si les valeurs de certains paramètres physiques étaient légèrement modifiées, voire très légèrement, cela aurait empêché la formation des composants nécessaires à l’émergence de la vie dans l’univers. La modification de la masse des particules élémentaires et/ou des constantes de couplage des forces fondamentales n’auraient pas favorisé la formation des planètes, des étoiles, des galaxies. Or, étant donné que nous sommes en premier lieu des êtres de la nature, ce qui veut dire que nous sommes le fruit d’un assemblage des poussières d’étoiles, des explosions des supernovas, etc.… et que cet assemblage est ordonné, entre autres, par exemple, grâce à la constante de couplage de l’interaction électromagnétique qui détermine la force du lien entre l’électron et le proton de l’atome d’hydrogène, atome premier du tableau de Mendeleïev (contenant actuellement 120 éléments), a pour valeur, sans unité :  1/137. Pourquoi cette valeur, d’où vient-elle ?

         A ce stade d’une démarche scientifique qui semble si rigoureuse, si pure, devoir faire appel à une sorte d’action divine, au dessein intelligent, pour rendre compte de l’existence de ces valeurs si particulières au sein de notre univers est difficilement acceptable. Il n’est pas souhaitable de s’en remettre au divin pour expliquer pourquoi les conditions physiques de l’émergence de l’univers et de son déploiement semblent avoir été taillées avec une finalité qui aurait été en faveur de l’émergence de l’existence humaine. Pour s’approcher de la réponse, s’il y en a une, il faut donc continuer à suivre une démarche scientifique. 

         Une de ces démarches scientifiques, qui peut être considérée à mes yeux comme probante, a été entreprise par S. Weinberg (1933-2021) qui a été le premier à affirmer en 1997 que l’existence du multivers était de l’ordre du probable : « On pouvait dire que si on avait une théorie fondamentale qui prédisait un grand nombre de Big Bang individuels avec des valeurs variables de l’énergie noire et une distribution de probabilité intrinsèque pour la constante cosmologique qui est plate – qui ne distingue pas les valeurs les unes des autres – alors, les êtres vivants devraient s’attendre à voir exactement ce qu’ils voient ». Il s’est trouvé que la théorie des cordes fournissait exactement le genre de loi microscopique prédictive d’un grand nombre de Big Bang dont Weinberg avait besoin. Il est important à ce stade de préciser que la théorie exploitée par S. Weinberg, et celle des cordes ne sont pas le fruit d’un même paradigme, loin s’en faut. Pourtant ces deux théories s’épaulent mutuellement et signent leur utilité respective ainsi que leur pertinence pour annoncer une probabilité significative du multivers. En conséquence l’idée du multivers est une idée qui procède d’un raisonnement scientifique standard sans pour autant lui accorder le statut d’une vérité qui serait finalement exhaustive.

La théorie du multivers est ainsi née. Parmi la multitude d’univers parallèles, chacun ayant des paramètres physiques différents, il n’est pas surprenant que les êtres humains aient évolué dans un de ceux-ci dans lequel les conditions de son habitabilité sont réunies. Ainsi, l’intrigue de ‘l’Ajustement Parfait de l’Univers’ s’évapore. L’hypothèse de l’existence d’autres univers plus ou moins probable au nôtre n’est plus tabou. Jusqu’à présent des preuves de l’existence d’au moins un de ces univers parallèles n’ont pas été apportées, à part Roger Penrose (prix Nobel 2021 pour ses travaux sur les trous noirs) qui le conjecture en auscultant la première image de l’univers 380000 ans après le Big Bang de notre univers.

Depuis que la théorie du multivers éventuel s’est imposée dans le paysage scientifique, d’autres chercheurs se sont emparés de la problématique de la pertinence de ce soi-disant ‘ajustement parfait de l’univers’ nécessaire à la présence humaine dans l’univers. Une réévaluation de cette problématique a été récemment réalisée et des études très récentes indiquent que les arguments de notre univers finement ajusté sont illusoires. La vie peut prendre des formes différentes de celle particulière considérée a priori et naïvement. En effet, si on fait varier simultanément plusieurs paramètres physiques cela allège les contraintes qu’imposent l’ajustement parfait. Cela suggère que dans l’univers, la vie peut surgir dans une marge de circonstances plus large que ce qui a été premièrement pensé. Par exemple, dans un premier long temps, il a été considéré que des modifications légères du rapport des forces qui gouvernent le noyau atomique ou bien des modifications légères de quelques constantes fondamentales de la nature, cela remettaient en cause la formation du carbone dans les étoiles, si essentielle pour le développement de la vie organique ainsi que pour garantir la durée de vie des étoiles fournissant l’énergie nécessaire à la formation de planètes habitables, en conséquence tout ceci était rédhibitoire à ce que soyons là, habitants de l’univers. Depuis, nous avons enjambé ce premier long temps et nous considérons maintenant qu’il y a des solutions physiques qui permettent d’autres ajustements des valeurs favorisant une émergence semblable de la vie. 

         En quelques décennies, au fur et à mesure que nous avons assimilé l’idée que nous étions installés dans un univers exclusivement finement ajusté : notre univers, nous avons desserré l’étau des contraintes relatives à la probabilité de notre existence dans celui-ci et nous avons aussi desserré les contraintes relatives à l’unicité de cet univers. « …Anthrôpos ne cesse de creuser sa connaissance de l’univers. » Ainsi, nous comprenons d’une façon de plus en plus affinée que les lois et les représentations qu’autorisent les lois de la physique que nous maitrisons à une période donnée, résultent de concepts coordonnés qui sont déterminés, à une période donnée, par notre façon de nous y prendre avec le monde qui est le nôtre pour le connaître.

         L’idée de multivers suscite actuellement d’importantes controverses entre les scientifiques. Citons, entre autres, Paul Steinhardt (Université de Princeton, théoricien de l’hypothèse du rebond) : « L’idée du multivers est baroque, non naturelle, invérifiable et, en fin de compte, dangereuse pour la science et la société (sic) » Rien que cela !! Dans l’autre camp Bernard Carr (Queen Mary, Université de Londres, a publié Univers ou Multivers ? chez Cambridge University Press, en 2007), explique que : « La notion d’un multivers ouvre une nouvelle perspective sur la nature de la science, et il n’est pas étonnant que cela cause un inconfort intellectuel. » Sabine Hossenfelder rappelle : « Vous êtes un être humain sur les quelques 7 milliards de la planète. Votre soleil est une étoile parmi la centaine de milliards de la Voie Lactée. La Voie Lactée est une galaxie parmi environ 100 milliards dans notre univers. Peut-être y a-t-il d’autres univers qui constituent ce que nous appelons le « multivers ». Cela n’a pas l’air si énorme que ça ? »

Dans le multivers théorique, nouvellement pensé, dont notre univers ferait partie, au stade actuel de la capacité de projection de notre pensée, nous considérons que les autres univers sont indépendants les uns des autres et sont extérieurs au Nôtre. Nous sommes à un carrefour de conjectures, Anthrôpos ne peut cesser de creuser car nous disposons d’aucune référence tangible qui nous permettrait d’affirmer que notre univers est limité dans l’espace, c’est-à-dire qu’il n’y aurait aucun au-delà spatial, si on était en mesure de détecter ses limites. Pas plus qu’on ne peut affirmer qu’aucune galaxie existe au-delà de la limite tracée par l’horizon cosmologique. Horizon humainement défini par le fait que rien ne peut se déplacer dans l’espace plus vite qu’à la vitesse de la lumière. Ceci impliquant qu’à tout moment la vitesse de la lumière impose une limite au-delà de laquelle nous ne pouvons rien observer. Avec l’hypothèse du multivers, peut-être que nous entrevoyons les prémisses d’une diversité, tout juste pensable, de mondes physiques non encore prospectés qui se trouveraient au bout du compte dans notre univers. Ce que nous conjecturons comme étant possible dans les autres univers du multivers est peut-être tout simplement ce qui l’est dans notre univers une fois que l’extériorité présumée, de ces autres, s’estompera. Considéré autrement, il suffirait que nous nous appropriions d’au moins une première loi ou caractéristique physique que nous serions en mesure d’attribuer à un autre univers éventuel du multivers pour que celui-ci soit de facto intégré au nôtre : satisfaisant actuellement à notre faculté d’entendement. Simultanément cela validerait l’hypothèse du multivers. Plus concrètement cela validerait l’hypothèse du multivers comme étape transitoire, comme une sorte de ‘sas’ permettant que notre pensée ait le temps d’intérioriser cette radicale nouveauté. Cette période d’incubation dans laquelle l’être humain cogitant est engagé permet de faire émerger de nouvelles perspectives pour ‘l’Être dans la Nature’ qui ainsi s’émancipe de la conception d’une nature qui s’avère monotone, dotée de limites absolues, parce qu’inerte.

         J’ai eu l’occasion de lire dans le ‘Dictionnaire d’histoire et philosophie des sciences’ dans un article de D. Lecourt page 762 : « Que nous butions sur des limites absolues, comme la vitesse de la lumière, devrait rappeler les physiciens à la modestie. Ils n’occuperont jamais la place que les fidèles ont attribuée à Dieu… » Cette affirmation de D. Lecourt a été couchée sur le papier il y a au moins 20 ans. A cette époque il prend la responsabilité d’avertir les physiciens qu’il détient la connaissance de l’existence d’un Rubicon absolu, qui a la valeur d’un mur définitif sur lequel, éternellement, se cognera l’intelligence humaine. La rencontre de la valeur de la vitesse de la lumière, C : constante universelle, a été confirmée en 1887 avec l’expérience de mesure de Michelson et de Morley, mais déjà, préalablement pensée et fixée théoriquement par James Clerk Maxwell en 1865. Il fallut attendre 1905 pour qu’il soit établi, grâce à la théorie de la relativité restreinte élaborée par Albert Einstein, un nouveau corpus de connaissance en physique, adapté, qui intègre la valeur parfaitement constante et universelle de la vitesse de la lumière. On peut dire qu’à cette occasion l’être dans la nature s’est installé, voire perché, sur un nouveau belvédère, d’où en surplomb, il accroît sa connaissance de la nature et d’où l’influence de l’inertie du cogito de l’être de la nature est amoindrie. D’un point de vue physique, avec le trait d’union qui s’établit naturellement entre l’espace et le temps pour dorénavant penser en termes d’espace-temps, c’est une détermination brute imposée par l’être de la nature qui est réduite à néant. L’être dans la nature déshabille l’être de la nature des déterminations qui nous voilent l’accès à la connaissance de la nature. Le dévoilement de la nature est sans fin, mythologiquement représenté par l’image de la Déesse Isis, déesse voilée, et fait d'Isis le symbole des lois cachées de la Nature depuis le déchiffrement des hiéroglyphes et la mise en place de la science. Certes intégrer la vitesse de la lumière n’implique pas la dépasser, loin s’en faut en ce qui concerne C.

         Avec la relativité restreinte nous nous sommes en partie appropriés de la vitesse de la lumière et Anthrôpos continue de creuser mais le Rubicon n’est pas franchi. De fait nous n’avons aucune prise sur la vitesse de la lumière, celle-ci transcende notre condition physique d’être de la nature. Pour nous, aucun objet matériel ne peut atteindre la vitesse de la lumière. Pouvons-nous craquer cette détermination ? Elle est une détermination universelle dans le sens où elle est une propriété qui est relative à notre univers tel que nous le concevons présentement. Craquer cette détermination sera probablement concomitant avec la compréhension que nous sommes dans un univers autre, beaucoup plus riche, que celui que nous concevons dans le cadre du modèle standard. Ce dont nous sommes certains c’est que la lumière à laquelle nous sommes sensibles est la lumière émise par la matière qui nous constitue dans la structure la plus fine et la plus élémentaire de notre Être de la nature jusqu’aux confins des structures matérielles qui assurent le fonctionnement de notre cerveau : dénommée matière active organisée. Cela constitue une détermination redoutable pour l’être humain mais cela n’a rien à voir avec un interdit émanant du royaume de Dieu comme nous l’a signalé D. Lecourt (Epistémologue, 1944-2022). Il est certain que nous ne pouvons pas voir une autre lumière que celle qui est émise par la matière qui nous constitue. Mais ne pas voir, n’interdit pas de concevoir[2].

         Référons-nous à l’exemple suivant qui concerne l’impossibilité de voir par détection directe une trace du boson de Higgs. Cette particule fondamentale a une durée de vie tellement faible (d’un ordre inférieur à 10-20s), de plus elle est de charge électrique neutre, en conséquence nous ne pouvons pas observer dans les détecteurs sa propre trace. Par contre nous pouvons le concevoir grâce à l’exploitation des traces observables des produits de sa désintégration. Ce fut long et difficile avec les premiers événements (2012), mais avec le temps, avec le savoir-faire acquis par les physiciens on peut le reconstruire plus aisément et concevoir le Boson de Higgs devient de plus en plus aisé, assuré et familier. L’œil de l’intelligence des physiciens s’est affiné, a gagné en acuité de détection, et maintenant nous le reconnaissons bien plus aisément avec certaines des valeurs qui le caractérisent.

         Dans l’univers actuel, correspondant au nec plus ultra de nos connaissances, nous identifions une composition de 5% de matière visible. Pour le reste la répartition est établie comme suit : 27% de matière noire et 68 % d’énergie sombre. Ces composants sont donc invisibles, donc toujours hypothétiques, conçus sur la base de leurs effets indirects controversés, en tous les cas nous ne pouvons toujours pas les placer sous le sceau de la lumière de notre pensée.

L’énigme de la matière noire occupe les esprits des scientifiques depuis une quarantaine d’années. Cela nous indique que la pensée des scientifiques est mal placée depuis toutes ces années[3], et cela devrait interpeler et conduire à la rupture d’une pensée qui se serait ankylosée sur ce sujet[4]. Les articles, cités en note 2 et 3 de bas de page, que j’ai saisis au vol peu de temps avant l’écriture de la fin de mon chapitre, pourraient correspondre à un renversement de situation spectaculaire car la théorie MOND (Modified Newtonian dynamics) a toujours été décriée. Son inventeur Mordehai Milgrom pourrait nous en dire long sur le fait d’être le porteur d’une théorie qui est hors cadre d’une pensée officielle. Eh oui, cela peut se produire dans ce domaine, censé réunir des penseurs férus de controverses ! Pensée officielle parce que l’hypothèse de la matière noire est fortement corrélée à l’hypothèse du Big Bang et au scénario induit du déploiement de l’univers primordial. Premièrement et avant tout, il faut considérer que cela représente une affaire scientifique, du premier ordre, à suivre au plus près durant les mois qui viennent.

L’énigme de l’énergie sombre occupe les esprits des scientifiques depuis une vingtaine d’années, c’est deux fois moins d’années que pour la matière noire mais la proportion de cette composante serait dans notre univers deux fois et demie plus importante. Ces deux composantes sont ou noire ou sombre : invisibles. C’est peut-être des composantes qui émettent des rayonnements pour lesquels nous n’avons pas de capteurs naturels identifiés au sein de notre être présumé, pas dans le domaine visible, pas dans le domaine audible, pas dans le domaine d’une sensibilité sensorielle inédite.

         Nous ne pouvons pas non plus ne pas tenir compte du fait que nous sommes confrontés à une énigme aussi redoutable qui est installée dans le paysage de la physique fondamentale depuis les années… 1930 et qui est celle de l’intrication. Enigme qui est inextricable parce que, entre autres, nous considérons toujours qu’il n’est pas possible qu’une information puisse être véhiculée à une vitesse supérieure à la vitesse de la lumière. A cause de cette contrainte, l’interprétation de ce phénomène privilégie l’explication du caractère non local (impossibilité de définir le ‘là’) de la mécanique quantique. Non local parce que lorsque l’on mesure la grandeur propre portée par l’un des objets quantiques intriqué, instantanément l’autre objet, qu’elle que soit la distance à laquelle il se trouve, alors qu’il n’y a pas eu du temps nécessaire à un échange d’information, aussi loin qu’il se trouve, annonce une valeur propre en accord avec la valeur de la grandeur résultante de l’intrication initialement engendrée. On pourrait tout aussi bien privilégier l’interprétation de l’intrication par le fait qu’expérimentalement l’intrication engendrée rend, effectivement, les deux objets totalement indifférenciables. En conséquence le résultat de la mesure obtenu ne peut pas être attribué par l’observateur à un objet plutôt qu’à l’autre. L’indifférenciabilité entre l’un et l’autre objet quantique, correspond au fait qu’il n’y a pas pour l’observateur la possibilité d’attribuer une trajectoire spatio-temporelle spécifique à l’un plutôt qu’à l’autre. En résumé, on ne peut connaitre leurs ‘là’ respectifs qu’au moment de la mesure de la grandeur physique intriquée, sans pouvoir distinguer qui est l’un, qui est l’autre.

         Il existe, exclusivement, une situation purement théorique dans laquelle la contrainte de l’impossibilité de dépasser de la vitesse de la lumière peut être violée : c’est le cas de l’hypothèse de l’existence des trous de vers. Comme cette expression l’indique, l’hypothèse suppose, qu’à travers ces trous, deux régions de l’espace pourraient être connectées (ou presque) instantanément, qu’elle que soit la distance qui les séparent. Cette hypothèse est apparue sous la plume des théoriciens sans contorsion spéciale, elle est mathématiquement émergente, mais, bien entendu, aucune observation dans ce sens n’a été validée. Donc elle reste cantonnée au domaine de la fiction. Mais elle trotte dans l’esprit des physiciens théoriciens. Ainsi J. Maldacena et L. Susskind ont conjecturé depuis 2013 : que des particules intriquées soient connectées au travers d'un trou de ver (ou pont Einstein-Rosen), (voir définition ER=EPR dans Wikipédia). De plus, cette conjecture pourrait être une base pour l'unification de la relativité générale et de la mécanique quantique !! 

         Une autre raison pour laquelle nous sommes confrontés à des entités noires pourrait s’expliquer par le fait que ces entités considérées globalement ou bien considérées sur la base de leurs constituants élémentaires éventuels ont une vitesse de déplacement qui serait supérieure à la vitesse de la lumière. Dans ce cas de figure, la fameuse formule E = mc2, ne serait plus valide dans un certain domaine, elle serait dépassée, soit parce que la contrainte posée avec C est inappropriée, soit parce que la masse : m, ne correspondrait en rien de ce que nous caractérisons jusqu’à présent comme étant de la matière. Ces deux éventualités peuvent être parfaitement conjointes.

         L’hypothèse de la non validité de E = mc2, je la considère sérieusement depuis plus d’une quinzaine d’années et plus particulièrement, en ce qui concerne les neutrinos car nous sommes toujours dans l’impossibilité de cerner sérieusement le comportement physique de ces particules élémentaires. Au tout début de la découverte (invention) de ces objets quantiques, sur proposition en 1930 de Wolfang Pauli (1900-1958), nous les avons considérés comme des objets sans masse, le premier : le neutrino électronique en 1930, le deuxième : le neutrino muonique en 1962, le troisième : le neutrino tauique en 1977. Ensuite, puisque nous avons considéré qu’il y avait en jeu, depuis 1969, un processus d’oscillation entre eux : ce que l’on désigne par l’oscillation des saveurs, on a considéré qu’ils devaient avoir une masse. A ce titre, sans autre forme de procès, on les a dotés d’une masse répondant à la contrainte de E = mic2. Depuis nous sommes dans l’impossibilité d’évaluer leurs masses. Toutes les mesures réalisées pour connaitre leurs masses d’inerties respectives, nous indiquent en retour : « Nous ne sommes pas ce que vous croyez ». En effet, en retour, elles nous apparaissent toujours inférieures à celles que nous avions estimées antérieurement, sans pour autant pouvoir les fixer. De ce point de vue, ces objets semblent presque insaisissables par les détecteurs que nous sommes capables de concevoir actuellement. Pour cette raison, je propose que l’on étudie ces objets en tant que vecteur d’une nouvelle physique : la physique des neutrinos, plutôt que de vouloir étudier leurs propriétés physiques, comme c’est toujours le cas actuellement, dans le cadre du modèle standard des particules élémentaires. Je propose que l’on abandonne l’idée que les neutrinos satisfassent assurément la contrainte : E = mic2.

La problématique du choix des bonnes variables en physique est posée dans un article du 27/07/2022 par des chercheurs de la Columbia Engineering, dont je cite quelques extraits : « Je me suis toujours demandé, au cas où nous rencontrions des extraterrestres intelligents, auraient-ils découvert les mêmes lois de la physique que nous, ou pourraient-ils décrire l’univers d’une manière différente ? » ; « Peut-être que certains phénomènes semblent énigmatiques et complexes parce que nous essayons de les comprendre en utilisant un mauvais ensemble de variables… Alors oui, il y a des voies alternatives pour décrire l’univers et il est tout à fait possible que nos choix ne soient pas parfaits. » Un des physiciens, Lipson, soutient que « les scientifiques peuvent mal interpréter ou échouer à comprendre beaucoup de phénomènes parce que, tout simplement, ils n’ont pas la bonne base de variables pour décrire ces phénomènes. » Et c’est exactement ma conviction en ce qui concerne notre incapacité toujours actuelle à cerner la physique des neutrinos.

Les variables décrivant la température et la pression ont besoin d’être identifiées avant que les lois de la thermodynamique puissent être formalisées, et ainsi en est-il dans chaque coin du monde scientifique. Les variables sont un précurseur de toute théorie. « Quelles autres lois nous manquent-elles simplement parce que nous n’avons pas les variables ? » se demande Du : collègue de Lipson, qui a codirigé le travail. « Pendant des millénaires, les gens connaissaient les objets se déplaçant rapidement ou lentement, mais ce ne fut que lorsque les notions de vitesse et d’accélération furent formellement quantifiées que Newton pouvait découvrir sa célèbre loi de mouvement F=MA »

Sur ce sujet, l’article résumé dans Phys.org du 27/07 avait pour titre : « Roboticists discover alternative physics ». Selon mon point de vue, cette physique entrevue n’est pas qu’alternative puisqu’elle fait partie de tous les possibles non encore élucidés que j’identifie dans mon énoncé rituel : « Au sein d’une éternité, parmi tous les possibles… ». Les variables, autres, qui nous permettront de comprendre d’autres phénomènes ainsi que d’enrichir, sans fin, notre connaissance de l’univers seront débusquées au fur et à mesure que l’être dans la nature, perché de nouveaux belvédères, réduira l’influence de l’être de la nature.

Comme indiqué ci-dessous avec la citation de S. Hossenfelder, nous devons accroître notre tolérance voire notre ouverture à la nouveauté dans de nombreux domaines d’études de la nature, ainsi que vaincre l’inertie intellectuelle de l’Être de la nature qui nous habite.

         De S. Hossenfelder, p146 : « … Ce que nous considérons comme prévisible et en même temps surprenant dans les sciences dépend de notre familiarité avec le domaine. Au fil de nos travaux, nous augmentons notre tolérance à la nouveauté. Effectivement, plus j’en apprends sur le multivers, plus je le trouve intéressant. Je peux voir que c’est un changement étonnamment simple, et pourtant d’une grande portée, dans la façon que nous avons de comprendre notre propre importance (ou son absence) dans le monde. Peut-être Tegmark[5] a-t-il raison, peut-être suis-je simplement affligée d’un biais émotionnel vis-à-vis de ce qui n’est qu’une conclusion logique. Le multivers est vraiment une émancipation des mathématiques, qui favorise l’apparition d’une vie riche et complexe. » ; « Un point de vue d’autant plus convaincant quand un Prix Nobel, (ici Steven Weinberg), l’appui de tout son poids. »

Je cite S. Hossenfelder puisqu’elle écrit dans son livre quelque chose que je partage et dont je suis convaincu. C’est réconfortant de rencontrer ce point de vue en partage étant donné le caractère iconoclaste de ce que je propose ci-dessous.

         Dans les univers parallèles pensés grâce à l’hypothèse du multivers ou encore ceux qui sont sous la plume des physiciens théoriciens adeptes de la théorie des cordes, la vitesse de la lumière peut avoir toutes les valeurs possibles. De fait, leurs propriétés physiques peuvent être toutes autres que celles que nous avons identifiées, jusqu’à présent, dans notre univers. Dans le cadre des énigmes répertoriées ci-dessus peut-être sommes-nous confrontés à l’existence dans notre propre univers à des valeurs qui sont attribuées à ces fameux univers parallèles. Peut-être ce n’est-il qu’une affaire ‘du temps de se familiariser’ de ces nouvelles valeurs possibles, mais au fil de notre réflexion et de nos travaux peut-être que notre tolérance s’accroîtra et ces valeurs nouvelles deviendront nécessaires et seront marquées du sceau de l’évidence. Univers qui au bout du compte ne sont pas si parallèles et à minima entrecroiseraient notre propre univers. Dans ce cas notre propre univers serait différent, avec des propriétés bien plus riches. Cela signifierait que notre univers contiendrait des propriétés exogènes, que nous considérons actuellement comme telles, vis-à-vis desquelles nous sommes encore aveugles, puisque nous sommes, de facto, émergents et façonnés par la nature spécifique de celui que nous désignons comme étant notre univers. Soit, notre évolution n’est pas encore suffisante pour que nous soyons en capacité, d’une façon ou d’une autre, à mettre en lumière ce qui constitue(nt) le/les fondement(s) des énigmes en question. Dans le cas où ces autres univers deviendraient observables ou mesurables, voire visitables grâce à de nouveaux instruments d’observations, alors ils feront partie de notre univers enrichi… par adjonction ou interpénétration.

 

 

 

[1] Plus précisément, et plus rigoureusement, le temps de Planck, 10-44s aprés le Big Bang

[2] Le mot a été introduit pour « former un enfant en soi » et simultanément avec le sens intellectuel de « se représenter par la pensée » vers 1119.

[3] D’après un article du 22/07/2022 dans Futura Science : Si la récente découverte de galaxies primitives avec le télescope James-Webb se confirmait, elle pourrait s'ajouter significativement au débat entre ceux qui pensent que la matière noire existe et ceux qui pensent qu'il faut au contraire modifier les lois de la gravité et de la mécanique pour décrire l'origine et le comportement des galaxies. Ce qui est sûr, c'est que la découverte de ces galaxies a été prédite à partir de la théorie Mond (proposée depuis les années 1980), théorie alternative à la matière noire et décriée. Reste encore à être confirmée pleinement mais si les astrophysiciens n'ont pas fait d'erreurs, nous serions en présence sur les images du JWST de deux galaxies contenant déjà l'équivalent d'environ un milliard de masses solaires sous forme d'étoiles telles qu'elles étaient entre 300 et 400 millions d'années après le Big Bang. Stacy McGaugh explique en détail que des galaxies aussi massives observées aussi tôt dans l'histoire du cosmos observable ne sont pas vraiment compatibles avec le Modèle cosmologique standard avec matière noire (sic, re-sic).

 

[4] Article dans Futura Sciences le 10/08/2022, avec le titre : « Ces galaxies jettent le doute sur le modèle cosmologique standard. » Je cite quelques extraits : « Au sein du deuxième amas de galaxies le plus proche de la Terre connu sous le nom d'amas du Fourneau, des galaxies naines apparaissent particulièrement déformées par les effets de marée. Selon des chercheurs, elles remettraient en question le modèle standard de la cosmologie. Selon Pavel Kroupa, co-auteur de l'étude et chercheur à l'université de Bonn, « Le nombre de publications montrant des incompatibilités entre les observations et le paradigme de la matière noire ne cesse d'augmenter chaque année. Il est temps de commencer à investir davantage de ressources dans des théories plus prometteuses ». Par la suite, l'équipe compte se pencher sur d'autres galaxies naines ou amas de galaxies. »

 

[5] Physicien, cosmologiste, chercheur en IA, professeur au MIT. Age : 55ans

Partager cet article
Repost0
7 février 2023 2 07 /02 /février /2023 10:42

Ce que dit le recyclage neuronal aux physiciens (théoriciens).

Lorsque j’ai écouté cette conférence de Stanislas Dehaene sur You Tube datant d’une dizaine de mois sur le sujet suivant : « Quand le recyclage neuronal prolonge l’hominisation », je n’ai pas cessé de prendre garde de ne pas me laisser déborder par le tropisme de ma propre hypothèse qui postule : « Chez l’être humain cohabitent l’Être dans la Nature avec l’Être de la Nature ». Pour m’enrichir du contenu de cette conférence, je devais a priori faire abstraction de l’hypothèse qui m’habite depuis plus d’une dizaine d’années et concrètement m’avait conduit à proposer une première ébauche dans l’article sur mon blog : « Un Monde en ‘Présence’ » datant du 02/11/2012. Par la suite, j’ai continué à développer cette hypothèse, voire à mon sens la légitimer jusque dans des récentes publications entre juin et Août 2022.

Dans l’article du 18/03/2015 sur Overblog : « Décrypter la physique comme science de l’interface de l’être humain et de la Nature ! », je précise que les physiciens (théoriciens) sont directement concernés par mon hypothèse et elle offre un moyen de sortie de la crise de la physique théorique qui entrave toute avancée de la pensée dans ce domaine depuis plus de trente années.

S. Dehaene en tant que titulaire de la chaire de psychologie cognitive expérimentale du Collège de France affirme que le processus de recyclage neuronal qu’il promeut dans sa conférence est une découverte indubitable et il n’hésite pas à dire que cette découverte est une grande surprise, une grande découverte de l’imagerie cérébrale.

Je me suis engagé à ne pas interpréter, pas plus qu’à filtrer, le contenu de cette conférence à travers le prisme de mon tropisme, en conséquence je vous propose ma propre transcription des 25 premières minutes de ce que nous expose S. Dehaene. Sachant que son exposé complet dure 46 minutes, j’ai évidemment privilégié avec cette première moitié de l’exposé, toutes les considérations théoriques justifiant la validité des deux exemples qu’il présente par la suite dans la deuxième partie. De toute façon j’invite à ce que chacun d’entre vous, sur You Tube, accède à la conférence pour se forger sa propre réflexion sur le sujet.

            Transcription : Au début de sa conférence, S. Dehaene nous précise que l’activité de la lecture résulte d’une capacité pour laquelle l’évolution ne nous avait pas particulièrement préparés. « La question que je veux traiter aujourd’hui, c’est la manière dont cette hominisation prolongée par une humanisation, permet d’internaliser dans le cerveau de l’Homme : la culture, des activités radicalement nouvelles parfois extrêmement récentes et qui néanmoins trouvent leur(s) place(s) dans notre cerveau… » Ensuite, il se réfère aux magnifiques œuvres d’art rupestre d’il y a 32000 ans de la grotte Chauvet qui sont dynamiques, réalistes, et en même temps très profondément spirituelles. Citant aussi les purs symboles et les signes graphiques dont on ne connaît pas la signification qui sont sur les parois de la grotte de Lascaux. « Quelques milliers d’années plus tard c’est l’invention de l’écriture, et bien sûr en parallèle c’est l’invention des mathématiques qui nous permet dans une très large mesure d’obtenir la science que nous connaissons aujourd’hui. Particulièrement les mathématiques sont une activité dont on a des traces remontant au paléolithique supérieur. Et puis très vite des éléments de géométrie.

            La question qui se pose est, comment le cerveau humain est capable et lui seul est capable de développer des systèmes culturels, de se les approprier, et qu’est-ce que cela change dans notre cerveau ? En quelques dizaines de milliers d’années notre humanité a conçu des inventions culturelles d’une très grande diversité. Ces inventions culturelles sont beaucoup trop récentes pour avoir la possibilité d’affecter notre architecture cérébrale par sélection naturelle car sur une échelle de quelques milliers d’années il n’y a pas eu d’évolution génétique particulière. C’est donc une grande surprise et je considère une grande découverte de l’imagerie cérébrale d’avoir montré en dépit de cet aspect culturel particulier de l’écriture ou des mathématiques eh bien il y a des aires cérébrales reproductives presque comme des organes cérébraux qui sont associées à la lecture et à l’arithmétique découverts il y a un peu plus d’une trentaine d’années. »

            Ensuite, l’auteur nous précise qu’il va nous parler de deux régions cérébrales particulières avec schéma à l’appui, la première concerne l’aire de la forme visuelle des mots qui se situe à la base de l’hémisphère gauche et puis une deuxième région cérébrale qui s’appelle « segment horizontal du sillon intra pariétal » à l’arrière de la partie supérieure du cerveau, dans les deux hémisphères d’ailleurs, et qui répond à chaque fois que nous faisons des calculs.

            « Le paradoxe consiste à expliquer : comment il est possible d’avoir de telles régions ? et ce que les résultats nous montrent tout à fait clairement que contrairement à ce qu’on a pu dire, notamment en sciences sociales : « la culture n’est pas un espace libre de toutes contraintes (sic) » et « le cerveau humain n’est pas infiniment flexible (resic) ». La théorie du recyclage neuronal suggère qu’on a tort de penser que le cerveau humain est devenu libéré des contraintes, peut être à la différence du monde animal, il est devenu libéré des contraintes instinctives qui limitent les animaux à certains comportements souvent répétitifs. En fait même dans le domaine culturel, ce que nous voyons bien entendu, il y a une capacité d’apprentissage, ainsi qu’une certaine ouverture vaste sans quoi on ne pourrait pas incorporer de nouveaux objets culturels, sans quoi on ne pourrait pas avoir de variabilités cultuelles, mais cet apprentissage est étroitement limité. Et le modèle que je propose suggère en fait que si nous avons des capacités culturelles dans certains domaines, c’est parce que ces objets culturels trouvent, ce qu’on appelle leur niche écologique dans le cerveau, des circuits dont le rôle initial est suffisamment proche de la fonction finale et dont la flexibilité est suffisante pour être reconvertie à de nouveaux usages, autrement dit, tout n’est pas possible mais dans une certaine mesure des circuits qui sont suffisamment plastiques. Il faut bien voir que la plasticité cérébrale elle-même est le résultat de l’évolution, de la génétique. Il y a une génétique de l’apprentissage et bien cette plasticité ouvre un espace des possibilités (sic) dans lequel la culture s’engouffre et ce qui est peut-être particulier à l’espèce humaine est cette capacité de repérer à l’intérieur de notre propre cerveau des domaines où nous pouvons repérer, nous pouvons intervenir et nous pouvons par l’éducation changer notre propre cerveau. Chacun de ces circuits possède des propriétés intrinsèques qui le rendent plus ou moins approprié à son nouvel usage et qui confèrent donc aux objets culturels, nous allons le voir, des traits universels.

            Les prédictions de ce modèle sont donc extrêmement claires, d’une part il devrait exister des précurseurs neuronaux pour des activités culturelles y compris chez l’animal mais avec un développement particulier chez l’homme. Il devrait exister de nombreux invariants culturels là où nous frappe la diversité culturelle, nous devrions aller voir si en fait, il n’y a pas de nombreux invariants dans le domaine de l’éducation de l’enfant, la difficulté d’apprentissage de l’activité culturelle doit être reliée au degré de recyclage neuronal qui est nécessaire pour transformer ces circuits.

            Alors nous allons voir 2 exemples. Le premier celui de la lecture et le deuxième plus brièvement celui de l’arithmétique. Il recense les circuits qui préexistent à la lecture dans l’hémisphère gauche et il indique que ces circuits sont les mêmes quelles que soient les langues, les cultures…

Cette partie de l’exposé occupe les 10 premières minutes de la conférence.

            Je fais ici un saut important dans la chronologie de l’exposé et au niveau de la 18e minute relatant le lien qu’il y aurait entre le cerveau du singe macaque avec celui de l’humain pour déterminer la base primitive de la lecture, S. Dehaene précise : « Les résultats psycho-physiques visuels chez l’être humain montrent que les intersections de traits sont effectivement utilisées pour la reconnaissance des objets… Il y aurait chez le singe macaque des neurones qui répondent à cette propriété élémentaire parce que celle-ci est utile à la reconnaissance des objets du monde naturel. »

            « … Le morceau de cortex qui répond à la lecture est un morceau de cortex qui répond beaucoup à la présence des intersections des traits. Donc c’est une première hypothèse sur la localisation reproductible de l’aire de la forme visuelle des mots, cette région est sélectionnée au cours de l’apprentissage de la lecture parce que c’est une région qui est particulièrement efficace pour reconnaître les intersections de traits spécifiques et elle est efficace à ce propos parce qu’elle a évolué dans ce but au cours des millions d’années d’évolution parce que c’était utile pour la reconnaissance des objets naturels… Les configurations des contours les plus fréquents dans le monde naturel semblent être au départ mieux codées dans notre cortex interro-temporel et dans un deuxième temps il semblerait que nous ayons coopté ces formes pour le système d’écriture d’une façon très largement non consciente, mais au fur et à mesure d’une évolution de l’écriture nous avons sélectionné des formes qui étaient particulièrement efficaces parce qu’elles étaient particulièrement bien représentées dans le système visuel que nous partageons avec les autres primates. C’est donc une forme d’évolution culturelle contraint par les régularités qui sont imprenables ou peut-être déjà même représentées dans le cerveau. Tout ce que je vous ai présenté jusqu’à présent montre que le cerveau du primate dont nous avons hérité n’est pas si mal adapté à la lecture finalement… »

            A ce niveau du propos de S. Dehaene, je suis à la vingt-cinquième minute de l’exposé et il me semble que l’essentiel qui nous concerne d’une façon générale est brillamment dit. Par la suite il développe sur les sujets de l’écriture et de la lecture et enfin succinctement en ce qui concerne l’arithmétique. Au total la conférence dure 46 minutes. Je ne peux que conseiller à chacun d’entre vous de consacrer du temps à son écoute sur You Tube : « Quand le recyclage neuronal prolonge l’hominisation. »

            « En conclusion : La lecture et l’arithmétique sont des inventions culturelles récentes et variables d’une culture à l’autre mais leur acquisition ne correspond absolument pas au remplissage d’une ardoise vierge ;

            Nous parvenons à lire et à calculer parce que nous héritons, de l’évolution des primates, des systèmes de reconnaissance visuelle et de représentation approximative des nombres, que nous recyclons pour des usages nouveaux ;

            Nous augmentons les compétences de notre espèce en inventant des systèmes de symboles qui mettent en liaison ces régions anciennes avec les aires du langage. »

 

            Bien entendu, je partage l’opinion de S. Dehaene quand il déclare que la découverte du recyclage neuronal est une grande surprise, une grande découverte de l’imagerie cérébrale. Je le remercie vivement d’être à l’origine de cette découverte. Cette pensée-là était sous-jacente lorsque j’ai publié l’article du 21/07/2015 : « La seconde naissance de l’homme », puis un an après le 21/06/2016 : « Evolution des connaissances ; évolution de l’humanité » dans lequel j’avais exprimé : « J’ai voulu signifier qu’il était maintenant possible de concevoir que la dynamique de la connaissance en physique se nourrissait d’une confrontation évolutive causée par le besoin et le désir de savoir de l’être humain. C’est donc une distanciation que je propose. L’être humain est la cause, l’acteur, et la Nature est la source. Bien évidemment l’intelligibilité de cette interface ne peut pas nous apparaître en temps réel. En l’occurrence cette intelligibilité ne peut nous apparaître qu’à travers une analyse historique profonde qui intègre le processus de l’évolution de l’humanité au sein de la Nature pour survivre face à sa dureté, jusqu’à forger le projet de la dominer. » En effet, il me semble qu’il est pertinent de comprendre qu’il y a une dynamique de la conquête des connaissances des propriétés brutes de la Nature en tant que nécessité pour satisfaire l’instinct de survie qui se confond chez Homo avec le désir s’affirmant comme volonté de survie. J’espère que S. Dehaene découvrira les moyens d’introduire cette dimension existentielle dans le cadre de sa théorie car c’est ce qui justifie in fine la théorie de l’évolution. C’est pourquoi j’ai introduit dès 2012, le processus de conquêtes réalisées par l’Être dans la Nature réduisant progressivement ainsi les déterminismes établis de l’Être de la Nature dès son émergence, absolument façonné qu’il est par la nature.

            Comme je l’ai fidèlement transcrit, Dehaene nous affirme : « la culture n’est pas un espace libre de toutes contraintes (sic) » et « le cerveau humain n’est pas infiniment flexible (resic) ». Selon mon point de vue les contraintes actuelles qui s’imposent à l’Être humain d’aujourd’hui sont celles qui ne sont pas encore levées grâce à l’action émancipatrice de l’Être dans la Nature, en effet les déterminations véhiculées par l’Être de la Nature engendrent une inertie à cette action émancipatrice et il n’y aura pas de fin. En conséquence, différemment de ce qu’affirme S. Dehaene, je dirais que le cerveau humain est flexible et la perspective qu’il le soit infiniment, est au moins une croyance qui peut, en tant qu’horizon, être atteignable car la volonté de l’Être humain d’atteindre la connaissance universelle est un moteur qui entretient son évolution multidimensionnelle. Je suis intimement convaincu que cette perspective est utile et nécessaire d’un point de vue existentiel.

Par contre il est franchement erroné de considérer que le caractère universel de la connaissance en physique est déjà accessible comme a pu s’en convaincre la communauté des physiciens en propageant, par exemple, un enseignement de la loi ‘universelle’ de la gravitation pendant plusieurs siècles. En effet les physiciens ont cette propension à considérer que le champ de leurs connaissances étant précurseur dans le domaine des sciences dites exactes, en conséquence souvent ils prennent le risque d’extrapoler jusqu’à attribuer à ces connaissances une valeur universelle.

            Il est vrai qu’il peut être difficile pour les physiciens de ne pas se considérer comme étant une avant-garde de la conquête de connaissances nouvelles, il suffit de se remémorer l’histoire de l’avènement de la mécanique quantique devenant physique quantique qui a permis favorablement l’émergence de la chimie quantique, puis de la biologie quantique, etc… jusqu’à, par un pur effet de mode, imprégner de ses concepts les sciences humaines.

            A mes yeux, il y a deux domaines de la physique qui nous montrent que notre culture scientifique dans son état actuel n’est pas libre de toutes contraintes et en conséquence il y a de la flexibilité intellectuelle à accueillir au sein de notre conception théorique des deux domaines qui sont identifiés comme étant, le Modèle Standard de la Cosmologie et la Physique des Hautes Energies

            La conception de notre univers comme étant spatialement fermé, même si on accepte l’idée qu’il soit infini, nous oblige à devoir introduire le principe que 95% de ce qui le compose soit inconnu. Les 23% de matière noire sont inobservables depuis plus de 40 ans qu’ils ont été théorisés. Les 72% d’énergie sombre offrent la même déconvenue depuis plus de 20 ans.

Le bornage temporel de l’univers par le Big Bang est un verrou qui devrait se dissoudre grâce à une compréhension de la rigidité conceptuelle dans laquelle nous le pensons. L’hypothèse du Big Bang a eu son utilité parce que l’être humain a besoin d’une origine pour poser sa pensée. Même avant la pensée grecque il en était ainsi. A partir de là, elle peut se déployer et être créatrice au point de légitimer le dépassement de l’origine sur laquelle elle a pris appui. Quitte à ce qu’une autre origine, un autre début temporel plus profond, soit conçu, pour favoriser le déploiement d’une pensée plus riche. La théorie du rebond en est, par exemple, un symptôme.

            Dans le corpus de la physique des hautes énergies la théorie quantique des champs a été exploitée jusqu’à son extrême. Les facilités qu’elle permettait sont usées parce qu’il y a eu abus et paresse intellectuel, par exemple, lorsqu’il s’est avéré nécessaire d’attribuer une masse d’inertie aux neutrinos (sic) sans aucune retenue, il a été rajouté au doigt mouillé dans le Lagrangien de l’interaction faible une interaction entre le champ de Higgs et le champ des neutrinos. La rigidité intellectuelle à l’époque empêchait de penser une physique spécifique des neutrinos. Aujourd’hui en l’absence de nouveau(x) paradigme(s), on est amené à se demander, à l’heure actuelle, à quoi sert le LHC du CERN à Genève puisqu’il n’y a aucune nouvelle théorie qui offre des perspectives de découvertes.

            En général la flexibilité est à l’œuvre lorsqu’il y a de nouvelles connaissances scientifiques qui surgissent, voire plus lorsque de nouveaux paradigmes s’imposent. C’est-à-dire lorsque, les déterminations qui obstruent le paysage de ces connaissances, dressées par l’atavisme de l’être de la nature, sont annihilées.

            Dans tout ce que nous expose S. Dehaene, je ne cache pas mon adhésion, mais il y a plus qu’une simple adhésion, en effet il y a des expressions qui induisent une résonance intellectuelle spécifique et il en est ainsi lorsqu’il déclare : « Il y a une génétique de l’apprentissage et bien cette plasticité ouvre un espace des possibilités (sic) dans lequel la culture s’engouffre… » Effectivement, au cours de ces dix dernières années, nombreux de mes articles sont traversés, ou introduits, ou conclus par l’énoncé directeur et rituel : « Au sein d’une éternité, parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance de l’univers… » J’ai publié le dernier chapitre de mon mémoire en 2 parties, avec le titre : « Au sein d’une éternité, parmi tous les possibles » les 05/08 et 12/08 2022.

            De cet espace des possibilités, peut-être particulier à l’espèce humaine, au fur et à mesure, nous ne savons en exploiter qu’une fraction, celle qui est dans la lignée de la fraction des possibles exploitée avec succès précédemment. Il est impossible de considérer que nous pourrions instantanément embrasser la totalité de ‘l’espace des possibilités’ mais il ne faut pas pour autant considérer que l’être cogitant que nous sommes, ne sachant exploiter qu’une fraction de cet espace, aurait perdu définitivement des opportunités d’acquisition d’autres connaissances. En fait l’espace des possibilités est toujours présent, il est un espace des possibles intarissable. Il est une version de l’horizon inatteignable par l’être humain qui fait miroiter l’universel. Ce miroitement entretient la perspective que l’être dans la nature lèvera toutes les déterminations dressées par l’être de la nature qui entravent le chemin de la connaissance totale, universelle. Historiquement à plusieurs occasions les physiciens ont prétendu malencontreusement n’être qu’à une démonstration près de cette finalité. La Théorie du Tout autrement désigné par la Théorie de la Grande Unification (GUT) est le dernier avatar de cette ambition. Toutefois S. Hawking est allé jusqu’à dire qu’une fois la GUT maitrisée l’être humain pourra s’installer sur le trône de Dieu. A contrario le philosophe de l’esprit David Chalmers soutient qu'une théorie du tout doit expliquer la conscience, que la conscience ne fait pas partie de la physique, et donc qu'une théorie fondamentale dans la physique ne serait pas une théorie du tout. Ce n’est pas si simple, car dans le cadre du développement actuel de l’intelligence artificielle, certains prétendent que la conscience artificielle est probablement atteignable dans le futur. A suivre…

            Je reprends là où j’indique précédemment : « En fait l’espace des possibilités est toujours présent, il est un espace des possibles intarissable », et c’est avec plaisir que je cite la convergence avec J.P. Changeux, dans son livre de 2023, ‘Le Beau et la splendeur du vrai’, p.254 : « La science a une dimension sociale : la validation d’une découverte scientifique par la communauté des chercheurs est indispensable. Il n’y a pas de vérité intrinsèque. La vérité correspond à un moment de l’histoire de la connaissance scientifique où une cristallisation conceptuelle peut avoir lieu sur les bases théoriques et expérimentales. » Comme il le dit, la vérité correspond à un moment de l’histoire de la connaissance scientifique, parmi tous les possibles cette connaissance a été exploitée par les scientifiques, l’inconvénient c’est quand cette connaissance est exploitée à outrance au point d’empêcher ces scientifiques d’aller prospecter d’autres possibles. Comme je l’ai déjà indiqué précédemment, je place dans cette catégorie la théorie actuelle du Big Bang ainsi que la théorie quantique des champs. A propos de cette dernière théorie penser que tout peut être décrit sur la base du ‘principe de moindre action’, relève d’un principe de réduction qui devrait interpeller.

 

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens