Overblog
Suivre ce blog Administration + Créer mon blog
24 mai 2017 3 24 /05 /mai /2017 17:20

Emergence : pourquoi les physiciens recourent-ils à cette notion ?

Avec cet article je propose de réfléchir à la notion d’émergence qui fait florès actuellement en physique théorique et ainsi tenter de comprendre si cette notion constitue un subterfuge ou bien constitue une avancée de la compréhension de certaines propriétés physiques, jusqu’à présent, impossibles à élucider.

Je propose de prendre comme premier exemple de la survenue de la notion d’émergence celui relatif à la théorie de la gravité quantique à boucles telle qu’elle est présentement développée par Carlo Rovelli. Il écrit : « Il n’y a pas de temps dans la gravité quantique à boucles… Qu’est-ce donc enfin que le temps, et son « écoulement ?» « Le temps doit émerger (sic), comme l’espace, du champ gravitationnel quantique[1]. » Selon l’auteur, les raisons pour lesquelles l’espace et le temps ne résultent que d’un processus émergent, c’est qu’ils ne sont pas réels car selon lui le monde est fait de champs quantiques invariants. P 177, du livre cité : « Les particules sont des quantas de champs quantiques ; la lumière est formée des quantas d’un champ ; l’espace n’est qu’un champ, lui aussi quantique ; et le temps naît à partir des processus de ce même champ. Autrement dit, le monde est entièrement fait de champs quantiques. Ces champs ne vivent pas dans l’espace-temps ; ils vivent, pour ainsi dire, les uns sur les autres : des champs sur des champs. L’espace et le temps que nous percevons à grande échelle sont l’image floue et approchée d’un de ces champs quantiques : le champ gravitationnel. Ces champs qui vivent sur eux-mêmes, sans besoin d’un espace-temps pour leur servir de substrat, et capable d’engendrer eux-mêmes l’espace-temps, sont appelés champs quantiques covariants. »

Le deuxième exemple qui fait intervenir un processus d’émergence, nous le devons à Erik Verlinde, physicien théoricien Hollandais. Sa proposition théorique[2] d’émergence concerne la gravitation. Pour lui l’espace-temps est réel à l’échelle quantique et la gravitation telle qu’elle est décrite par la Relativité Générale est émergente, voici ce qu’il nous explique : « Le but de la gravité émergente est d’obtenir les équations qui gouvernent la gravité à partir de considérations quantique en utilisant des ingrédients de la théorie de l’information quantique. Une des idées principales est que différents éléments d’espace-temps sont englués grâce à l’intrication quantique. La gravité peut être obtenue à partir d’unités microscopiques qui façonnent l’espace-temps. Ces ‘molécules d’espace-temps’ sont des unités d’information quantique (qubits) qui sont entre elles intriquées, avec l’importance de l’intrication mesurée par l’entropie d’intrication. »

Quand on lui demande combien la gravité émergente affecterait le reste de la physique ? Voici ce qu’il en pense :

« Notre perception des composants fondamentaux de la nature changerait d’une manière drastique. Nous ne penserons plus en termes de particules élémentaires et de forces fondamentales mais en unités d’information quantique. Désormais, les forces de jauge responsables des interactions électrofaibles et fortes seront comprises comme étant émergentes, et cela constitue la voie par laquelle les forces fondamentales de la nature deviendront unifiées. Dans ce sens, toutes les lois courantes de la nature seront perçues comme émergentes. »

Le troisième exemple qui fait intervenir une théorie de l’émergence nous le trouvons dans les deux articles du récent numéro de ‘Pour la Science’ de mai 2017 qui a pour titre général ‘Trous noirs intriqués : une porte vers l’espace-temps quantique’. premier article de Clara Moskowitz, affirme d’entrée : « l’espace et le temps émergeraient de l’intrication quantique de minuscules bribes d’information : telle est l’audacieuse hypothèse explorée par le projet collaboratif intitulé It from Qubit. » Qubit est la contraction de bit quantique et représente la plus petite quantité d’information : c’est la version quantique du bit informatique. Malgré les apparences ce troisième exemple diffère de celui évoqué par E. Verlinde et inversement à ce que postule C. Rovelli, voir page 22 de ‘PlS’ :« l’espace-temps serait le constituant premier originairement composé de minuscules bouts d’information. Selon cette approche, ces petits éléments, en interagissant, créent l’espace-temps et font émerger ses propriétés, telles que la courbure – dont découle la gravité. » « De quoi exactement ces bits sont-ils faits et quel type d’information contiennent-ils ? s chercheurs l’ignorent. Mais curieusement cela ne semble pas les déranger. Ce qui compte, ce sont les relations entre les bits eux-mêmes. Toute la richesse vient de ces relations collectives. Ici, l’élément crucial, ce n’est pas les constituants, mais la manière dont ils s’organisent. »

A la lecture de ces quelques lignes, il est légitime d’exprimer un certain scepticisme à propos du recours à cette thèse de l’émergence. Celle-ci est actuellement proposée après des décennies infructueuses de mise en évidence d’une véritable théorie de la gravité quantique confirmée par l’observation et donc acceptée par la communauté scientifique. Est-ce que ce recours à l’émergence ne serait qu’un moyen détourné qui masquerait un renoncement à savoir reconnaître, identifier, exprimer, les propriétés de la nature à l’échelle quantique ? Ce qui se dit dans l’article à ce niveau c’est qu’après tout peu importe ce qui précède ce que l’on fait apparaître en accord avec le processus de l’émergence. En conséquence, avec cette marge de liberté que s’octroient les théoriciens en question, ce qu’ils font apparaître, in fine, par l’intermédiaire du processus d’émergence relève plutôt de l’intuition, de la conception, a priori des auteurs, et non pas le fruit d’un raisonnement scientifique rigoureux, habituel, qui puisse être compris et partagé, pas à pas, par les collègues physiciens. N’oublions pas que l’interaction en jeu c’est l’intrication dont nous connaissons définitivement sa bizarre phénoménologie sans comprendre quoi que ce soit de sa nature. Donc, il est évident qu’il faut garder une bonne distance intellectuelle à l’égard de ce qui est énoncé dans le cadre de cette thèse de l’émergence, ainsi je cite, p.23 : « Selon une idée fascinante (sic) proposée récemment, l’étoffe de l’espace-temps serait tissée par l’intrication quantique des éléments sous-jacents d’espace-temps, qu’elle qu’en soit la nature. » « La gravité et l’espace-temps pourraient n’être que le produit final, en trois dimensions, de l’intrication des qubits dans un espace n’ayant seulement que deux dimensions. » Certes les chercheurs (déjà +200) qui travaillent sur ce sujet n’ignorent pas l’étendue du chantier et ses arêtes, mais cette propension à mettre la charrue devant les bœufs peut nourrir un certain scepticisme. P.24 : « Une fois que les différents aspects de l’intrication seront mieux compris et maitrisés, les chercheurs comprendront peut-être comment l’espace-temps émerge de ce phénomène (sic). »

Le deuxième article de ‘PlS’ est écrit par J. Maldacena, il a pour titre : ‘l’intrication quantique est-elle un trou de ver ?’, par un raccourci fréquent on écrit EPR=ER, conjecture proposée Maldacena et L. Susskind en 2013. EPR fait référence à l’article fondateur de la propriété de l’intrication et ER fait référence à l’article fondateur du trou de ver. D’un point de vue théorique les trous de ver laissent apparaître des propriétés qui pour nous ne peuvent être que de l’ordre de la fiction. Ainsi un trou de ver permet sur le papier à un vaisseau spatial ou tout autre objet d’entrer par une extrémité et en sortir instantanément à son autre extrémité située dans un lieu et un temps différent. Les trous de ver à la Einstein-Rosen (ER) ne sont pas traversables, ils s’effondrent avant que l’on se présente devant. Selon les travaux de J. Maldacena et d’autres, des trous noirs objets quantiques par excellence pourraient être intriqués, plus précisément puisque : « vus de l’extérieur, les trous noirs ressemblent à des systèmes quantiques ordinaires, rien ne nous empêche (en théorie) de considérer deux trous noirs intriqués et très distants l’un de l’autre. Chacun a un grand nombre de micro-états quantiques possibles. Et l’on peut imaginer (sic) une intrication telle que chaque micro-état quantique du premier trou noir est corrélé avec le micro-état correspondant du second. A partir de là nous suggérons qu’une paire de trous noirs aux micro-états ainsi intriqués produirait un espace-temps dans lequel le trou de ver relierait l’intérieur des deux trous noirs. En d’autres termes, l’intrication quantique crée une connexion géométrique entre les deux trous noirs. » « Si l’équivalence entre trous de ver et l’intrication quantique se généralise (sic), la connexion spatiale pourrait impliquer de minuscules structures quantiques qui ne suivraient pas notre vision habituelle de la géométrie. Nous ne savons toujours pas décrire ces géométries microscopiques, mais l’intrication de ces structures pourrait, d’une manière ou d’une autre, donner naissance à l’espace-temps lui-même. C’est comme si l’intrication pouvait être considérée comme un fil reliant deux systèmes. Quand la quantité d’intrication augmente, nous avons beaucoup de fils, et ensemble ces fils pourraient tisser la trame de l’espace-temps. Dans cette représentation, les équations de la relativité d’Einstein régissent les connexions et les reconnexions de ces fils, tandis que la physique quantique serait l’essence de la construction de l’espace-temps. »

Je cite largement J. Maldacena parce que ses analyses et ses résultats scientifiques sont réputés. Ci-dessus on lit sa conviction que l’émergence de l’espace-temps résulte d’un processus qui se trame dans la nature et qu’il y aurait enfin matière à unifier relativité générale et mécanique quantique.

Dans plusieurs articles (notamment celui du 9/12/2015) j’ai proposé que l’intrication quantique entre deux objets devait s’expliquer, du point de vue de l’observateur, par l’absence d’espace-temps qui relie les objets car l’intrication se produit à l’origine dans un temps < TpS. Donc l’observateur ne peut fonder le temps et en corollaire l’espace, et en conséquence aucune différenciation des objets ne peut opérer. Etant donné l’interprétation la plus courante du trou de ver, j’accepte l’égalité EPR = ER, qui conforteraient ma conception de l’intrication et sa cause. Mais la conséquence est remarquable car selon mon scénario l’espace-temps témoigne de la présence du sujet pensant qui cogite à propos des lois de la nature et contrairement à ce que Maldacena nous dit, les ingrédients basiques de l’espace-temps ne sont pas dans la nature. Effectivement mon hypothèse est dérangeante pour la majorité des physiciens car ils sont toujours convaincus que les connaissances qu’ils mettent en évidence sont objectives et correspondent donc à un ‘voir’ et à un ‘connaître’ de ce qui est intrinsèque à la réalité : celle de la nature, c’est-à-dire ce qui est en dehors de nous : êtres humains. Il y a des positions dont le clivage est moins net avec les miennes, c’est le cas avec Mermin, avec Chalmers et les Qbists : voir article du 27/05/2014, mais le chemin de la convergence sera long parce que tortueux.

Toutefois, le fait que des physiciens absolument réalistes soient obligés de s’appuyer sur un concept d’émergence pour qu’à partir de celle-ci, ils soient capables de discerner des objets, des concepts, qui puissent s’insérer dans leur discours scientifique, devrait les interpeller sur la validité de leurs convictions de producteur d’un savoir universel. Ils devraient se demander pourquoi : ils ne lèvent le voile de la nature qu’à partir d’un certain stade en laissant dans une étonnante approximation voire dans l’épaisseur de l’ignorance des causes profondes et premières.

La notion d’émergence me convient, pas comme un recours face à la défaillance de la prédiction théorique, mais très explicitement je la conçois a priori lorsque je précise la conception rassemblée de ma métaphysique : « Au sein d’une éternité, parmi tous les possibles, l’anthrôpos ne cesse de creuser sa compréhension du monde… ». Dans cette formule le battement du temps est un symptôme, celui de la présence de l’anthrôpos et l’émergence est la conséquence de l’activité permanente du creusement vers la compréhension de la nature physique du monde.

 

[1] ‘Par-delà le visible’, p. 162, édit, O. Jacob, 01/2015

[2] Voir article du Cern-courier, May 2017

Partager cet article
Repost0
7 mai 2017 7 07 /05 /mai /2017 06:15

La science a besoin de raison pour produire de la confiance

 

Dans des articles principaux du 11/04/2017 et du 16/01/2016 et quelques autres, j’ai exprimé une sérieuse inquiétude à propos de ce que j’analyse comme étant une dérive redoutable de la pensée scientifique en tant que discipline ayant l’objectif d’accéder à des connaissances rigoureuses et partageables. Il y a maintenant quelques décennies que cette discipline prend des chemins qui fourvoient les fondements et les contraintes de celle-ci. Ce qui est impressionnant c’est que cela prend de l’ampleur avec l’impossibilité toujours actuelle de sortir des impasses théoriques aussi bien en cosmologie, en physique des particules élémentaires et plus particulièrement celle des neutrinos. Cette fuite en avant s’explique en partie à cause des moyens technologiques de plus en plus fabuleux dont l’humanité dispose et disposera ainsi que des moyens de calcul qui laissent croire que l’on peut voir originalement, par simulation, ce que l’on est incapable de penser. La communauté scientifique est dans l’incapacité de proposer de nouveaux paradigmes qui donneraient l’élan nécessaire pour dépasser les impasses actuelles. La nature ne nous dévoilera jamais ces paradigmes (naturellement) puisqu’ils ne sont que des productions de l’intelligence humaine engagée dans le dépassement perpétuel pour que la Nature nous dévoile ses lois et ses propriétés. C’est une praxis qui fut inhérente à l’histoire de l’émancipation de l’humanité, praxis qui continue de l’être pour son émancipation future, c’est-à-dire la nôtre.

C’est avec beaucoup d’intérêt et de satisfaction que j’ai pris connaissance d’un article du 05/04 dans la revue Nature : ‘Science needs reason to be trusted’, de Sabine Hossenfelder, qui nous dit avec beaucoup de lucidité et de sincérité, là où elle exerce son métier de physicienne, pourquoi nous nous rejoignons pour exprimer nos états d’alerte. Elle indique aussi – un point de vue que je partage – que les physiciens et spécialistes des sciences exactes ont tort de considérer que leur activité professionnelle les rend imperméables aux influences sociétales et à ses valeurs qui peuvent être versatiles. Sabine Hossenfelder exerce à l’institut des études avancées de Francfort.

Ci-joint le texte de l’article traduit par Michel, Alain, François, Daniel, dont j’assume la responsabilité de son assemblage.

« Je suis physicienne dans le domaine : théorie de la physique des particules, et je doute de la validité de la recherche dans ce domaine. Je sais que c’est déjà gênant mais il y a encore pire. Je crains que le public ait de bonnes raisons de ne pas faire confiance aux scientifiques et – triste mais vrai – moi-même je trouve également qu’il est de plus en plus difficile de leur faire confiance.

Au cours des dernières années la confiance en la science a été sévèrement mise en question par la crise de la reproductibilité. Ce problème a principalement touché les sciences de la vie où il arrive que de nombreuses découvertes validées par des pairs ne peuvent être reproduites de manière indépendante. Les tentatives pour remédier à cela se sont concentrées sur l’amélioration des dispositions actuelles relatives à la fiabilité statistique et la façon dont elles sont appliquées en pratique. Des changements de ce type ont été mis en œuvre pour améliorer l’objectivité scientifique ou – de manière plus brutale – empêcher les scientifiques de se mentir et de mentir aux autres. Ils ont été conçus pour rétablir la confiance.

La crise de la reproductibilité est un problème mais au moins c’est un problème qui a été identifié et qui est traité. Néanmoins, où je suis, dans un domaine de recherche qui peut, grosso modo être défini comme les fondements de la physique – cosmologie, physique au- delà du modèle standard, fondements de la mécanique quantique – je suis au contact direct d’un problème bien plus important.

  1. travaille dans l’élaboration des théories. Notre tâche, consiste en gros à trouver des nouvelles – et d’une certaine façon meilleures – explications à des observations déjà existantes et à en tirer ensuite des prédictions pour tester ces nouvelles propositions prédictives. Nous n’avons pas de crise de reproductibilité car au départ nous ne disposons pas de données – toutes les observations disponibles peuvent s’expliquer par des théories bien établies (à savoir : le modèle standard de la physique des particules élémentaires et le modèle standard de la cosmologie : LCDM).

Mais nous avons une crise d’une toute autre nature : nous produisons une énorme quantité de théories nouvelles et pourtant aucune d’entre elles n’est jamais confirmée expérimentalement. Appelons cela la crise de surproduction. Nous utilisons les méthodes reconnues dans notre discipline, constatons qu’elles ne marchent pas mais n’en tirons aucune conséquence. Comme une mouche frappant une vitre, nous nous répétons sans cesse, en attendant de nouveaux résultats

Quelques-uns de mes collègues ne seront pas d’accord pour reconnaître qu’il y a une crise. Ils vous diront que nous avons fait de grands progrès au cours des quelques dernières décades (en dépit du fait qu’il n’en est rien sorti) et en conséquence il est normal qu’il y ait un ralentissement du progrès de la connaissance comme lorsqu’un champ arrive à maturité. Ce n’est pas le 18e siècle et découvrir aujourd’hui sur le plan fondamental une nouvelle physique n’est pas aussi simple que cela a été. Cela se comprend. Mais mon problème ce n’est pas le chemin du progrès, per se, à la vitesse de l’escargot, c’est que les pratiques actuelles des développements théoriques contemporains montrent un défaut de la méthode scientifique.

Permettez-moi d’illustrer ce que je veux dire :

En décembre 2015 les ensembles CMS et Atlas du LHC ont présenté une évidence d’un écart par rapport au modèle standard de la physique avec, approximativement, une résonnance de masse à 750 GEV. L’excèdent est apparu dans le canal de désintégration avec deux photons et avait un faible niveau de signification statistique. Cela ne correspondait à rien de ce qui avait été jusqu’à présent prédit. En aout 2016, de nouvelles données ont révélé que l’excédent était simplement une fluctuation statistique. Mais avant que ceci soit mis en évidence, les physiciens des hautes énergies ont produit plus de 600 articles pour expliquer le signal supposé. Beaucoup de ces articles furent publiés dans les principaux journaux de ce domaine. Aucun d’entre eux n’a décrit la réalité.

Actuellement, la communauté des physiciens des particules est toujours sujette aux marottes et aux modes. Bien que ce cas soit extrême à la fois par le nombre de participants et par leur célérité, il y eut auparavant de nombreux cas similaires. Dans la physique des particules, se précipiter sur un sujet chaud dans l’espoir d’obtenir des citations est si commun qu’il a un nom : ‘la chasse à l’ambulance’, en référence (vraisemblablement apocryphe) à la pratique des avocats suivant les ambulances dans l’espoir de trouver de nouveaux clients.

On pourrait argumenter que même si toutes les explications de cette excroissance de 750 GEV étaient fausses, c’était cependant un bon exercice pour l’esprit, une sorte d’opération de forage pour atteindre un vrai résultat. Je ne suis pas convaincue que ceci soit du temps bien utilisé, mais d’une façon ou d’une autre, chasser l’ambulance n’est pas ce qui m’inquiète. Ce qui me préoccupe, c'est que cette quantité produite de documents est une démonstration frappante de l'inefficacité des critères de qualité actuels. Si seulement quelques mois suffisent pour produire plusieurs centaines d'’explications pour un accident statistique, alors à quoi ces explications seraient-elles bonnes ?

Et ce n'est pas seulement en physique théorique des hautes énergies. On le constate aussi en cosmologie, où les modèles d'inflation abondent. Les théoriciens introduisent un ou plusieurs nouveaux champs et potentiels qui régulent la dynamique de l'Univers avant qu’ils ne se désintègrent en matière courante. Les données d'observation actuelles ne permettent pas de distinguer ces différents modèles. Et même en disposant de nouvelles données, il restera encore beaucoup de modèles pour écrire des articles. Selon mon estimation, la littérature en contient actuellement plusieurs centaines.

Pour chaque choix de champs et potentiels d'inflation, on peut calculer des observables, puis passer aux champs et potentiels suivants. La probabilité que l'un de ces modèles décrive la réalité est infime - c'est un jeu de roulette sur une table infiniment grande. Mais selon les critères de qualité actuels, c'est une science de première qualité.

Ce syndrome de comportement se manifeste également en astrophysique, où les théoriciens évoquent des champs pour expliquer la constante cosmologique (qui est bien expliquée par le fait que c’est bien une constante) et suggèrent des «secteurs cachés» de plus en plus compliqués de particules qui pourraient être ou n’être pas de la matière noire.

Il n’est pas dans mon intention de rejeter indistinctement toute cette recherche comme inutile. Dans chaque cas, il y a de bonnes raisons pour que le sujet mérite d'être étudié et conduise à de nouvelles idées - raisons que je n’ai pas la place de développer ici. Mais en l'absence de mesures de bonne qualité, les idées qui s’imposent sont les plus fructueuses, même s'il n'y a aucune preuve que la fécondité d'une théorie soit en corrélation avec sa justesse. Permettez-moi de souligner que cela ne signifie pas nécessairement qu'individuellement les scientifiques modifient leur comportement pour satisfaire leurs pairs. Cela signifie seulement que les tactiques qui survivent sont celles qui se reproduisent.

Beaucoup de mes collègues croient que cette abondance de théories sera éventuellement réduite grâce aux données factuelles. Mais dans les processus de fondation de la physique, il a été extrêmement rare d’éliminer un modèle quel qu’il soit. La pratique admise est au contraire d’ajuster le modèle pour qu’il continue à être en accord avec le manque de preuves empiriques.

La prédominance d’hypothèses fertiles et facilement modifiables a des conséquences. Etant donné que les expériences prouvant les fondations des théories physiques sont devenues tellement couteuses et tellement longues à mettre sur pied, nous devons examiner soigneusement lesquelles d’entre elles sont aptes à révéler de nouveaux phénomènes. Dans cette évaluation les avis des théoriciens sur les modèles susceptibles d’être corrects, jouent un grand rôle. Bien sûr les expérimentateurs mettent en avant leur propres délais, mais c’est la théorie qui devrait éclairer leur mission. Quoi qu’il en soit ceci signifie que si les théoriciens sont perdus, les expériences deviennent moins aptes à produire de nouveaux résultats interprétables, en conséquence les théoriciens ne peuvent s’appuyer sur de nouvelles données et le cercle (vicieux) se referme.

Il n’est pas difficile de voir comment nous en sommes arrivé à cette situation. Nous sommes jugés sur le nombre de nos publications – ou au moins nous pensons être jugés ainsi – et l’exigence d’éléments qualitativement meilleurs pour assurer le développement des théories amputerait la production de celles-ci. Mais que la pression pour publier récompense la quantité au détriment de la qualité a souvent été dit dans le passé et je ne veux pas encore ajouter d’autres reproches sur les éléments mal conçus pour assurer un succès scientifique. Il est évident que de tels reproches n’ajouteraient rien.

Des complaintes sur la pression pour publier ne servent à rien car cette pression est seulement un symptôme et pas la maladie. Le problème sous-jacent est que la science comme toute autre activité collective humaine est soumise à la dynamique sociale. A la différence de la plupart des autres activités humaines collectives, les scientifiques devraient reconnaitre les menaces portant sur l'objectivité de leur jugement et trouver les moyens de les éviter. Mais ce n'est pas ce qui arrive.

Si les scientifiques sont sélectivement exposés aux informations émanant de pairs pensant la même chose, s'ils sont punis pour ne pas suffisamment attirer l'attention, s'ils font face à des obstacles pour quitter des domaines de recherche promis au déclin, ils ne peuvent être comptés comme étant objectifs. C'est la situation dans laquelle nous sommes actuellement et nous devons l'accepter.

Pour moi, notre incapacité -- ou peut-être même notre mauvaise volonté -- à limiter l'influence des biais sociaux et cognitifs au sein des communautés scientifiques est une sérieuse défaillance du système. Nous ne protégeons pas les valeurs de notre discipline. La seule réponse que je vois, sont des tentatives pour rendre les autres responsables : les agences de financement, les administrateurs de l'enseignement supérieur ou les décideurs politiques. Mais aucun de ces acteurs n'est intéressé à gaspiller de l'argent dans des recherches inutiles. Ils comptent sur nous, les scientifiques, pour leur dire comment la science fonctionne.

J'ai indiqué des exemples de ces manquements à l'autocorrection dans ma propre discipline. Il semble raisonnable de penser que la dynamique sociale est plus influente dans les domaines privés de données, ainsi les fondements de la physique représentent-ils peut être un cas extrême. Mais à la base, le problème affecte toutes les communautés scientifiques. L'an dernier, la campagne du Brexit et la campagne de la présidentielle américaine nous ont montré à quoi ressemblent les politiques post-factuelles -- un développement qui peut être complétement perturbant pour quiconque est doté d'un bagage scientifique. Ignorer les faits est vain. Mais, nous aussi, nous ignorons les faits : il n'y a aucune évidence que l'intelligence fournisse une immunité contre les biais sociaux et cognitifs, aussi cette présence doit être considérée comme défaut supposé. Et tout comme nous avons des règles pour éviter des biais systématiques dans l'analyse des données, nous devrions également avoir des lignes directrices pour éviter les biais systématiques découlant de la façon dont les cerveaux humains traitent l'information.

Cela signifie, par exemple, que nous ne devrions pas pénaliser les chercheurs qui travaillent dans des domaines « impopulaires », ni filtrer les informations en utilisant les recommandations d’amis, ni utiliser les techniques de marketing, et nous devrions agir contre la crainte de l’échec avec des incitations à changer de domaine, et donner plus d’importance aux connaissances qui ne sont pas encore largement partagées (Pour éviter le «biais d'information partagée»). Par-dessus tout, nous devrions commencer à prendre le problème au sérieux.

Pourquoi n'est-il pas pris au sérieux jusqu'à présent ? Parce que les scientifiques font confiance à la science. Cela a toujours fonctionné ainsi, et la plupart des scientifiques sont optimistes sur le fait que cela continuera - sans qu’ils aient à agir. Mais nous ne sommes plus au dix-huitième siècle. Les communautés scientifiques ont radicalement changé au cours des dernières décennies. Nous sommes plus nombreux, nous collaborons davantage et nous partageons plus d'informations que jamais. Tout cela est amplifié par les commentaires dans les réseaux sociaux, et il est naïf de croire que quand nos communautés changent nous n’aurions pas aussi à réévaluer nos méthodes.

Comment pouvons-nous blâmer le public d'être mal informé parce qu'ils vivent dans des bulles sociales si nous en sommes également coupables ? »

 

Partager cet article
Repost0
28 avril 2017 5 28 /04 /avril /2017 14:46

A propos de la mécanique quantique standard : recherche de déviations.

La mécanique quantique standard continue d’être auscultée pour tenter de découvrir des déviations par rapport à la conception standard qui s’est imposée depuis maintenant un siècle. L’article d’Alain Aspect du 16/12/2015 : « Closing the Door on Einstein and Bohr’s Quantum Debate » dans la revue de l’American Physical Society, a contribué à valider la complétude de cette conception standard. Malgré ceci, cela ne clôt pas pour autant la recherche de phénomènes, de propriétés, qui n’auraient pas encore été décelés. Récemment, il y en a au moins une qui était recherchée par une équipe de l’université de Vienne dont les conclusions ne permettent pas de dire qu’ils ont débusqué une propriété originale non standard.

Dans ce bref article, je souhaite faire connaître ce résultat négatif parce qu’en creux cela conforte un certain nombre de mes hypothèses. Je me réfère donc à l’article original dans Phys.Org du 21/04/2017 : «The search for deviations from standard quantum mechanics » : « La recherche de déviations de la mécanique quantique standard »

En résumé, il est relaté que s’il est pensé au moins une propriété nouvelle éventuelle, non prescrite par le formalisme mathématique standard, alors il faut en premier lieu exploiter un formalisme mathématique nouveau. La première étape de la tentative des chercheurs de l’université de Vienne a consisté à sélectionner un formalisme mathématique différent de celui exploité par la description standard. Ils proposent donc de substituer aux nombres complexes habituels des nombres hypercomplexes. Ceux-ci correspondent à une généralisation des nombres complexes (par exemple les nombres hypercomplexes sont utilisés en physique quantique pour calculer la probabilité d'un événement en tenant compte du spin de la particule. En négligeant le spin, les nombres complexes « normaux » suffisent.)

Dans une première étape il faut donc s’assurer qu’avec les nombres hypercomplexes on retrouve tous les résultats confirmés dans le cadre de la mécanique quantique standard. Une fois que cette étape est franchie il s’agit d’évaluer théoriquement ce qui pourrait être prédit au-delà du cadre standard. Justement dans le nouveau cadre certaines opérations ne commutent pas alors qu’avec les nombres complexes il y a commutation. Expérimentalement cela signifierait que dans un interféromètre au-delà du miroir semi transparent un chemin spécifié, parcouru par le photon, plutôt que l’autre, non spécifié, n’est pas indifférent (non commutation) à ce qui serait observable in fine dans l’interféromètre.

La différenciation des deux chemins possibles du photon dans l’interféromètre est assurée par l’introduction, dans un, d’un dispositif qui accélère la lumière (avec un méta-matériel) et dans l’autre, un matériel classique qui ralentit la lumière. Evidemment ces caractérisations des chemins ne sont pas exploitables par l’observateur pour qu’il puisse savoir si le photon est passé par un chemin plutôt qu’un autre. L’observateur est maintenu dans l’ignorance spatio-temporelle du chemin effectivement suivi par le photon et c’est essentiel. Ce que les physiciens observent expérimentalement c’est que la règle de non commutation déduite de l’introduction des nombres hypercomplexes ne se vérifie pas avec ce dispositif expérimental particulier.

En fait ce que les chercheurs, auteurs de ce travail, pensent a priori c’est que ce qui est observé serait tributaire des propriétés intrinsèques (modifiées) de objets quantiques. L’idée qui est mienne c’est que ce que l’on observe in fine dans l’interféromètre dépend uniquement si l’observateur a une information spatio-temporelle ou pas sur le chemin effectivement suivi par le photon. Dans un cas, ce qui est observé, ce sont des impacts d’objets ponctuels dans l’autre cas, ce sont des franges d’interférences (qui résultent de l’aspect ondulatoire).

Selon mon hypothèse fondamentale, l’espace, le temps, et en l’occurrence l’espace-temps sont fondés par l’être humain, c’est-à-dire que ce sont des propres de l’homme. Les apparaître différents à l’observateur : onde/objet ponctuel, sont déterminés par sa connaissance ou pas d’une information spatio-temporelle à propos du chemin suivi par l’objet (ici, un photon). La mécanique quantique nous confronte au fait que l’être humain est un être façonné par les lois classiques de la nature. C’est donc en fonction de ce bagage hérité au cours de son évolution qu’il décrypte progressivement les lois de la nature. Le monde de l’infiniment petit ne nous étant pas accessible directement, aucune conception réaliste de ce monde ne peut être établie contrairement à ce qu’avait voulu instaurer Einstein avec ténacité. Comme le rappelle l’article d’Alain Aspect c’est la version de l’école de Copenhague qui est juste et pas celle des réalistes.

Ce que nous observons n’est qu’un apparaître et nous enregistrons un savoir qui est conditionné par nos capacités cérébrales déterminées par le fait que nous sommes des sujets pensants, observateurs, moulés par une intelligence et des références du monde classique. J’ai eu plusieurs fois l’occasion d’indiquer que c’est un stade provisoire de notre faculté de décrypter le monde physique : voir article du 26/09/2015 ‘Non, on ne pense pas quantique. Pas encore !’. Ce stade provisoire pourra être franchi, lorsque nous atteindrons une compréhension nouvelle de nos facultés cérébrales d’investigations comme je l’ai proposé dans les articles du 21/09/2016 et du 10/10/2016.

Partager cet article
Repost0
11 avril 2017 2 11 /04 /avril /2017 12:11

La recherche doit-elle voir toujours plus grand ?

Dans le numéro de 'La Recherche', du mois de Mars, sont proposés plusieurs articles sous la rubrique : « Big science », La recherche doit-elle voir toujours plus grand ? A propos de ce thème générique, je considèrerai les sujets qui recouvrent essentiellement le domaine de la physique.

  • Grands instruments, grandes équipes et/ou gros budgets caractérisent une nouvelle manière de faire de la science. De plus en plus répandue dons tous les champs de recherche, elle est à l'origine de plusieurs découvertes marquantes de ces dernières années. Mais les interrogations, les doutes, les oppositions que ce modèle suscite, dans la communauté scientifique et au-delà, soulignent à quel point il est crucial de bien mûrir un projet de grande envergure afin d'en faire un succès. » Ce paragraphe introductif, que l'on peut lire page 81, présente justement la problématique qu'engendre le développement et l'exploitation de ce qui se réfère à la Big science ». A juste raison sont présentés les succès significatifs qui sont dus à son recours. Mais sont aussi mis en exergue les projets dont on peut craindre qu'ils ne soient que des fuites en avant. Fuites en avant quand les projets (d’expériences et/ou d’observations) ne sont pas suffisamment précédés par un minimum de prédictions théoriques qui cernent un spectre d’hypothèses hiérarchisées permettant de valider ou invalider quelques-unes de celles-ci.

Exemple, p.86 : « Mais la big science a aussi ses détracteurs ou, tout au moins, ses sceptiques. Simon White, directeur de recherche à l'institut Max-Planck d'astrophysique, à Garching, en Allemagne, a ainsi exprimé de multiples doutes quant aux grands projets de recherche sur l'énergie noire, cette forme d'énergie hypothétique nécessaire, par exemple, pour expliquer l'accélération de l'expansion de l'univers. Il redoute surtout l'impact possiblement néfaste de ces projets sur la recherche en astrophysique. Entre autres, que leur bénéfice réel soit mol évalué et, par conséquent, conduise à engloutir les crédits de recherche dans la construction d'instruments très coûteux mais apportant finalement des avancées limitées. »

L'aspect financier n'est pas secondaire, mais à mon sens cet aspect n'exprime pas l'inconvénient essentiel. Pour illustrer mon propos, je prends pour exemple le cours réalisé par Françoise Combes au Collège de France 2016-2017, intitulé :'Energie noire et modèles d'univers'. Ce cours n'a pas pu être autrement que très impressionniste car notre compréhension des choses est encore trop vague, franchement fluctuante, insuffisamment confirmée sur le plan observationnel, et récemment des nouvelles mesures affaiblissent sérieusement la thèse de l'accélération de l'expansion de l'univers dont l'énergie noire en serait la cause. Bref, on a pu constater que F. Combes se trouvait sur le fil du rasoir au cours des séances successives qui ont été conclues par celle du 06/02 avec le titre : 'Perspectives avec Euclid, WFIRST, LSST, SKA'. Ces acronymes désignent des télescopes spatiaux ou terrestres, qui vont entrer en activité dans la prochaine décennie, censés lever le voile de la validité ou pas de l'hypothèse de l’énergie noire. A ce niveau, on entend l'inquiétude de Simon White à propos de ces perspectives qui représentent au total des engagements financiers de l'ordre de 4 ou 5 milliards d'euros ou dollars.

Pour mon compte se trouve illustré, avec ces perspectives annoncées, ma préoccupation relative à une fuite en avant. En effet, ce cours n'a pas pu indiquer une quelconque avancée théorique, si ce n'est la présentation d'une panoplie extrêmement large d’hypothèses sans qu'aucune hiérarchie parmi celles-ci ne puisse être affirmée. Il faut de plus prendre en compte qu’il y a déjà en action deux voire trois dispositifs d'observations et de mesures qui visent à détecter l'action d'une énergie noire dans l'univers : SDSS, DES, BOSS, autres acronymes désignant les dispositifs actuellement en activité. Aucune conclusion ne peut être extraite de ces présentes observations. De plus, un article qu’il n’est pas possible de sous-estimer, publié par des théoriciens, le 3 avril, nous indique que l’énergie noire pourrait n’être qu’une illusion. L'irrésistible propension à définir de nouveaux appareils d’observation, et à effectivement les construire, est justifiée par la progression remarquable des technologies. Ce qui permet de disposer de caméras et de télescopes de plus en plus sensibles et qui, de plus, ramassent par unité de temps des quantités d'informations de plus en plus importantes. L'impressionnant développement de la capacité de traitement informatique de ces gigantesques quantités d'informations recueillies autorisent à considérer que l'aire de la méga science, sans pensée préalable, ne peut que prospérer.

Pourtant, pour notre réflexion nous disposons d'un redoutable exemple illustrant le fait qu'une méga technologie couplée à une méga capacité de calcul ne conduit pas systématiquement à de méga avancées scientifiques, loin s’en faut. On ne peut pas glisser sous le tapis l’inquiétante déconvenue internationale provoquée par l'absence de résultats significatifs au CERN depuis trois bonnes années, alors que toutes les conditions optimales de productions de résultats ont été réunies pendant l'année 2016 grâce au fonctionnement idéal du LHC, aucune publication originale, significative, n'a été produite. Bref aucune nouveauté originale n’a pu être discriminée dans les détecteurs. Mais nous ne pouvons pas exclure qu’une ou plusieurs nouveautés ont été générées, sans que nous puissions les voir parce que non précédées par un minimum de regard théorique.

C’est dans l'article d'entrée en responsabilité de Fabiola Gianetti, en tant que Directrice Générale du CERN le 01/01/2016, que d'une façon explicite j'ai lu l'expression de la croyance qu'il suffisait de se reposer sur le développement de Ia puissance technologique pour que tous les espoirs soient permis. L'expression de cette croyance est contenue dans cette phrase : « Si une nouvelle physique est là, nous pouvons la découvrir, mais c'est entre les mains de la nature. » J'ai dit quel était le dépit que m'inspirait cette appréciation erronée dans l'article du 16/01/2016 : « Et si notre pensée était mal placée ! ». L'histoire des découvertes scientifiques nous indique que l'homme ne découvre que ce qu'il a préalablement conçu théoriquement dans l'ordre du possible et donc s'il a conçu un filet intellectuel capable de recueillir dans ses mailles des signes interprétables dans un sens ou dans un autre, sinon la nature ne peut être, pour nous, que muette.

Prenons un exemple significatif, de filet intellectuel préalable, celui qui a mené à la mise en évidence du Fond diffus Cosmologique. Petit rappel historique : quand A. Penzias et R. Wilson ont observé dans leur antenne nouvelle, qu'ils testaient en 1965, un bruit de fond plutôt homogène et plutôt isotrope, ils étaient intrigués. En tant qu'électroniciens ils étaient inquiets car pour eux c'était un bruit qui pouvait laisser supposer un défaut de leur antenne prototype. N'arrivant pas à éliminer ce qui pour ces électroniciens était un bruit parasite, ils échangèrent leurs préoccupations avec des physiciens. Il s'est trouvé que ceux-ci connaissaient les travaux avant-gardistes du physicien théoricien et cosmologiste George Gamow ainsi que ceux de Ralph Alpher et Robert Herman concernant l'hypothèse d'un univers naissant dans une phase primordiale et prédisant un rayonnement rémanent. Le filet intellectuel, jeté par ces physiciens théoriciens dans la mer d’une connaissance éventuelle, recueillait dans ses mailles ce qui bien ailleurs était détecté comme un bruit parasite. Un prix Nobel fut attribué à A. Penzias et à R. Wilson, pas à Gamow.

Il est intéressant de citer un exemple très actuel où le recours à la 'Big science' est complètement justifié puisque éclairée par de l’intelligence prédictive et ainsi permettra peut-être de satisfaire des curiosités multiples à propos des trous noirs massifs et hypermassifs qui sont au centre des galaxies. En effet au cours de ce mois d'avril, plus précisément en ce moment dans la période du 4 au 14 avril, il est programmé d'obtenir une image du cœur de notre galaxie où réside un trou noir qui pèse M = 4 millions de masse solaire et du cœur de la galaxie M87 qui se trouve à une distance de 53,5 millions d'années-lumière de la terre ayant un trou noir pesant M = 6 milliards (sic) de masse solaire. Pour obtenir ce type d'image il faut constituer pendant la période d'observation un télescope virtuel qui résulte de la combinaison en temps réel de huit observatoires de 4 continents et d'Hawaii et ainsi obtenir un télescope unique avec un pouvoir de résolution qui a la taille de la terre. Cette opération typiquement « Big science », appelée : Télescope Horizon d'Evénement', acronyme : EHT (Event Horizon Telescope) devrait permettre de révéler le bord de ces deux trous noirs nommé : horizon des événements. Le rayon de l'horizon est défini par l'équation R = 2GM/C2. EHT doit permettre de voir le bord r > R du trou noir car il est entouré d’un disque d'accrétion de matière très chaude qui spirale autour de l'horizon jusqu'à ce que celle-ci soit engloutie irréversiblement. Avant ce terme, spiralant à très grande vitesse, la matière émet de la lumière et c'est ce que EHT veut capter sur des longueurs d'ondes de 0.87 à 1.3 mm. Dans la région d'un trou noir la gravitation est extrême et le disque d'accrétion sera vu déformé (prévision de la Relativité Générale) au point que la partie arrière du disque sera visible.

Il faudra récolter chaque nuit d'observation 2.1015 bytes de données (ce qui représente la même quantité collectée au cours d'une annualité de fonctionnement du LHC). Ensuite il s'agira de traiter ces données et les analyser grâce à des réseaux d'ordinateurs pendant un semestre et ensuite l'étude scientifique commencera. Si tout se déroule comme prévu, les premières publications seront disponibles à la mi-2018.

Ci-joints 2 articles annonçant que l’opération d’observation est commencée :

Worldwide telescope attempts to image a black hole. Le 6 Avril

An attempt to obtain the first ever image of the Milky Way's supermassive black hole has begun. The Earth-sized Event Horizon Telescope (EHT) has launched 10 days run to obtain the portrait via very-long-baseline interferometry (VLBI). The telescope comprises eight radio dishes across the globe, including the Atacama Large Millimeter/submillimeter Array (ALMA) in Chile, the South Pole Telescope (SPT) in Antarctica, and the IRAM 30 metre telescope in Spain. Since its first measurements in 2007, the EHT has yielded tantalizing results even without the full array of telescopes. Now, all eight are linked and looking at our black hole, Sagittarius A* (Sgr A*), as well as the even bigger one in the neighbouring galaxy M87. Although black holes are inherently invisible because of their extreme density and gravitational field, the researchers hope to image the point where matter and energy can no longer escape – the so-called event horizon. "This week heralds an exciting and challenging endeavour for astronomy," says France Córdova, director of the funding agency National Science Foundation. For more information on the EHT, see our feature "Portrait of a black hole

EHT (Event Horizon Telescope) va acquérir une première image du trou noir de notre galaxie, la Voie lactée. Comment ? En utilisant un réseau de radiotélescopes répartis sur la planète pour former un télescope virtuel de quelque 5.000 kilomètres de diamètre. Les explications de Michael Bremer, astronome et responsable Iram du projet EHT.

Ce qu'il faut retenir :

  • En associant les instruments de sept observatoires répartis sur les deux hémisphères, le projet EHT crée un télescope virtuel d'environ 5.000 kilomètres de diamètre.
  • Il sera utilisé, tout d'abord, pour obtenir une image du trou noir au centre de notre galaxie. Pour être réalisée, elle nécessitera plusieurs mois de traitement.
  • C’est en fait l'horizon du trou noir qui sera vu, dans le domaine submillimétrique.

Alors qu'il semblait impossible d'observer le trou noir au centre de la Voie lactée, une équipe internationale d'astronomes, dont des Français, parie le contraire. Depuis quelques jours, ils observent Sagittarius A*, le trou noir supermassif de notre galaxie, situé à 26.000 années-lumière de nous. Pour observer cet objet d'une taille estimée à 25 millions de kilomètres et quatre millions de fois plus massif que le Soleil, nos astronomes utilisent l'EHT (Event Horizon Telescope).

L'instrument, pourtant, n'existe pas vraiment... Il est virtuel, associant des observatoires et des télescopes du monde entier, de l'Europe jusqu'à l'Antarctique, en passant par le Chili et Hawaï.

Partager cet article
Repost0
14 mars 2017 2 14 /03 /mars /2017 13:49

Indices solides qui valident l’article du 17 février.

Ce 17 février, j’ai posté l’article : ‘Fragilité du Modèle Standard de la Cosmologie’. Ce 8 mars un article important est publié sur le site de la revue ‘Science’ : ‘Trouble sur la constante de Hubble : un débat relancé à propos de la vitesse d’expansion de l’univers pourrait mener à une nouvelle physique

Le débat en question présente beaucoup d’intérêt parce qu’il est provoqué par le constat d’un écart de valeur significatif, de l’ordre de 8% mesuré, de la constante de Hubble (H0) qui détermine la vitesse d’expansion de l’univers et aussi permet de calculer l’âge de l’univers depuis le Big-Bang. Pour une part des cosmologistes annoncent 68 km/s/Mpc (2014), d’autre part les astrophysiciens annoncent 73 km/s/Mpc (2016). La valeur obtenue par les cosmologistes résulte de l’exploitation des relevés récents fournis par le satellite Planck qui sont considérés comme les plus précis depuis 2014. La première nouvelle valeur obtenue par les astrophysiciens fut publiée le 2 juin 2016 et elle a été confirmée par une autre équipe le 26 janvier 2017. Cet écart avéré est significatif parce que les deux valeurs différentes de Ho ont été déterminées par les physiciens en empruntant des chemins scientifiques distincts.

Les astrophysiciens ont procédé par des mesures différenciées de l’éloignement d’objets célestes tels que, des galaxies ou étoiles céphéides, supernovæ, et autres, qui permettent de déduire la vitesse d’expansion. Ces méthodes de mesure exploitent les instruments actuellement disponibles les plus performant et exploitent aussi la compréhension acquise aujourd’hui de l’effet lentille gravitationnel. La valeur de H0 obtenue est qualifiée : attachée à l’univers local, c’est-à-dire à l’univers qui a autour d’au moins 5 milliards d’années d’épaisseur temporelle en arrière de nos instruments de détection.

Les cosmologistes ont obtenu leur valeur de H0 en prenant en compte la carte du fond diffus cosmologique la plus détaillée obtenue dernièrement par le satellite Planck, que l’on qualifie comme étant la première image de l’univers, celle-ci représentant l’univers 380.000ans après le Big-Bang. En faisant des suppositions concernant comment la poussée et l’attraction de l’énergie et de la matière dans l’univers ont changé le taux d’expansion du cosmos depuis que le fond diffus fut constitué, les scientifiques peuvent a priori ajuster la constante de Hubble jusqu’à aujourd’hui correspondant à l’univers local. Donc les deux évaluations de Ho devraient coïncider. Ceci n’étant pas le cas, un chemin d’évaluation devrait être erroné. Si ce désaccord persiste, il faut considérer qu’il y a en perspective une nouvelle physique à découvrir et une des hypothèses qui fait sens serait de considérer qu’un ingrédient a été oublié ou mal évalué contribuant à l’expansion de l’univers.

Dans l’article du 17/02, j’ai choisi comme titre : ‘Fragilité…’ au singulier parce que je considère que c’est la conception globale de notre univers qui est provisoire et simplement représentatif de ce que nous sommes actuellement en mesure de décrypter à travers le prisme de nos capacités d’inférer actuelles. Cette fragilité globale sera probablement comprise à partir de la reconnaissance d’une fragilité spécifique. Peut-être sommes-nous au seuil de cette reconnaissance.

Je cite quelques arguments développés dans l’article du 8/03 : « Les cosmologistes ont exploité l’image du fond diffus en privilégiant certaines hypothèses en considérant les grumeaux chauds et moins chauds régulièrement répartis dans la soupe primordiale fixée par la première image de l’univers. Ces considérations sont : les grumeaux ont comme ingrédients constitutifs : les particules familières comme les atomes et les photons, quelques substances extra (sic) et invisibles appelées matière noire et énergie noire. »

Pour retrouver une concordance entre les deux valeurs de Ho, l’hypothèse dominante est encore de présupposer un quatrième neutrino comptabilisé dans la balance énergétique initiale de l’univers qui fournirait au stade du tout début de l’univers un supplément de pression radiative et qui se dissiperait plus rapidement. Ce scénario signifierait un univers primordial en expansion plus rapide et plus significative que celle prédite par le modèle standard avec sa liste traditionnelle d’ingrédients. Ainsi la concordance dépend d’une hypothèse qui jusqu’à présent n’est pas vérifiable.

Une autre possibilité de concordance peut être imaginée avec l’hypothèse de l’énergie noire. En effet les modèles cosmologiques les plus courants prennent en compte une valeur constante de l’énergie noire. Par contre si l’énergie noire devient progressivement plus importante au cours du temps, alors, ceci expliquerait pourquoi l’univers a une expansion plus rapide aujourd’hui que ce que l’on considère en auscultant l’univers primordial. Mais ce scénario est critiqué car il est conjecturé que l’hypothèse d’une énergie sombre variable est ad hoc et n’est pas naturelle.

Je vous propose de considérer que le présent article a la valeur d’un rapport d’étape et probablement dans un futur proche des choses intéressantes vont être dévoilées.

Partager cet article
Repost0
6 mars 2017 1 06 /03 /mars /2017 08:06

Etat quantique : subterfuge ou réalité ?

En 2011, j’avais réservé un article qui rapportait qu’au cours d’une conférence 33 physiciens et philosophes avaient participé à un sondage pour exprimer leur préférence à propos des différentes interprétations actuelles de la mécanique quantique. Le résultat publié attribue : 42% à l’interprétation de Copenhague ; 24% à l’interprétation relative à la théorie de l’information ; 18% à l’interprétation des mondes multiples de Hugh Everett ; 9% à l’interprétation des collisions objectives (GRW) ; 6% à l’interprétation quantique Bayésienne ; 6% à la mécanique quantique relationnelle (C. Rovelli) ; 0% interprétation de Broglie-Bohm.

Ce sondage peut être commenté de plusieurs façons, pour mon compte je constate qu’après plus d’un siècle c’est toujours l’interprétation de l’école de Copenhague qui tient la corde bien que depuis d’autres interprétations ont réussi à convaincre en partie des physiciens. L’interprétation de Copenhague est la plus frustrante et la plus radicale pour ceux qui croient que la connaissance en physique ne peut être qu’une connaissance du réel (réalistes). D’après ‘Copenhague’, il y aurait une barrière infranchissable : « pour atteindre le monde tel qu’il est à l’échelle microscopique de l’infiniment petit parce que les êtres humains (donc les physiciens) sont conditionnés pour penser en terme du monde classique qui nous entoure. Le monde quantique dans sa réalité nous est par essence inaccessible. La théorie quantique nous fournit des outils très effectifs mais pas plus que cela. Quand nous observons le monde quantique, nous le forçons à être conforme à nos préconceptions qui ne peuvent que refléter notre conditionnement par le monde classique… (cf. : exposé de N. Bohr, à Côme en 1927) »

Sur le site Phys.org, il a été publié le 21/02/2017 un article : ‘Test proposé qui pourrait offrir l’évidence la plus forte que l’état quantique est réel’, qui commente l’article d’un physicien théoricien de l’université d’Oxford : Georges C. Knee. Article original publié dans le ‘New Journal of Physics’.

En introduction il est dit : « Les physiciens s’approchent de plus en plus de la réponse à la question la plus basique de la théorie quantique : est-ce que l’état quantique représente la réalité ou tout simplement notre connaissance de la réalité ? » G. Knee nous dit qu’il a créé un algorithme permettant de définir les expériences optimales qui fourniraient les évidences les plus fortes entre : l’état quantique est un état ontique (un état de la réalité) et pas un état épistémique (un état de connaissance). Ce sujet est un sujet de controverse depuis le début de la mécanique quantique et cette controverse fut avec force engagée par N. Bohr, étant en faveur de l’interprétation ontique (sic), versus Einstein, étant en faveur de l’interprétation épistémique. Selon Knee, l’évidence la plus contemporaine penche pour la thèse de la réalité de l’état quantique. Ceci conduit à l’acceptation de la réalité de la superposition des états quantiques. Si ces états sont ontiques, cela veut dire qu’une particule occupe réellement deux états à la fois, et non pas que cela nous apparaisse ainsi à cause de notre capacité limitée de préparer les particules selon le point de vue épistémique. Capacité limitée, cela veut dire qu’il y a un recouvrement entre la distribution des états quantiques contrairement au point de vue ontique. Recouvrement, cela se concrétise avec le fait que la particule existe dans l’état de la zone de recouvrement, et nous ne pouvons pas dire la différence entre les deux possibilités à cause du recouvrement. Ceci est donc le point de vue épistémique qui évacue quelques-unes des étrangetés de la superposition en expliquant que l’aspect non différentiable des deux états est un recouvrement (une limitation humaine (sic)) et non pas une situation réelle.

L’hypothèse de travail de Knee c’est qu’avec son algorithme il va être possible de réduire l’erreur qui induit l’interprétation du recouvrement et donc c’est la thèse de la réalité des deux états occupés réellement, et en même temps, par une particule qui se révélera être la bonne hypothèse.

Le 26/09/2015, j’ai proposé l’article : ‘Non, on ne pense pas quantique. Pas encore !’. Pas encore : signifie évidemment qu’il sera possible de penser quantique quand on aura dépassé les postulats pragmatiques, empiriques, de l’école de Copenhague. C’est-à-dire quand on aura décrypté la part de la phénoménologie qui est réellement en jeu à l’échelle quantique et qui n’a pas pu l’être jusqu’à présent. J’ai toujours considéré que les postulats de Copenhague étaient provisoires, bien que cela commence à sérieusement durer. On doit considérer que la tentative de Knee est une tentative intéressante bien que je n’adhère pas à son cheminement. En effet, avec cette tentative, Knee réalise des glissements sémantiques qui me semblent préjudiciables, en tous les cas des sources de confusion. Einstein a toujours affirmé que la mécanique quantique de Copenhague était incomplète parce que incapable de décrire la réalité du monde quantique (voire l’introduction à l’article EPR). Avec son hypothèse des variables cachées, il désignait que c’était le formalisme de celle-ci qu’il fallait modifier, enrichir. Donc on n’est pas plein cadre dans une problématique épistémique. L’école de Copenhague, tout au contraire, dit qu’il faut renoncer à vouloir considérer le monde quantique dans sa réalité (voir sur ce sujet article du 19/08/2015). La connaissance que nous en avons, grâce à l’observation et conséquemment la capacité de prédiction (statistique) que nous pouvons inférer, constituent un savoir complet. Nous sommes en rapport avec le monde quantique, tel qu’il nous apparaît, sans que nous puissions accéder, dévoiler, à tel qu’il est.

Malgré ces préventions signalées, la proposition de Knee est intéressante parce qu’il introduit dans le point de vue épistémique une explication complémentaire qui est qu’une limitation humaine serait en jeu. Selon moi, ce qui est en jeu c’est effectivement une détermination humaine et celle-ci pourra être dépassée lorsque l’on découvrira quelle est sa nature. A partir de sa découverte on pourra penser quantique parce que l’on pourra intellectuellement l’intégrer, et donc la dépasser, pour le moins la contourner, sans que nous puissions pour autant l’effacer. Dans l’article du 21/09/2016, j’ai réitéré l’expérience qui permettrait de déceler la détermination humaine en question, fondée sur l’idée que l’espace et le temps, l’espace-temps, sont une invention, une fondation de l’intelligence humaine qui s’est engagée il y a au moins 2 millions d’années. (En complément, voir l’article du 15/10/2016 ; celui du 21/07/2015 : ‘La seconde naissance de l’homme’)

Ensuite, les travaux récompensés de C. Bender : (voir article du 05/11/2016 : ‘Merci Carl Bender’), ont, à mon sens, confirmé qu’une extension du rôle attribué à notre conception déterminée de l’espace et du temps, de l’espace-temps, permet de rendre compte de l’état d’énergie discontinu en mécanique quantique et en corollaire la superposition d’états d’énergie.

 

Partager cet article
Repost0
1 mars 2017 3 01 /03 /mars /2017 16:50

Déroutant voire inacceptable

Sur un site Américain était publié le 8/02 un article assez court annonçant que l’interféromètre européen Virgo allait enfin pouvoir participer à la chasse aux ondes gravitationnelles conjointement avec ceux de Ligo. C’était une annonce positive car après de nombreux semestres d’indisponibilité pour causes d’améliorations techniques, sa mise en fonctionnement permettait d’accroître notamment la précision de la localisation dans l’espace de la fusion des trous noirs.

Sur le site de ‘Science’ le 16/02 un article annonce que ‘le détecteur européen des ondes gravitationnelles est défaillant’. Depuis cette date aucun site scientifique français ni aucune revue n’ont daigné donner la moindre information sur ce sujet alors que de nombreux scientifiques et ingénieurs nationaux sont impliqués sur le fonctionnement de cet instrument.

Il est impossible de connaître et comprendre les raisons de ce silence et de ce qui pourrait ressembler à une censure. Pourquoi ? Il n’est pas possible de rester passif devant cette situation qui pour le moins n’est pas scientifique.

Je propose dans ce qui suit de me référer à l’article de ‘Science’ du 16/02, d’en citer les éléments les plus informatifs et de joindre in-fine l’article original.

Je cite : « Le 20/02 les dignitaires devaient aller près de Pise où se trouve VIRGO pour marquer le redémarrage du détecteur après 5 années et 24 millions d’Euros d’améliorations. Mais pour augmenter la sensibilité du détecteur il fut décidé de remplacer les fils d’acier qui suspendaient les miroirs par des fils en fibre de verre pour réduire la sensibilité aux bruits de fond, thermique et mécanique. Déjà, l’année dernière après quelques jours ou quelques semaines les fils de verre se brisaient une fois que les miroirs de 40 kg étaient suspendus. Après des mois d’enquête l’équipe technique a découvert le coupable : des particules microscopiques provenant de débris des pompes du système du vide aussi upgradé. Lorsque ces débris se dépose sur la fibre du verre ils engendrent des microfissures qui se développent, de jour en jour, de semaine en semaine, jusqu’à la rupture.

Il est impossible que VIRGO puisse fonctionner de concert avec LIGO car celui-ci fonctionne depuis novembre 2016 et devrait être performant jusqu’en Mai 2017. Espérons que VIRGO aura réglé ses problèmes de fiabilité au moins au printemps de 2018 car LIGO sera prêt pour une nouvelle période de détection. Heureusement au tout début de 2019 un nouveau détecteur performant au Japon sera fonctionnel : KAGRA : Kamioka Gravitational Wave Detector.

European gravitational wave detector falters

By Daniel CleryFeb. 16, 2017 , 2:00 PM

On 20 February, dignitaries will descend on Virgo, Europe’s premier gravitational wave detector near Pisa, Italy, for a dedication ceremony to celebrate a 5-year, €24 million upgrade. But the pomp will belie nagging problems that are likely to keep Virgo from joining its U.S. counterpart, the Laser Interferometer Gravitational-Wave Observatory (LIGO), in a hunt for gravitational wave sources that was meant to start next month. What has hobbled the 3-kilometer-long observatory: glass threads just 0.4 millimeters thick, which have proved unexpectedly fragile. The delay, which could last a year, is “very frustrating for everyone,” says LIGO team member Bruce Allen, director of the Max Planck Institute for Gravitational Physics in Hannover, Germany.

A year ago, LIGO confirmed a prediction made by Albert Einstein a century earlier: that violent cosmic events, like the merger of two black holes, would wrench the fabric of spacetime and emit ripples. But LIGO, with two instruments in Livingston, Louisiana, and Hanford, Washington, cannot pinpoint the sources of the waves, which would let astronomers train other telescopes on them. Triangulating on the sources requires a third detector: Virgo.

The detectors all rely on optical devices called interferometers: two straight arms, several kilometers long, positioned at right angles. Inside each arm a laser beam bounces back and forth between mirrors at each end of a vacuum tube, resonating like sound in an organ pipe. The laser light is combined where the two arms meet so that the peak from one laser wave meets the trough of the other and they cancel each other out. But if something, such as a gravitational wave, stretches space and changes the length of the two arms by different amounts, the waves will no longer match up and the cancellation will be incomplete. Some light will pass through an exit known as the dark port and into a detector.Haut du formulaire

Bas du formulaire

The tiniest vibrations—earth tremors, the rumble of trains, even surf crashing on distant beaches—can swamp the signal of gravitational waves. So engineers must painstakingly isolate the detectors from noise. At Virgo, for example, the mirrors are suspended at the end of a chain of seven pendulums. For the upgrade, steel wires connecting the mirror to the weight above it were replaced with pure glass fibers to reduce thermal and mechanical noise.

But a year ago, the glass threads began shattering, sometimes days or weeks after the 40-kilogram mirrors were suspended from them. After months of investigation, the team found the culprit: microscopic particles of debris from the pumps of the upgraded vacuum system. When these particles settled on the glass fibers they created microcracks, which widened over days and weeks until the fibers failed. “The fibers are very robust until something touches their surface,” says Giovanni Losurdo, Advanced Virgo project leader at Italy’s National Institute for Nuclear Physics in Pisa.

During the investigation, the team temporarily replaced the glass fibers with steel wires—as in the original Virgo—and pressed ahead. But other problems compounded the delays. An examination of small steel triangles that act as vibration-damping springs revealed that 13 out of 350 were cracked or broken. Why remains a mystery, but the team replaced those that showed any sign of damage—40% of the total. Given the complexity of the detector, “it’s not surprising some things don’t work as expected,” says Virgo team member Benoit Mours of France’s National Institute of Nuclear and Particle Physics in Annecy.

The Virgo team has now achieved “lock” in the two detector arms, meaning that light is stably resonating. They soon hope to bring in the central optics and combine the beams. Then they must hunt down and eliminate remaining sources of noise to see what level of sensitivity they can achieve with the steel wires still in place.

For Virgo to make a useful contribution, it needs to be at least one-quarter as sensitive as LIGO. Researchers define sensitivity as the distance to which a detector could spot the merger of two neutron stars with masses 1.4 times the sun’s. LIGO’s Livingston detector can currently sense such an event out to about 80 megaparsecs (260 million light-years). In theory, with all of the upgrades but the mirrors still suspended with steel wires, Virgo should be able to reach 50 megaparsecs, Losurdo says. “As soon as Advanced Virgo reaches the sensitivity to join, we will start.”

Frustratingly for the Virgo team, the steel wires are expected to have the most impact on sensitivity to gravitational waves with lower frequencies than neutron star mergers, such as those from the mergers of black holes. And black hole mergers are precisely the events that LIGO detected last year.

The task of eliminating noise sources is sure to take several months, says Lisa Barsotti of the Massachusetts Institute of Technology in Cambridge, co-chair of the LIGO-Virgo Joint Run Planning Committee. That makes joining LIGO as planned in March a virtual impossibility. The current LIGO run, which began on 30 November 2016, was expected to continue for about 6 months, until late May 2017, but even that may be a stretch for Virgo. Barsotti says LIGO could extend its run by a month or two, “to give Virgo a chance to join.”

Whether Virgo manages to take part in the current run, the team should be able to reinstall the glass fibers and root out other sources of noise by the spring of 2018, when LIGO will start a new observing run. Soon after, a fourth detector is poised to join the hunt: the Kamioka Gravitational Wave Detector, or KAGRA, near Hida City in Japan, which plans to begin operations in 2019. KAGRA’s arms will be underground, below 200 meters of rock, and its mirrors chilled to 20 K—two tricks that should reduce noise and boost sensitivity.

 

Partager cet article
Repost0
26 février 2017 7 26 /02 /février /2017 06:53

Perspectives

Au Collège de France, Françoise Combes a terminé son cours : Énergie noire et modèles d'univers, le 06/02/2017 par une séance intitulée : Perspectives avec Euclid, WFIRST, LSST, SKA. Ces noms désignent les instruments existants déjà partiellement ou vont être développés très prochainement pour mieux cerner, pour l’essentiel, la problématique de l’accélération de l’expansion de notre univers. Chacun de ses nouveaux moyens d’observation représente un investissement minimum de 1 milliard d’euros. L’intitulé de cette dernière séance est sans ambiguïté et F. Combes, en tant que physicienne, nous indique que la perspective essentielle est l’obtention de ces instruments et que ceux-ci soient opérationnels d’ici quelques années pour que soit atteint un seuil de connaissance significatif sur la dynamique de l’évolution globale de notre univers. La communauté scientifique des astrophysiciens, cosmologues, et autres catégories souhaitent participer à cette aventure, même pour ceux qui n’auraient qu’une perspective de court terme, terrienne, cela est professionnellement valorisant et à la clef, il y a une intéressante perspective de création d’emplois scientifiques. Précisons qu’avec ce sujet nous sommes concentrés sur la conquête de connaissances purement fondamentales concernant la structure de notre univers et sa dynamique.

Dans un billet, du ‘Monde’ du 22/02, signé par Louise Mussat, avec le titre ‘L’architecture cosmique éclaire sur l’énergie noire.’, dans le paragraphe : ‘Simuler les évolutions des grandes structures depuis le Big Bang’, il est écrit : « Chacun des modèles d’énergie noire (les astrophysiciens en ont élaboré tout un catalogue) influence de façon caractéristique les grandes structures de l’Univers. Pour savoir quel est le bon, il leur faut donc observer l’évolution de ces dernières, notamment avec des ordinateurs ultrapuissants. « Depuis 2012, nous utilisons le supercalculateur Curie, situé au CEA, dans le cadre du projet Deus, explique Jean-Michel Alimi, de l’observatoire de Paris. La machine est pétaflopique : elle est capable de résoudre un million de milliards d’opérations chaque seconde. Cette puissance nous permet de simuler l’évolution des grandes structures depuis le Big Bang jusqu’à l’Univers actuel » « Les données sont en cours de traitement mais, déjà (sic), les scientifiques envisagent d’élaborer une machine mille fois plus puissante. De catégorie exaflopique, elle serait capable de résoudre un milliard de milliards d’opérations à la seconde. « Cela nous permettrait de gagner en résolution, poursuit J.M. Alimi. Ainsi, nous pourrions non seulement observer la structuration de l’Univers dans son ensemble, mais aussi accéder à des évolutions plus fines, plus locales. » « Reste à relever les défis technologiques majeurs. Faire tourner un tel engin nécessite une énergie comparable à celle d’une centrale nucléaire (sic). Il faut donc réfléchir à des systèmes qui consomment moins, à des processeurs de nature différente. En attendant que cet ordinateur voit le jour, des engins d’observation non pas virtuels mais réels seront mis en service. Parmi eux, Euclid. Ce télescope spatial de l’Agence Spatiale Européenne (ESA) est conçu pour tenter de résoudre l’énigme de la matière noire. Son lancement est prévu pour 2019. »

Peut-être qu’avec ces propos de J. M. Alimi, on entend en écho l’expression : « Tais-toi et calcule ! », injonction qui aurait fait florès, à partir de la décennie 1950, destinée aux collaborateurs de célèbres physiciens confrontés aux difficultés de comprendre la phénoménologie de l’électrodynamique quantique mais qui, en exploitant les recettes du calcul proposées par R. Feynman, obtenaient des résultats efficaces. L’idée spontanée d’Alimi, est de faire des recherches pour un supercalculateur d’une nouvelle génération et non pas de considérer qu’effectivement nous avons tous les éléments pour penser ce qu’est la dynamique de notre univers et que nous devons nous concentrer sur la compréhension de ce que signifient ces éléments et in fine les exploiter dans le bon ordre. Les puissances de calcul dont nous disposons maintenant, les possibilités de simulation qui s’en déduisent, affaiblissent le recours à la faculté de théorisation et à l’intelligence collective pour dénouer les impasses. Ce ne sont pas les ordinateurs qui énonceront les bons paradigmes. Pensons à la situation au CERN, qui n’a jamais été aussi performant depuis 18 mois mais qui ne conduit à aucune nouveauté parce que la pensée scientifique collective est mal placée (voir article du 16/01/2016 et du 10/08/2016).

L’univers n’est saisissable que par l’esprit, plus spécifiquement par l’esprit qui est qualifié scientifique et en conséquence le questionnement, le désir de savoir encore plus précisément, encore plus fondamentalement, relève donc de la communauté scientifique mais cela devrait concerner ou tout le moins toucher l’ensemble de l’humanité !

C’est ce que nous assure Fabiola Gianotti : Directrice Générale du CERN qui au Forum de Davos, le 20 janvier 2017 déclare : « La recherche en science fondamentale est importante pour piloter les progrès technologiques, elle est aussi une force pour des collaborations pacifiques. » Elle insiste sur la nécessité de la science ouverte et elle ajoute « Les scientifiques ont fait des bons progrès, ces dernières années, pour que le public soit concerné, mais nous devons faire encore plus pour atteindre les gens à tous les niveaux et pour qu’ils puissent utiliser les outils dont nous disposons. La connaissance appartient à l’humanité (sic), elle n’appartient pas aux scientifiques. »

J’ai très envie de partager et surtout de croire en cette déclaration de F. Gianotti. Qui pourrait être objectivement indifférent, voire réticent à l’égard de cette grande perspective ?

Entretenons précieusement cet idéal, que son déploiement soit une perspective mais soyons lucides sans être rabat-joie. Quand F. Gianotti dit que la recherche en science fondamentale est importante pour piloter les progrès technologiques, elle est entendue par le public spécifique de Davos parce que la technologie ça a de la valeur concrète, immédiate, exploitable. Les industriels, financiers, décideurs, de Davos, savent que la recherche fondamentale représente un vrai gisement d’impulsions et de développements technologiques remarquables qui leurs sont profitables. Leur lobbying est au moins aussi prépondérant que celui des scientifiques pour obtenir les financements de leurs projets auprès des décideurs nationaux et multinationaux. La pure conquête des connaissances en science physique fondamental pour le progrès direct de l’humanité est certainement un propre de certains groupes de scientifiques mais malheureusement cela ne doit pas beaucoup diffuser au-delà. Soyons quand même positif car il arrive assez régulièrement qu’il y ait des retombées favorables pour le reste de l’humanité. Je cite le Web (provenance du CERN) qui est un exemple remarquable de retombée possible et franchement cela ne s’arrête pas à cet exemple bien connu maintenant.

L’idée que la connaissance en général, spécifiquement scientifique en particulier, est une cause de progrès et un moyen certain de s’affranchir de l’obscurantisme est nettement mis à mal dans nos sociétés occidentales et il n’est pas possible de sous-estimer les sérieux revers subis actuellement dans certaines sociétés. Le 19/02, à Boston avait lieu une manifestation de la communauté scientifique de la Ville et de la Région qui exprimait sa vive inquiétude à propos de l’avenir des activités scientifiques de tous ordres aux Etats-Unis. Rapporté sur le site physicsworld.com, l’interview d’un jeune chercheur : « J’ai toujours cru dans le pouvoir de la science pour faire que le monde soit meilleur, mais maintenant nous sommes confrontés à une administration antiscience qui met en danger les personnes et les endroits que nous aimons à cause du déni du changement climatique et des attaques contre la vérité et la réalité. Nous tentons d’envoyer un message à Trump qui affirme que les américains sont guidés par la science. C’est la colonne vertébrale du progrès de l’humanité… »

La menace est considérée si importante aux Etats Unis qu’il est prévu le 22 avril une grande marche pour la science et le 29 avril une marche contre le déni du changement climatique et contre les coupures de crédit dans ce domaine de recherche. Les organisateurs de la manifestation du 22 avril s’inquiètent car ils ne voudraient pas que leur mouvement de protestation soit compris par le grand public comme l’expression de la part d’un groupe social – un de plus – qui veut défendre ses intérêts, ses acquis corporatistes. Les organisateurs voudraient que leurs compatriotes comprennent que les scientifiques sont en première ligne dans la lutte contre l’obscurantisme et qu’ils contribuent à la conquête de la ‘lumière’ qui éclaire inexorablement les sentiers du progrès pour l’ensemble de l’humanité (à ceux qui en lisant cette dernière ligne, se disent : toujours une belle utopie ! je leur propose de se poser immédiatement la question : pourquoi, je pense ainsi car cela ne devrait pas). A suivre…

En Angleterre la situation est pour le moins tout autant préoccupante car contrevenant à l’habitude en ce pays, les conseillers scientifiques ne sont pas nommés pour participer aux décisions du gouvernement en ce qui les concerne à propos du Brexit et du changement climatique. Les perspectives sont très inquiétantes pour les scientifiques de la Grande Bretagne car les chercheurs de tous les pays de l’Europe forment des équipes européennes, imbriquées, très performantes jouissant de programmes bien financés par la communauté européenne. Désarticuler ce qui fonctionne si bien depuis plusieurs décennies aura un coût impressionnant.

On peut déjà lire des articles dans lesquels des scientifiques réclament d’être considérés à part dans les négociations du Brexit. Faudrait-il entériner l’idée que les scientifiques ne sont pas des citoyens à part entière de leur pays ? Qu’il y aurait d’un côté le destin intellectuel, culturel, du peuple d’un pays et d’un autre côté celui de sa communauté scientifique ? Il est évident que dans ces pays les scientifiques doivent s’interroger sur leurs propres défaillances en tant que citoyens parce qu’ils ont laissé seuls leurs compatriotes face aux porte-parole obscurantistes. Ils ne peuvent pas sous-estimer leur responsabilité.

Lorsque pour finaliser son cours magistral, F. Combes fait la liste des moyens instrumentaux nécessaires afin qu’au cours de la deuxième moitié de la prochaine décennie un grand bond en avant de compréhension soit franchi à propos de notre univers, le public présent dans l’amphithéâtre approuve unanimement. Après un long et dur labeur, après l’acquisition d’une discipline intellectuelle très rigoureuse, pour l’essentiel l’esprit de ce public s’est envolé, il est occupé à s’interroger sur les contours de cet univers et sa structure dans lequel l’humanité a pris son essor depuis sa conception induite la plus élémentaire. En conséquence le processus par lequel est impliqué la volonté de savoir mieux encore et plus encore de ce public est largement compréhensible et ne peut être altérée. Dans ce contexte, peut-il être disponible pour d’autres contingences ? Est-il mobilisable pour satisfaire à la noble recommandation de F. Gianotti : « Faire que le public soit concerné et faire encore plus pour atteindre les gens à tous les niveaux et qu’ils puissent utiliser les outils dont nous disposons. »

Partager cet article
Repost0
17 février 2017 5 17 /02 /février /2017 10:29

Fragilité du Modèle Standard de la Cosmologie.

 

En recensant et en analysant tous les éléments qui contribuent à la fragilité notoire du modèle standard de la cosmologie j’ai été amené à proposer des idées dans le présent article qui ne se cantonnent pas au domaine de la pure physique, s’il en est. D’entrée, je cite un exemple de raisonnement qui ne peut rester qu’inachevé lorsqu’on s’oblige à n’être que physicien. Il s’agit de L. Smolin qui écrit, page 75, voir son livre très instructif : ‘La renaissance du Temps’ : « La relativité générale avait encore un coup fatal à porter au rôle fondamental du temps en physique. Implicite dans l’idée que le temps est réel et fondamental est celle que le temps ne peut pas avoir de commencement. Car si le temps possède un début, alors cette origine du temps doit être explicable en termes d’autre chose qui n’est pas le temps. Et si le temps est explicable en termes de quelque chose d’intemporel, alors le temps n’est pas fondamental et c’est cette chose, qu’elle que soit sa nature, d’où a émergé le temps, qui est plus fondamentale. Mais dans tout modèle plausible d’univers décrit par les équations de la relativité générale, le temps a toujours un début. »

Avec cet exemple, on vérifie que des lois de la physique peuvent contenir des germes d’impasses remarquables de nos capacités de raisonnement et de compréhension qui ont des conséquences toujours actuelles. Je précise toujours actuelles parce que cet obstacle explicité par Smolin, pourra être, soit dépassé grâce à l’émergence d’un nouveau concept ou paradigme et donc le physicien sera riche de capacités de réflexions, de déductions, supplémentaires, en ce sens il deviendra plus intelligent en ce qui concerne les propriétés de la nature, soit il faudra rebrousser chemin (voir citation de N. Gisin, ci-après pages suivantes) et accepter l’idée que la relativité générale comprend dès sa conception des hypothèses préalables erronées. Dans ce cas de figure, évidemment, il y aura encore du progrès appréciable bien qu’on pourra le qualifier : de conséquence d’un revers de la pensée. C’est peut-être hors sujet mais je veux exprimer toute ma gratitude à L. Smolin pour avoir entrepris ce travail car il nous dit que la science physique est une science qui met en jeu la pensée de l’homme et non pas tout simplement, tout bêtement, sa capacité de calcul.

Je prolonge et je cite encore page 97, « Un jour, Einstein avoua (à R. Carnap[1]), que le problème du Maintenant le préoccupait sérieusement. Il expliqua que l’expérience du Maintenant a une signification particulière pour l’Homme, qu’il s’agit d’une chose essentiellement différente du passé et du futur mais que cette différence cruciale ne vient pas et ne peut pas venir de la physique (sic). Que cette expérience ne puisse pas être appréhendée par la science était à ses yeux un sujet de résignation douloureuse mais inévitable[2]. » Très franchement, je ne peux pas accepter ce clivage, qui est à mes yeux l’expression d’une conception intellectuelle, réductrice voire aliénante, entre ce qui est de l’ordre de la physique et de ce qui a une signification particulière pour l’Homme. Est-ce que la science physique serait une entité à part, tel un bateau qui aurait rompu les amarres du chantier naval où il a été conçu ? Est-ce que la science physique c’est ce qui reste lorsque l’on a évacué le souffle de l’intelligence humaine qui la fonde ?

Ces deux exemples cités nous indiquent, entre autres, pourquoi le modèle standard de la cosmologie est notoirement fragile et il ne faut pas s’attendre à ce que cette fragilité soit résorbée dans un délai raisonnable puisqu’il est écrit dans de nombreux articles récents : la résolution des difficultés passera par la résolution des inconnues sur lesquelles nous butons en ce qui concerne les neutrinos. Or il se trouve qu’à propos des neutrinos nous colportons, de génération en génération de physiciens, des attributs et des propriétés dont la validation ne peut être que sans cesse reportée à plus tard. Dans le cadre du modèle standard de la physique des particules élémentaires, les neutrinos se révèlent être toujours aussi insaisissables dans les filets de nos postulats scientifiques standards, au point que l’impossibilité de vérifier la véracité de certaines hypothèses amène à toujours ajouter de nouvelles couches d’hypothèses.

En ce qui concerne la conception actuelle de notre univers, nous lui attribuons l’histoire d’une évolution depuis un Big-Bang jusqu’à un état actuel dont nous serions les témoins objectifs, soit 13.800 milliards d’années après coup. N’est-ce pas ainsi projeter notre propre histoire, en tant qu’être humain, qui est celle d’une évolution qui nous a façonnés, révélée premièrement par Darwin et maintenant étudiée, approfondie, par les paléoanthropologues qui découvrent aujourd’hui des jalons de celle-ci dans des temps de plus en plus reculés (voir livre de P. Picq : ‘Premiers hommes’, Flammarion, 2016). Je reconnais que cette idée d’une détermination, qui serait à l’œuvre, de duplication de paradigme est à contre-courant de ce qui constituent les préceptes fondamentaux de la pensée scientifique. Il n’y a pas de ma part une volonté de provoquer, mais parfois il est souhaitable de prendre du recul même si cela est déroutant. Est-ce que l’histoire que l’on prête à notre univers ne serait rien d’autre que l’histoire de l’évolution de nos capacités de le décrypter ? Ce qui est le plus probable, c’est que tel qu’il est conçu, le Modèle Standard de la Cosmologie n’est pas réparable mais il doit être repensé.

De même avec l’attribution d’une origine à notre univers, est-ce que ce ne serait pas l’expression de la nécessité, du besoin, qui nous est propre, de toujours poser notre pensée sur une origine pour qu’à partir de là, elle puisse se déployer. Toutes les cosmogonies inventées au cours de l’histoire de l’humanité, que nous sommes capables de recenser, ont toujours supposé une origine pour qu’ensuite elle soit dépassée. Avec ce fameux Big-Bang, ce qui est équivoque, c’est qu’il est considéré comme sujet d’étude par les scientifiques alors qu’il ne serait rien d’autre que notre besoin existentiel d’origine projeté comme réalité de notre univers. En fait notre univers fait partie de ce monde qui nous appartient, pas plus.

Récemment un article de Steinhardt (directeur du centre de physique théorique de Princeton) avec deux autres collègues, dans le Scientific American du 17 janvier ‘Pop goes the Universe’, proposent que les cosmologistes réévaluent le paradigme favori du Big-Bang (Pop) et considèrent de nouvelles idées à propos du comment l’univers a commencé. De même un article dans Phys.org du 09/02/2015, annonce que des équations quantiques prédisent que notre univers n’a pas de début. C’est-à-dire que la singularité est résorbée.

Je pense que notre univers fait partie de ce monde qui nous appartient parce qu’il n’est que ce que nous sommes en mesure de décrypter à travers le prisme de nos capacités actuelles. Je ne dénie pas ce qui est mis en exergue par la science physique jusqu’à maintenant mais je considère que c’est un savoir qui nous caractérise tout autant qu’un savoir qui caractérise le monde qui est en dehors de nous. Bien sûr que cette conception peut être considérée comme humiliante et inacceptable par les physiciens qui seraient les maîtres d’une science ‘exacte’. Il n’y a pas qu’un problème de réputation qui est en cause, cela est secondaire, ce qui est en cause c’est essentiellement le fondement sur lequel beaucoup de physiciens puisent leur force, leur volonté, leur plaisir aussi, justifiant leur investissement intellectuel.

Ce fondement peut être conforté par la croyance que la connaissance en physique a la valeur d’une connaissance universelle, objective. Pourtant depuis un siècle avec l’avènement de la mécanique quantique qui nous dit que la relation sujet/objet ne peut être résorbée – quel que soit le degré d’investissement de notre pensée rationnelle, notre savoir sur l’objet ne peut pas atteindre une connaissance de l’objet tel qu’il est mais uniquement tel qu’il nous apparaît – cela devrait nous enseigner une révision de notre conception de l’objectivité.

Avec la relativité générale s’impose une représentation de l’histoire de l’univers, prise en une fois, comme un système d’événements reliés par des relations causales, et cela s’appelle l’univers bloc. L’univers bloc marie l’espace et le temps. Dans le livre déjà cité de L Smolin, il est précisé page 75 : « Mais vu comme un univers bloc, il (l’espace-temps) est intemporel et inaltérable, sans distinction entre futur et passé et sans place pour, ni signe de, notre conscience du temps. » N. Gisin (physicien, université de Genève), s’insurge contre cette conception en écrivant un article en Mai 2016 : ‘La physique a tué le libre arbitre (qui est un propre de l’homme) et le flux du temps, nous devons revenir en arrière’. De même p.251 et p.253, Smolin confirme selon son analyse : « Je préfère considérer la mécanique quantique comme la preuve que nous vivons dans un univers fini ne contenant qu’une seule copie de moi. »… « Je ne vois aucune manière d’échapper à la conclusion que tout modèle d’univers doit être spatialement fermé, sans frontière. »

Le modèle standard de la cosmologie, tel qu’il est conçu, contraint à ce que la relativité générale et la mécanique quantique fusionnent en un seul et même corpus baptisé gravité quantique. Ce qui jusqu’à présent n’a pu se concrétiser. Les raisons de l’échec d’une conception d’une théorie de la gravité quantique sont de plusieurs ordres. Celui qu’il ne faut pas exclure, c’est que définitivement la relativité générale n’est pas intégrable dans un corpus quantique. En effet, il n’est pas possible de gommer l’opposition constante du fondateur de la relativité générale à la mécanique quantique. Opposition qui s’est affirmée par l’incompatibilité absolue des raisons qui l’ont conduit à concevoir la relativité générale avec celles, affirmées par l’école de Copenhague, qui ont prévalu à la conception de la mécanique quantique. Vouloir résorber l’incompatibilité de ces raisons orthogonales est une tâche impossible puisqu’opter pour l’une annule les fondements de l’autre. Ainsi, on peut expliquer pourquoi toutes les tentatives d’hybridation ont échoué, jusqu’à présent.

Pour illustrer cette analyse je vous cite trois réflexions : 1- dans quantamagazine : « L’effort pour unifier la mécanique quantique et la relativité générale signifie réconcilier des notions du temps totalement différentes. En mécanique quantique, le temps est universel et absolu (Newtonien) ; son tic-tac constant assure l’évolution des intrications entre les particules. Mais en relativité générale, le temps est relatif et dynamique, une dimension qui est inextricablement entrelacé avec les dimensions X, Y et Z dans la fabrique d’un espace-temps de 4 dimensions. » ; 2- De D. Gross, prix Nobel : « Chacun de nous en théorie des cordes est convaincu…que l’espace-temps est condamné. Mais nous ne savons pas par quoi le remplacer. » ; 3- dans hindawi.com : « En mécanique quantique, le temps est absolu. Le paramètre qui se trouve dans l’équation de Schrödinger est un héritage de la mécanique Newtonienne et il n’est pas considéré comme un opérateur. En théorie quantique des champs, le temps par lui-même n’est plus absolu, mais l’espace-temps l’est ; il constitue la structure d’arrière fond sur lequel le champ dynamique agit. La relativité générale est d’une nature différente. Avec l’équation d’Einstein, l’espace-temps est dynamique agissant d’une façon compliquée avec l’énergie impulsion de la matière et avec lui-même. Les concepts de temps (espace-temps) en théorie quantique et en relativité générale sont ainsi drastiquement différents et ne peuvent pas ensemble être fondamentalement vrais. »

La théorie de la relativité générale d’Einstein semble rendre compte un bel accord entre ce qu’elle prédit et ce que nous observons dans l’univers aux grandes échelles. A ce titre, c’est une théorie que l’on peut qualifier de réaliste. Toutefois, il faut toujours pratiquer le principe du doute positif, c’est-à-dire considérer qu’elle pourrait opérer comme un filtre et donc ne permet pas d’accéder à tout ce qui serait ‘visible’ par les astrophysiciens (ex. la matière noire). Lorsqu’on veut remonter dans le temps de l’histoire de l’évolution de notre univers et chercher des preuves d’une origine inférée, ce sont théorie quantique et théorie quantique des champs qui sont convoquées pour tenter de remonter jusqu’à une source supposée. Contrairement à la relativité générale, la mécanique quantique est une théorie conçue sur la base de notre capacité de déduction et non pas sur notre capacité d’observation directe due à nos sens voire d’appréhension. En conséquence la difficulté d’hybridation, évoquée ci-dessus, se trouverait confirmée. Voir article du 23/04/2016 : ‘De la vérité dans les sciences, et après !’ : je cite N. Bohr « La physique est seulement concernée par ce que l’on peut dire sur la nature. » ; je cite W. Heisenberg : « Le postulat d’une réalité physique existant indépendamment de l’homme n’a pas de signification. » ; je cite A. Barrau : « Mais il ne faut pas oublier, … que nos manières d’appréhender cet « autre part » n’en demeurent pas moins humaines et créées. » Cet article succède à celui du 12/04/2016 : ‘Selon A. Barrau, ‘De la vérité dans les Sciences’’

Le ‘voir’ premier et le plus lointain de notre univers est le rayonnement du fond diffus cosmologique, avec l’hypothèse du Big Bang, ce premier ‘voir’ serait daté : 380000 ans depuis l’origine. La phénoménologie dominante, retenue de l’univers naissant, durant les 380000 premières années, est donc le fruit de déductions et pour beaucoup grâce à la mécanique quantique et la TQC. Les impossibilités d’assurer de la concordance entre ce qui est déduit, conçu, dans les temps primordiaux et ce qui est effectivement observable en accord avec la relativité générale (par ex. l’effet lentille gravitationnelle), concernent pour l’essentiel : la matière noire, l’énergie sombre, l’antimatière. Cela n’est pas peu !

Comme je l’ai signalé au début de l’article : espérer que la résolution des impasses actuelles concernant le modèle standard de la cosmologie passera par la résolution des inconnues sur les neutrinos, peut provoquer du scepticisme. En effet, ces inconnues surgissent du fait du modèle standard des particules élémentaires qui est toujours le cadre dans lequel leurs propriétés physiques sont étudiées. J’ai eu souvent l’occasion d’écrire que ce n’est pas le bon cadre. En fait le bon cadre c’est celui de la physique des neutrinos, qui est à découvrir, c’est-à-dire que ceux-ci sont les représentants d’une toute autre physique que nous devons prospecter. A propos des neutrinos, on ne peut pas les ralentir, les accélérer, on ne peut pas avoir d’action sur ces objets sans provoquer leur disparition, on ne peut être que des observateurs passifs, on leur attribue des propriétés physiques sur la base de la façon dont ils se présentent à nous, quand on agit pour les intercepter, l’événement est rare et il provoque leur disparition. Je considère que leur attribuer une masse d’inertie est erronée, et ils ne seraient pas contraints par la loi E = mic2. En conséquence l’hypothèse de leur oscillation entre les saveurs est inappropriée et nous véhiculons à ce sujet un modèle qui induit en erreur.

Ce qui est certain c’est qu’il y a tellement d’inconnues à propos des neutrinos que l’on peut les intégrer dans un spectre de problèmes très étendu et à ce titre on peut leur prêter des propriétés multiples. Citons quelques-unes de ces propriétés éventuelles attribuées : celle du ‘seesaw’, existence de neutrinos stériles qui peuvent avoir une gamme de masse très étendue, qui auraient pu se désintégrer au tout début de l’univers ou pas, hypothèse qu’ils seraient la source de radiation noire pendant l’univers primordial, etc.

Amarrer les inconnues attachées aux neutrinos aux impasses du modèle standard de la cosmologie peut être considérée à première vue comme une tentative étrange. Je ne le pense pas car si dans un premier temps on procède à une accumulation des nœuds de difficultés en même temps on procède à un décloisonnement nécessaire d’où pourra émerger des solutions plus consistantes. Par exemple un article publié, il y a deux jours, le 15/02 sur le site de Physics.APS.org, annonce qu’en procédant à l’extension du modèle standard des particules avec 3 neutrinos stériles sur 6 nouvelles particules supplémentaires proposées, on pourrait, en une seule fois, résoudre 5 problèmes physiques : ‘Model Tries to Solve Five Physics Problems at Once’, voir un résumé joint ci-dessous. Parmi les problèmes potentiellement dénouables citons quelques-uns : résolution du problème de l’inflation, ainsi que celui de la matière noire, de la dissymétrie matière antimatière, et de la mystérieuse très faible masse des neutrinos connus à hélicité gauche.

On remarquera que les auteurs ne procèdent qu’à une extension du modèle standard des particules élémentaires, c’est-à-dire qu’ils n’introduisent aucun paradigme nouveau, ils conçoivent par extrapolations dans le cadre habituel. Précédemment ce type de tentatives, menant à des extrapolations différentes, n’a pas abouti à des conclusions intéressantes.

Model Tries to Solve Five Physics Problems at Once

February 15, 2017

A minimal extension to the standard model of particle physics involves six new particles.

 

APS/Alan Stonebraker

The standard model has enjoyed a happy life. Ever since it was proposed four decades ago, it has passed all particle physics tests with flying colors. But it has several sticky problems. For instance, it doesn’t explain why there’s more matter than antimatter in the cosmos. A quartet of theorists from Europe has now taken a stab at solving five of these problems in one go. The solution is a model dubbed SMASH, which extends the standard model in a minimal fashion.

SMASH adds six new particles to the seventeen fundamental particles of the standard model. The particles are three heavy right-handed neutrinos, a color triplet fermion, a particle called rho that both gives mass to the right-handed neutrinos and drives cosmic inflation together with the Higgs boson, and an axion, which is a promising dark matter candidate. With these six particles, SMASH does five things: produces the matter–antimatter imbalance in the Universe; creates the mysterious tiny masses of the known left-handed neutrinos; explains an unusual symmetry of the strong interaction that binds quarks in nuclei; accounts for the origin of dark matter; and explains inflation.

The jury is out on whether the model will fly. For one thing, it doesn’t tackle the so-called hierarchy problem and the cosmological constant problem. On the plus side, it makes clear predictions, which the authors say can be tested with future data from observations of the cosmic microwave background and from experiments searching for axions. One prediction is that axions should have a mass between 50 and 200𝜇 eV. Over to the experimentalists, then.

This research is published in Physical Review Letters

 

 

[1] Logicien (1891-1970) un des promoteurs du cercle de Vienne.

[2] Je propose une hypothèse qui évite cette résignation douloureuse, voir articles du 02/11/2012 ; du 01/01/2013 ; et enfin du 02/05/2013 : ‘Bienvenu au ‘Moment Présent’ de L. Smolin’.

Partager cet article
Repost0
1 février 2017 3 01 /02 /février /2017 09:36

Où mène la raison

En consultant les livres qui étaient exposés à la vitrine d’une librairie, je me mis à l’arrêt sur le titre : « Pourquoi ne peut-on pas ‘naturaliser’ la raison », de Hilary Putnam. H. Putnam (enseignant la logique mathématique à Harvard), je connaissais en tant que philosophe des sciences dures professant un réalisme scientifique, mais pas ce livre sur la question de la naturalisation de la raison. Spontanément, j’achetai le livre car je me demandai comment il était possible de supposer que la raison soit de la nature comme en creux cela était supposé dans le titre. lisant ce livre avec intérêt, je retrouvais des arguments satisfaisant, confirmant que la raison était une production humaine et qu’elle résultait de ce qui faisait la spécificité de l’être humain. Ainsi je pouvais lire : « Je dis que la raison en tant que tel est langagière, d’une part : immanente, dans le sens qu’il est impossible de la trouver en dehors de jeux de langage concrets et d’institutions concrètes et qu’elle est : en même temps transcendante, dans le sens qu’elle est une idée régulatrice en fonction de laquelle nous nous orientons lorsque nous critiquons nos activités et nos institutions. Nous retrouvons-là l’articulation entre une philosophie des concepts et une philosophie des préceptes. » Avec cette citation on vérifie que Putnam parle de la raison qui guide notre réflexion, tout autant dans notre vie quotidienne et banale que la raison qui oriente notre raisonnement face à une énigme scientifique. C’est aussi cette raison qui est en jeu quand on dit : « Il n’y a pas de raison que cela soit ainsi… il est déraisonnable de considérer la chose sous cet angle… et c’est aussi la raison de l’expression : « c’est la raison du plus fort qui est toujours la meilleure. » fin pour mesurer l’importance de ce que ce mot véhicule de signification pour nous humains, il suffit d’évoquer les travaux de E. Kant sur la : ‘critique de la raison pure’, et la : ‘critique de la raison pratique’.

Ce qui s’affirme dans le livre, pour conforter l’idée d’une impossible naturalisation de la raison, c’est une critique sans concession au réalisme métaphysique et au naturalisme philosophique. Le réalisme métaphysique, en tant que métaphysique, c’est une croyance que l’on conçoit comme étant a priori dans l’ordre des choses et la pensée de celui qui est croyant est organisée en fonction de celle-ci (voir par exemple la métaphysique platonicienne). Le naturalisme philosophique c’est plutôt un choix qui se fait à postériori car il est ce qui offre la meilleure cohérence à des convictions-intuitions qui précèdent. Le naturalisme philosophique est argumenté par celle ou celui qui intellectuellement conçoit qu’il n’y a pas d’autre réalité que la nature.

Avec la lecture du livre de H. Putnam, je rencontrai de la concordance pleine et entière avec l’idée qu’il n’était pas possible de naturaliser la raison, et au fond de moi j’étais rassuré au point que je me suis demandé pourquoi a contrario l’idée d’une validité éventuelle de l’hypothèse inverse m’inquiétait d’une façon si troublante[1]. Est-ce que cela aurait remis en cause le corpus de mes convictions, le socle de ma métaphysique ? J’étais donc obligé d’aller découvrir le front d’opposition sur lequel H. Putnam avait justifié sa thèse c’est-à-dire le Naturalisme philosophique.

Le naturalisme en tant que philosophie date de l’Antiquité mais nous allons nous concentrer sur sa version contemporaine dont il semblerait que ce soit Baruch Spinoza qui en fut le précurseur. L’animateur principal de cette philosophie au cours du XXe siècle est W.V.O. Quine (1908-2000) et il est responsable de la prééminence actuelle du naturalisme chez les philosophes anglo-saxons. Le naturalisme philosophique considère qu’aucun événement dans le monde ne peut être causé par quelque chose qui se trouverait en dehors du monde naturel. Le naturalisme soutient qu’il n’existe rien en dehors de la nature (sic) et les sciences de la nature sont les seules voies d’accès à la connaissance authentique. En conséquence l’homme est une production de la nature (ce qui en partie correspond à ce que je désigne comme étant une composante de l’être humain : l’être de la nature) qui n’a pas d’autre justification que les causes naturelles qui l’ont amené à l’existence. On comprend donc que Charles Darwin fut un inspirateur des naturalistes mais j’ai la conviction qu’il est surinterprété à mauvais escient.

L’adhésion aux travaux de Darwin et leur exploitation les conduisent à affirmer que toutes les formes organisées de la vie, jusqu’aux plus élevées (par ex : celle relative au fonctionnement cérébral) sont issues de la matière non vivante par un processus mécanique aveugle (sic) de transformation et d’organisation de cette matière (jusque-là on peut accepter cette thèse). Ce qui à mon sens pose problème, ce sont les extrapolations et donc les conséquences qu’ils en tirent :

Ils remettent en cause la validité du point de vue que nous offre l’introspection ;

Ils rejettent la possibilité d’un point de vue transcendant sur le monde.

Avec les naturalistes il se trouve que mon hypothèse de l’être dans la nature qui constitue mon autre versant de l’être humain, n’a pas droit de cité car selon eux l’être humain ne peut être qu’au ras de la nature. L’être humain, le physicien, ne peut se situer en surplomb de la nature. On verra un peu plus loin jusqu’où nous conduit ce type d’extrapolation.

Ce qui est dommage, c’est que l’optimisme scientifique qui est inhérent au naturalisme philosophique mène jusqu’au réductionnisme absolu, c’est exactement ce à quoi s’oppose H. Putnam, en réfutant l’idée que la raison puisse être expliquée comme une propriété de la nature et avoir sa source dans la nature. Mais instruisons-nous plus encore de ce qui constitue le corpus du naturalisme (voir Wikipédia). Il est écrit que l’homme et l’univers entier sont susceptibles, en principe, d’être expliqués par les sciences de la nature (sic). Il est soutenu qu’il n’y a pas de limite a priori à l’explication scientifique. Même s’il existe de fait des limites au développement scientifique à une époque donnée, rien n’exclut que la nature soit entièrement intelligible et il n’y a pas de limitations définitives à l’extension des connaissances scientifiques.

Le fait qu’il est écrit entre autres que l’homme est susceptible d’être expliqué par les sciences de la nature conduit à des redoutables conclusions, celles-ci ayant trait à l’émergence, dans les années 1950, de la philosophie de l’esprit : théorie de l’identité esprit-cerveau. Elle prétend que les neurosciences peuvent nous permettre de comprendre en quoi certaines structures et certains processus neurophysiologiques du cerveau s’apparentent pour nous à une vie mentale. On peut considérer que la plupart des neuroscientifiques adhèrent explicitement ou tacitement à la théorie de l’idée de l’esprit-cerveau (J.P. Changeux, A. Damasio, S. Dehaene…) A propos de Changeux, c’est certain mais en ce qui concerne Dehaene ce n’est pas le cas, contrairement à Changeux il n’a jamais exprimé qu’il partageait l’idée de l’identité esprit-cerveau. Le réductionnisme de cette théorie n’est pas accepté, non plus, par Putnam puisqu’il exclut que la raison puisse avoir une source naturelle, celle-ci est fondée par le ‘sujet pensant’ : ‘l’être dans la nature’, preuve qu’il est doté de capacités propres qui ne peuvent être réduites au prisme des propriétés de la nature.

J’aurai pu me satisfaire de la convergence que je rencontrai avec H. Putnam et donc, rassuré, satisfait, passer à autre chose. En fait un an après je revins sur ce livre (longue période de décantation !) et je me rendis compte que je devais connaître ce que signifiait vraiment le naturalisme philosophique. Ce qui est certain c’est que cela a consolidé mon hypothèse : Être de la Nature/Être dans la Nature. Cela peut paraître étonnant et je m’en étonne moi-même, mais c’est généralement dans l’épreuve de la confrontation que l’on acquière encore plus de certitude à propos d’hypothèses proposées. Ici, avec le naturalisme philosophique qui conduit, par exemple, jusqu’au réductionnisme de l’esprit-cerveau, il y a matière à développer des arguments qui expliquent pourquoi on peut s’insurger contre ce type d’extrapolation.

Réduire la faculté humaine, à produire et mener de la pensée interrogative à propos de ce à quoi est constitué la Nature, à une propriété de la Nature elle-même, est aberrant. C’est plus du dogmatisme que de la réflexion. Il est vrai que l’on doit s’étonner et s’interroger sur ce qui est en jeu avec le processus intellectuel de l’être humain et ce qui avec la sélection naturelle a favorisé l’émergence de cette faculté propre à l’homme au stade le plus élevé. Ne pas pouvoir décrire in fine ce à quoi cela correspond, n’interdit pas le fait que nous puissions comprendre le cheminement du processus de son éclosion et de son développement, à ce titre la paléoanthropologie nous offre de plus en plus des ressources d’études remarquables. D’un autre côté, l’imagerie cérébrale nous permet aussi d’ausculter et de découvrir certains critères de fonctionnement et de dysfonctionnement de notre cerveau mais ne nous autorise pas, pour autant, à formuler le postulat aberrant : lorsque l’on observe le fonctionnement du cerveau on voit l’esprit en activité.

Le 21/06/2016, j’ai posté l’article : ‘Evolutions des connaissances ; évolutions de l’humanité’, qui rend compte de l’intérêt d’une coopération entre les physiciens (au moins les théoriciens) et des paléoanthropologues, celle-ci serait très valablement enrichie grâce à une coopération avec les spécialistes de l’imagerie cérébrale. Le débat intérieur que j’ai connu grâce à la lecture du livre de H. Putnam conforte évidemment cette proposition. Le décloisonnement que je propose est certainement le moyen d’ouvrir la voie vers une meilleure compréhension de la place du sujet pensant qui cogite les lois de la nature ainsi que l’implication de l’état de sa singularité actuelle (parce que ses compétences intellectuelles ne peuvent qu’évoluer dans le futur) qui favorise ou obstrue la découverte des propriétés de la nature.

 

[1] Si on souhaite disposer d’une démonstration supplémentaire que la raison est un propre de l’homme, découvrir le livre de B. Saint Sernin : ‘La raison au XXe siècle’, au Seuil, 1995. Dans ce livre, il n’y a pas d’élucidation de la raison qui ne débouche sur la question de l’homme. Est restitué dans toute son amplitude les formes et les évolutions de la raison au XXe siècle, à travers les sciences exactes et humaines, l’épistémologie, le problème du mal et le totalitarisme concentrationnaire. Comme la vie, la raison a une histoire.

Partager cet article
Repost0