Overblog
Suivre ce blog Administration + Créer mon blog
4 avril 2018 3 04 /04 /avril /2018 09:06

Angélisme, Conviction, Raison, Enfermement.

Plusieurs articles tout récemment publiés laissent voir que les physiciens, en l’occurrence les cosmologues, les astrophysiciens, sont plutôt fascinés par leur non découverte alors qu’on s’attendrait à ce qu’ils prennent du recul face aux obstacles qu’ils rencontrent d’une façon répétitive. Sur le site phys.org du 15/03, l’article avec le titre suivant : ‘The frustrating and fascinating world dark matter research’ ; ‘Le frustrant et fascinant monde de la recherche de matière noire’, nous indique d’une façon nette le balancement intellectuel dans lequel des scientifiques évoluent. Selon l’auteur : Niklas Nielsen, « La matière noire comme phénomène est fermement établie (sic), et nous avons plein d’évidences convaincantes qui suggèrent qu’elle est cinq fois plus importante que la matière visible. » Je le cite parce qu’ils sont nombreux ceux qui partagent ce point de vue alors que jusqu’à présent cette matière noire n’a jamais été constatée directement qui plus est : la diversité de la matière noire hypothétique est vraiment ahurissante. Aucun élément de cette diversité n’a montré le moindre indice. Tout récemment l’hypothèse, de l’axion de quelques milliélectronvolts comme candidat, a été une fois de plus minimisée (article du 15/02/2018), ainsi que l’hypothèse des rayons gamma observés depuis 10 années au centre de notre galaxie, preuves de l’annihilation de matière (WIMP) et antimatière (anti WIMP) noire n’est pas retenue (article du 13/03/2018).

Rappelons que la nécessité de la matière noire résulte du scénario qui impose un Big Bang originaire. Celle-ci serait fabriquée au bout de 10-12s et serait responsable de la formation des étoiles et galaxies. Le scénario d’un début de l’Univers avec Big Bang a tellement structuré voire formaté la pensée des physiciens qu’il est compliqué voire impossible de prendre le recul aujourd’hui nécessaire : « Dans la toute première fraction de seconde après le Big Bang, notre Univers était incroyablement chaud et dense. Dans cette soupe primordiale à 10-12s, il est supposé que les WIMP se constituent. Armés de la connaissance de l’expansion de notre Univers et en conséquence de son refroidissement, nous pouvons correctement calculer le nombre de WIMPs produit sous ces conditions. Remarquablement, ce calcul nous fournit un nombre de WIMPs qui correspond à la quantité de matière noire observée… Bien, cela semble trop bien pour que cela ne soit pas juste. Le miracle ne s’est pas produit puisque nous n’avons jamais observé de particules WIMP depuis des décennies qu’on les cherche. Si on les découvre ces particules elles seront différentes de ce que l’on présume. »

Il est aussi étonnamment considéré que la partie visible de notre Univers est connue exhaustivement et c’est en fonction de cette considération que l’on infère comment la partie sombre doit s’ajuster : « Il n’y a pas de raison fondamentale que la partie noire de notre monde soit moins divers que la partie visible. On peut même imaginer que la matière noire s’agglutine en étoiles noires, planètes, et vie, qui existeraient entièrement isolés de notre monde. Nous serions ainsi dans la réciprocité d’une obscurité d’un monde pour l’autre. Comment envisager des moyens de détection d’une partie de ce monde qui nous serait aussi absolument obscur ? » Le 08/02/2018 un article a été publié pour confirmer qu’aucun photon noir : élément hypothétique de ce monde obscur, n’a été jusqu’à présent détecté.

La fascination de l’auteur pour « le modèle de matière noire fermement établi (sic) » est telle qu’il est incapable d’évoquer la théorie MOND, développée par le physicien M. Milgrom depuis le début des années 1980, théorie qui n’implique pas l’existence de matière noire, et qui progressivement s’avère être une théorie capable d’être parfaitement prévisionnelle, là où la théorie de la matière noire ne l’est pas. A ce titre il n’est pas possible d’exclure la valeur alternative de cette théorie. Une fois de plus nous constatons, et c’est désagréable voire inquiétant, chacune des parties tenant d’une théorie ou de l’autre s’est installée dans sa propre tranchée et est incapable de prendre en considération les résultats partiels de l’autre. On mesure ici que la fascination anime un tropisme franchement incompatible avec ce qui favorise le cheminement d’une pensée scientifique.

Un autre article du 23/03/2018 dans phys.org qui relate la confiance qu’ont les physiciens en l’aboutissement de leur théorie qu’ils labourent depuis 50 ans mérite d’être analysé. Il s’agit de l’interview de deux membres de l’Université de Rutgers (New Brunswick), l’un est théoricien de la physique des particules et l’autre est expérimentateur de la physique des particules élémentaires. L’un et l’autre nous affirment qu’il n’y a pas de doute possible, ils sont sur la bonne route, l’article le confirme avec son titre : ‘Physicists at crossroads in trying to understand universe’ ; ‘Physiciens au carrefour pour tenter de comprendre l’univers’. Ils évaluent qu’avec le LHC, ils sont dans un domaine d’énergie qui leur permet d’ausculter les premiers instants de l’univers soit à 10-12s après le Big Bang. Ils ont été impliqués dans la découverte du Higgs, élément clé du Modèle Standard. Pour eux le Modèle Standard doit être considéré : « Comme la théorie la plus fantastiquement réussie de tous les temps. Elle est le triomphe de l’intelligence humaine. » Nous ne pouvons qu’être totalement en accord avec cette qualification mais cela ne doit pas conduire par fascination à un tarissement de cette intelligence, au contraire il faut souhaiter que cela provoque une nouvelle vague des capacités créatrices de l’intelligence humaine. C’est selon moi à ce carrefour où nous devrions nous trouver. Or, plutôt que d’être admiratif, voire médusé, du chemin que l’on a parcouru en cinquante années, il est temps de considérer que le Modèle Standard (M.S.) nous a porté au plus loin de ce que l’on peut connaître actuellement mais maintenant il est obsolète pour atteindre un nouveau plus loin.

Il est possible que ce soit ce que pensent les auteurs de l’article : « Le problème c’est qu’en tant que théoriciens, nous sommes victimes de notre propre succès. Le Modèle Standard est tellement couronné de succès que la théorie n’indique pas comment répondre aux questions que nous avons encore. » Il est évident que ces deux phrases se choquent, et elles expriment la difficulté de prendre du recul et de pouvoir penser que les succès obtenus n’ont pas une valeur universelle mais qu’ils sont ceux d’une étape, celle-ci ne permettant pas d’atteindre la prochaine étape avec le(s) même(s) paradigme(s). Contrairement à ce que nous disent les auteurs de l’article nous ne sommes pas avec le M.S. entrain de dévoiler le monde réel mais nous sommes en contact avec un aperçu du monde, aperçu correspondant à nos capacités actuelles de le penser. Le repos sur ses lauriers de la pensée scientifique des physiciens ne peut pas être d’actualité comme ils le pensent : « Le boson de Higgs répond à beaucoup de questions, mais nous n’obtenons pas directement (sic) les indices de cette structure théorique comment les réponses aux questions restantes pourraient être formulées, donc nous sommes à carrefour avec cette quête de 50 années. Nous avons besoin des expériences qu’elles nous fournissent des indications et alors, avec un peu de chance (sic), ces indications seront suffisantes pour nous dire la prochaine structure théorique qui sous-tend le Modèle Standard. » Une fois de plus on est confrontés au fait de ne pas pouvoir considérer que l’absence d’indication(s) est l’indication qu’il faut retenir.

Très récemment une nouvelle publication du 23/03/2018 avec le titre : ‘Cosmic Instability Could Have Created Dark Matter’ ; ‘l’instabilité cosmique aurait pu créer de la matière noire’, montre que dans le cadre du Modèle Standard on peut théoriquement inventer et justifier une très grande variété de matière noire. Cela est possible parce que le M.S., n’est qu’un modèle que l’on tente d’enrichir et de justifier théoriquement avec ce que l’on observe. Ainsi la première image de l’univers, celle du rayonnement fossile ou encore nommée fond diffus cosmologique, est une source voire un cadre de formulation d’hypothèses variées qui doivent, pour être retenues, confirmer et être en phase avec ce que l’on considère avoir décrypté dans cette première image de l’univers. Au sein du M.S. il y a pour les théoriciens beaucoup de degrés de liberté (peu de contraintes) qui autorisent des ajouts d’hypothèses.

Donc dans l’article (dans le Physical Review letters) dont je fais référence il est dit : qu’une hypothèse de l’instabilité du champ de Higgs aurait pu semer l’Univers de trous noirs primordiaux qui servent maintenant de matière noire. En accord avec ce scénario, la matière noire consisterait en une large population de trous noirs qui se seraient formés grâce aux fluctuations du champ de Higgs instable à l’aube de l’Univers. Ces ci-nommés trous noirs primordiaux ont déjà été proposés antérieurement (sic), mais c’est la première fois qu’une hypothèse qui n’implique pas de la physique au-delà du modèle standard est proposée.

Dans leurs calculs les théoriciens explorent les fluctuations du champ de Higgs supposé très intense pendant le tout début de la phase d’expansion de l’Univers, appelée inflation. Moyennant certaines suppositions (c’est à ce niveau, entre autres, que l’on profite des degrés de libertés), ces fluctuations provoquent des effondrements dans certaines régions et produisent les germes de trous noirs microscopiques avec des masses voisines de 1015kg ce qui donne une densité consistante avec les prédictions cosmologiques de matière noire.

Il n’est pas possible de croire que le champ de ce que nous pouvons observer actuellement de notre univers soit fermé. Il vaut mieux considérer qu’avec nos moyens d’observations de plus en plus performants nous allons disposer d’informations de plus en plus riches et supplémentaires sur les objets célestes. Il se pourrait donc que l’antagonisme, matière noire ou pas et celui de MOND ou pas, devienne obsolète.  Il se pourrait que nous ne soyons pas si éloignés d’une telle situation. En effet, sur le site de Physics World du 29/03 et de Futura Sciences le 01/03/2018 un article : ‘Galaxy devoid of dark matter puzzles astronomers’ ; ‘Une galaxie dépourvue de matière noire rend perplexe les astronomes’ peut-être nous dit-il qu’il y a déjà matière à cette perspective.  Aussi grande que la Voie lactée, DF2 est une galaxie très pauvre en étoiles et, surtout, elle ne contient que très peu de matière noire voire pas du tout. Ce qui est inexplicable dans le cadre du modèle cosmologique standard. Son alternative la plus connue, la théorie Mond, en apporte-t-elle une meilleure description ? C'est le contraire : cette étrange galaxie pourrait même la réfuter.

DF2 est une galaxie, comme on en a déjà observée plusieurs centaines, qui est ultra-diffuse : ‘UDG ‘ en anglais. Sa taille est comparable à la Voie Lactée mais elle n'abrite pas de trou noir central et ne comporte pas de bras spiraux ni de disque. Et elle ne ressemble pas non plus à une galaxie elliptique... Elle semble finalement au moins 400 fois moins riche en matière noire que ce que l'on aurait pu prévoir. Et encore cette valeur n'est-elle qu'un maximum : le minimum pourrait être zéro.

DF2 pose un gros problème au modèle de la matière noire froide, qui, en effet, n'a jusqu'à présent jamais prédit l'existence d'un tel objet. La théorie alternative Mond est encore plus contredite par DF2.

Cette nouvelle énigme qui se présente avec des objets de la catégorie DF2, s’ajoute à celle confirmée il y a 2 semaines à propos du désaccord entre les évaluations différentes de l’ordre de 10% de la vitesse de Hubble étant données les conditions distinctes mais rigoureuses de ces évaluations. Le Modèle Standard est un modèle qui n’offre toujours pas de pistes significatives pour élucider des énigmes devenues anciennes. Il s’agit entre autres de l’énigme de la disparition de l’antimatière, et celle de la nature de la masse du neutrino et de sa faible valeur toujours insaisissable, ainsi que celle de l’unicité ou pas du boson de Higgs. Je fais ce rappel pour indiquer qu’il faudrait sérieusement considérer que le modèle standard de la cosmologie avec l’hypothèse du Big Bang est un modèle qui au bout de 50 ans a épuisé son utilité en tant que référentiel et étape d’auscultation de notre univers. Dorénavant il est la cause d’une crise, peut-être nécessaire si elle favorise le dépassement. Il faut que la pensée des physiciens se libère de ce qui constitue un carcan de cette pensée. Peut-être y sommes-nous. Voir P.S.

P.S. Dans le journal ‘Le Monde’ daté du 4 Avril, il y a un article de deux pages la ‘Matière noire, Clé introuvable de l’Univers’. Il y a un paragraphe qui a particulièrement retenu mon attention puisqu’au risque de vous lasser, à force d’articles, sous des angles multiples je réitère ce même constat : « La communauté scientifique vit donc une crise multiple : il y a une crise du WIMP qu’on ne voit pas dans les détecteurs ; il y a une crise de l’idée favorite des théoriciens, la supersymétrie, qui accompagnait le WIMP ; et il y a une crise de la théorie des cordes qui a besoin de la supersymétrie pour s’appliquer aux particules de matière. C’est typiquement le signal qui annonce un changement majeur…on se demande si cette crise n’est pas en train de nous amener à revoir notre conception de l’espace et du temps. » Est-ce que je peux maintenant m’exclamer, ‘Diantre, je découvre avoir, là-bas, des compères qui ont aussi saisi où se trouve le nœud de la crise ainsi que sa résolution, et non des moindres, entre autres E. Witten qui sous pèse : « L’espace-temps est peut-être maudit » ou N. Seiberg qui déclare que l’espace-temps était « une illusion ». Il aurait ajouté : « Il faut changer nos lois ». Je peux ajouter, non il n’y a rien à changer, mais il faut comprendre que nos lois résultent de notre aperçu du monde avec lequel nous sommes en contact (dépendant de nos capacités instrumentales d’observations), aperçu correspondant à nos capacités actuelles de le penser. Et à la base de cette conception je postule que le sujet pensant est le fondateur de l’espace-temps. Autrement dit l’espace-temps est un propre de l’être humain. Dès lors que N. Seiberg et d’autres accepteront ce fondement, j’ai la conviction que sans changer nos lois actuelles, ils pourront en formuler de nouvelles.     

Partager cet article

Repost0
23 mars 2018 5 23 /03 /mars /2018 07:49

Trois communications qui pourront n’en faire qu’une…

            N’en faire qu’une sera dans un futur assez proche car il me semble que les principaux ingrédients constitutifs d’une communication unique, unifiant, sont déjà bien pensés dans chacune des communications que je cite ci-après.

Première communication : ‘Un progrès dans la précision des horloges atomiques optiques"A Boost in Precision for Optical Atomic Clocks’. Ce nouveau record de précision des horloges atomiques est publié dans le Physical Review Letters du 5 mars. Une équipe de l’Université du Colorado a maintenant établi un nouveau record parmi les horloges atomiques optiques en réalisant une horloge de strontium (Sr) avec une précision relative de 2,5 × 10-19s, améliorant le record de 2017 : 3,5× 10-19s. Soit une imprécision de 100ms sur la durée de vie estimée de l’Univers. Bien que Les horloges atomiques actuels marquant le temps officiel perdent l'équivalent de seulement une seconde tous les 200 millions d'années (soit une précision de 1×10-16s) les métrologues ne sont pas, plus, satisfaits. Une norme de temps plus précise pourrait concrètement améliorer la navigation des vaisseaux spatiaux et aider les expérimentateurs à rechercher des variations des constantes fondamentales qui signaleraient une nouvelle physique. Étant donné que les horloges ont déjà des niveaux de précision aussi étonnamment élevés, pourquoi chercher à en savoir plus ? Pour un scientifique, la réponse est évidente : Avec chaque amélioration ce sont des nouvelles perspectives qui font jour pour l'exploration scientifique et donc pour des découvertes (sic). Des phénomènes autrefois impossibles à étudier ou des questions sur la nature qui semblent purement rhétoriques se transforment soudainement en lignes de recherche expérimentale. Par exemple : Les améliorations des horloges optiques peuvent également conduire à de nouvelles technologies, notamment des systèmes GPS avec une précision du subcentimètre, la navigation dans l'espace lointain, des télécommunications plus sûres, de nouvelles méthodes d'exploration des réserves de pétrole et de gaz et la détection plus précise des mouvements tectoniques.

En améliorant ainsi la précision des horloges nous pouvons accéder avec plus de précision à des phénomènes comme celui du magnétisme et celui de la supraconductivité.  Dans le futur la méthode peut permettre aux physiciens de finalement voir de la nouvelle physique telle que celle concernant la connexion entre la physique quantique et la gravité (sic).

Bref, en résumé, gagner en précision des mesures d’intervalles de temps c’est accéder à de nouveaux paysages scientifiques jusqu’à présent cachés aux observateurs. Ce fut le cas, il y a deux ans, quand une équipe australienne a réussi à observer un effet tunnel effectif d’un électron se produisant durant un intervalle de 10-18s. Ces résultats sont obtenus grâce à des progrès technologiques remarquables. La marche progressive de ces progrès est de plus en plus asymptotique mais malgré cette lenteur qui en résulte on pense qu’il y a encore une marge de gains possibles. ‘Homo Faber’ a de la ressource ! Cette corrélation évidente entre voir de la nouvelle physique et mesure d’intervalle de temps de plus en plus étroit, précis, nous encourage à penser à l’extension du champ des phénomènes et des propriétés physiques que nous devons encore éclairer. En même temps qu’en sera-t-il si de fait il y a une limite propre à l’être humain comme j’en fais l’hypothèse dans le voisinage de 10-25s ? Voir article du 21/07/2017 : ‘Flirte-t-on déjà avec le point aveugle ?

Deuxième communication : c’est l’article, dans le N° de Mars de ‘Pour la Science’ de G. Dowek : ‘Pourquoi le monde est imprédictible’, qui m’a inspiré pour cette deuxième communication. Au début de l’article l’auteur fait référence aux cogitations bien connues de Simon Laplace à propos du déterminisme classique et de la prédictibilité envisageable du futur du Monde. L’auteur y ajoute une préoccupation supplémentaire vraiment légitime : en conséquence, où doit se trouver l’intelligence qui serait censée moyennant sa capacité d’analyse immense et sa capacité de calcul de prédire le futur déterminé du monde ? Selon G. Dowek, si comme nous et comme nos ordinateurs, cette intelligence se trouve à l’intérieur du monde, il devient hardi de supposer qu’elle puisse calculer aujourd’hui l’état dans lequel le monde sera demain.

Je propose que l’on suive au plus près le raisonnement de l’auteur : « Imaginons une telle intelligence, par exemple un ordinateur, capable de prédire aujourd’hui l’état dans lequel le monde sera demain, et demain celui dans lequel il sera après-demain, etc., et qui présenterait chacune de ces prédictions sous la forme d’une image. Alors, comme cet ordinateur appartient au monde, il apparaîtrait lui-même sur l’image du monde de demain, et il y présenterait une image du monde d’après-demain. L’image du monde de demain contiendrait une image du monde de tous les jours suivant. Ainsi, prédire l’état dans lequel le monde sera demain demanderait de prédire aussi celui dans lequel il sera après-demain, après-après-demain, etc. Cela demanderait donc une quantité infinie de calculs, impossibles à effectuer en un temps fini.

Ainsi, nos possibilités de prédictions ne sont pas uniquement limitées par l’indéterminisme du monde ou par notre connaissance imparfaite de celui-ci, comme le supposait un certain idéalisme qui plaçait l’observateur à l’extérieur du monde, mais également par le fait que nous ne pouvons faire de prédictions que depuis l’intérieur du monde lui-même.

Ce constat que l’imprédictibilité est aussi liée aux limites du traitement de l’information illustre deux idées caractéristiques de la « pensée informatique », de la façon dont les informaticiens pensent. La première idée est que ce n’est pas uniquement l’existence d’un algorithme qui importe, mais aussi sa complexité, c’est-à-dire le temps que prend son exécution. Si un algorithme, par exemple, permet de prédire un séisme, mais que ce calcul prend plus de temps que celui qui nous sépare de cet événement, nous ne pouvons parler, au sens propre, de « pré »diction. La seconde idée est que les ordinateurs ne sont pas des abstractions hors du monde, mais des objets soumis aux lois de la physique, lesquelles contraignent, de ce fait, ce que nous pouvons calculer. (Sic)»

Cette communication n°2 est bienvenue pour nous rappeler que le sujet pensant avec tous les outils, les plus puissants et les plus sophistiqués, qu’il puisse élaborer pour favoriser sa quête de connaissances est totalement partie prenante du monde qu’il cherche à connaître. Et nous ne pouvons pas faire abstraction que cette assertion conduit à des contraintes dont nous ne pouvons pas nous émanciper si facilement. Pour ma part, ce rappel n’est pas suscité pour prétendre qu’il y aurait des limites incontournables qui in fine contrecarreraient définitivement notre quête de connaissances en physique, mais pour rappeler la nécessité impérative d’avoir une intelligence des choses qui ne soit pas troublée par l’idéalisme, et qui assume que le sujet pensant avec ses déterminations et ses outils qui participent à la dynamique de sa quête sont parties de ce monde prospecté.

Troisième communication :

  En grande partie, dans l’article du 20/02/2018 : ‘S’écarter du CERN’, j’ai déjà cité l’article qui est l’objet de cette 3e communication. C’est l’article du 12/01/2018, dans Phys.org : « Vitesse quantique limite peut freiner l’ordinateur quantique. » ; « Quantum speed limit may put brakes on quantum computers », qui enrichit et conforte les arguments de l’auteur de la 2e communication et qui confirmeraient ceux que j’ai déjà développés dans de nombreux articles et in fine valideraient mon hypothèse. Je cite quelques extraits de cet article de Sebastian Deffner : «… mais ma recherche récente a révélé que les ordinateurs quantiques auront des limites (de vitesse de calcul) qui leurs seraient propres – et a indiqué la voie par laquelle on peut préciser ce qu’elles seraient… » ;  

Les limites de la compréhension.

« Pour les physiciens, nous, humains, vivons dans ce que nous appelons le monde « classique » et dans ce contexte nous avons progressivement compris intuitivement la physique. Avec les lois de la physique classique il y a des limites théoriques qui s’imposent. Mais elles sont tellement élevées : par exemple nous savons qu’un objet ne peut jamais dépasser la vitesse de la lumière. Les gens ne rencontrent jamais les limites physiques du monde, mais elles existent (Sic). Jusqu'à récemment, cependant, les savants avaient seulement une idée assez vague que la physique quantique avait des limites aussi, mais ne savaient pas réellement comprendre comment cela pourrait s'appliquer dans le monde réel. »

« L’incertitude de Heisenberg »

« Il est important de réaliser que cette « incertitude quantique » n’est pas un défaut de l’équipement de mesure ni de l’ingénierie, mais témoigne plutôt de la façon dont notre cerveau fonctionne (sic). Nous avons évolué par l’intermédiaire d’une confrontation courante avec le "Monde Classique " et nous comprenons comment il fonctionne alors que les mécanismes physiques réels du "Monde Quantique" sont tout simplement au-delà de notre capacité à les saisir pleinement »

Ce 15 mars, un nouvel article dans Phys.org a signalé les résultats des travaux de deux équipes du MIT et de l’Université de Tokyo pour indiquer, et ceci pour la première fois, que les limites de la vitesse quantique ont une contrepartie : des limites de la vitesse classique. Ces nouveaux articles indiquent que « Les limites de vitesses basées sur le troque entre énergie et temps existent tout autant dans les systèmes classiques que dans les systèmes quantiques. Ces résultats démontrent que les limites de la vitesse quantique ne sont pas la conséquence d’un quelconque sous-phénomène quantique mais au contraire sont la conséquence d’une propriété universelle de la description de tout processus physique, qu’il soit quantique ou classique » ; « Comme les limites de vitesse quantique ont des applications potentielles pour comprendre les limites ultimes de l'informatique quantique, les nouveaux résultats peuvent aider à déterminer quels scénarios peuvent bénéficier d'une accélération quantique par rapport aux méthodes classiques. »

 

Partager cet article

Repost0
20 mars 2018 2 20 /03 /mars /2018 08:24

La vérité laide

‘The ugly truth’ : ‘La vérité laide’, est le titre d’un article du 3 mars 2018 dans le NewScientist qui valablement commence à interroger l’impasse dans laquelle les physiciens théoriciens et expérimentateurs de la physique des particules élémentaires se trouvent coincés. C’est la première fois que je lis un article qui va dans le sens d’articles que j’ai postés, notamment le 08/11/2011 : ‘Qui se permettra de le dire’ ; le 16/01/2016 : ‘Et si notre pensée était mal placée’ ; le 29/09/2017 : ‘Un déni ne procède pas d’une démarche scientifique’. Le sous-titre de l’article du NS relate que les physiciens ont cru longtemps que l’univers doit être beau et a juste titre l’auteur : Daniel Cossins, indique que Paul Dirac (un des fondateurs de la théorie quantique des champs), à la fin des années 1930, adepte de la philosophie de Platon, avait exprimé la conviction qu’il était guidé par la recherche de la beauté dans les équations plutôt que de chercher à les vérifier expérimentalement. Selon lui la beauté était incorruptible et donc source de vérité vrai. C’est-à-dire, selon lui, la nature est réellement harmonie.

            Cette conviction est semblable à celle des réalistes et elle guide le travail d’une très grande majorité des physiciens théoriciens. Etrangement dans cet article le concept de réalisme n’est pas utilisé, il est substitué par celui de naturalité : « Une dévotion presque religieuse à la beauté continue de servir de référence parmi les théoriciens de la physique fondamentale. Une vision de l’élégance en particulier s’est imposée en premier plan : le principe de la naturalité (the principle of naturalness). Globalement dit, il est cru que les lois de la nature seraient sublimes, inévitables, et intrinsèques, au contraire de fabriquées et arbitraires. »

            Mais si ce n’était pas ainsi ? C’est la possibilité inquiétante qui est nouvellement partagée par un nombre de plus en plus important de physiciens depuis la découverte du boson de Higgs (2012) qui aurait dû constituer une percée enclenchant en conséquence une série de découvertes récurrentes. En fait la découverte du boson de Higgs, nous aurait plutôt confirmé la fin d’un cycle de prédictions, nous aurait plutôt confirmé l’épuisement du référentiel théorique constitué par la théorie quantique des champs avec ses propriétés de symétrie (signes d’harmonies), que les physiciens croyaient, inépuisable. Ainsi M. Dine, théoricien de l’Université de Californie nous dit : « Il se pourrait que nous comprenions que la nature n’est pas si naturelle (sic). » Ainsi la théorie en cours de la supersymétrie qui profite ‘naturellement’ des succès précédents des propriétés d’unifications ne conduit pas, jusqu’à présent, à des prédictions observables. Pourtant le L.H.C a été conçu pour détecter des particules supersymétriques (sparticules), mais les détecteurs sont muets. Depuis 6 années nous sommes carencés de nouveautés.

            « Nous sommes coincés, nous ne voyons rien venir, ce qui me rend suspicieux et nous aurions donc pris le mauvais chemin avec le principe de naturalité. » nous dit Ben Allanach : théoricien de l’Université de Cambridge. Effectivement, de plus en plus de physiciens commencent à vaciller, ainsi Gian Giudice, directeur du département de physique théorique au CERN, a récemment concédé que la naturalité n’offrait pas la bonne vision théorique pour progresser et il considère que nous sommes à un tournant. Sabine Hossenfelder, théoricienne allemande, indique dans un prochain livre à sortir : ‘Comment la beauté conduit la physique à l’égarement.’ Mais n’oublions pas que le conservatisme est une tendance étonnamment très prégnante au sein de la communauté scientifique des physiciens. Comme l’affirme Allanach beaucoup de physiciens ne sont pas prêt, loin de là, à franchir le Rubicon. Ainsi M. Dine a toujours l’espoir que les particules supersymétriques existent, a des énergies plus élevées que prévues, au point qu’aucune machine ne pourra les produire !!

             Ceux qui ont renoncé au principe de la naturalité et à l’impasse du boson de Higgs avec sa masse si faible, trop faible, conduisant à un cul-de-sac, considèrent que la théorie des multivers est une alternative car elle permet d’échapper au principe anthropique[1]. Echapper au principe anthropique c’est d’une certaine façon vouloir échapper à l’idée que nous sommes dans un univers dont nous connaissons déjà en grande partie ce qu’il est, avec une origine, un déploiement, un contenu élucidé, bref une représentation à laquelle il ne resterait plus qu’à découvrir des détails secondaires bien que parfaitement nécessaires. Cette conception des choses est corrélée à l’idée que les êtres humains que nous sommes aujourd’hui, sont des êtres aboutis du point de vue des capacités cognitives qui seraient émancipées de toutes déterminations, bref, les connaissances que les êtres humains sont capables d’inférer en observant la nature ont une valeur universelle. Vouloir échapper au principe anthropique par le biais de la théorie des multivers ne peut pas être confirmé car cette théorie résulte de la théorie quantique des champs et donc cette pensée théorique des physiciens se déploie encore dans le même référentiel naturaliste, réaliste. On mesure donc qu’il est difficile d’inaugurer une nouvelle pensée ouverte sur la nature, et notre rapport avec elle, en dehors des schémas déjà empruntés.

            Ce que je propose, pour sortir de l’impasse, c’est qu’il nous faut aussi interroger l’être humain qui interroge la nature, en prenant en compte qu’à l’origine l’être humain est un être de la nature. Comme je l’ai déjà précisé, cela oblige les physiciens, pour qu’ils renouvellent effectivement leur référentiel, à penser en puisant dans d’autres corpus de connaissances tels que la paléoanthropologie et les neurosciences. Quand le paléoanthropologue Jean Guilaine nous dit : « Il me semble en effet que l’intégration psychique espace-temps chez l’homme (voire ses progrès) doit être abordée au départ, c’est-à-dire aux temps de l’hominisation voire au Paléolithique inférieur. Il est certain, du moins je pense, que cette notion est totalement bien maitrisée au Paléolithique moyen et supérieur chez les Sapiens ne serait-ce qu’en raison de la nécessité de déplacements saisonniers pour se procurer de la nourriture… », il y a vraiment matière à réfléchir ensemble. Lorsque le neuroscientifique S. Dehaene nous dit : « Je me demande si la capacité de représentation symbolique et récursive n’est pas apparue, dans un premier temps, indépendamment du langage, avant tout comme un système de représentation rationnelle du monde. Le cerveau d’Homo erectus avait peut-être déjà atteint la compétence d’une machine de Turing universelle, capable de représenter toutes les structures logiques ou mathématiques possibles… », il y a vraiment matière à creuser ensemble, et s’interroger si cela peut être plus ou moins validé, quelles seraient alors les conséquences contemporaines chez l’homme moderne ?

 

[1] Ce principe conduit à penser que l’univers a les propriétés qui sont les siennes parce que c’est celui où nous vivons et que nous pensons. Echapper au principe anthropique c’est refuser des limites à l’enquête scientifique.

Partager cet article

Repost0
25 février 2018 7 25 /02 /février /2018 12:33

Bilan utile suite au dialogue M. Mueller – Ph. Maulion

Dans l’article du 16/02, nous avons été amenés à évoquer quatre références théoriques dont chacune a vocation à rendre compte pourquoi l’être humain a mis, et continue de mettre en évidence des lois physiques, dans quel contexte, et pour chacune d’elles quel est processus qui les justifie.

La première référence théorique nettement dominante est celle du réalisme. On peut la résumer ainsi : les lois de la physique que l’être humain a découvert jusqu’à présent sont celles qui atteignent l’os du monde réel. Malgré les difficultés d’interpréter les propriétés que nous identifions en mécanique quantique dans le cadre du réalisme, celui-ci est toujours intellectuellement rassurant en conséquence il est pensé qu’il y a un monde quantique réel.

La référence théorique franchement minoritaire est celle que je propose et que l’on peut qualifier d’anthropocentrique. C’est-à-dire que c’est l’intelligence évolutive de l’être humain qui est fondatrice des lois physiques sans pouvoir faire référence à une quelconque réalité car celle-ci nous est inaccessible et ne peut être évoquée. Le tropisme d’un monde réel sans ‘Présence’ est superflu. Souvent je la résume suivant cette dynamique : « Au sein d’une éternité, parmi tous les possibles, l’anthropos ne cesse de creuser sa connaissance de l’univers… »

Markus Mueller nous propose une nouvelle théorie qui par beaucoup d’aspects semble identique à celle que je propose mais elle fait référence, certes sur un mode mineur, à un fond de monde réel. Ce monde réel est, selon son hypothèse, clairsemé dans le sens où il ne comprendrait pas toutes ces lois courantes que nous croyons avoir identifiées. Mais il y aurait ce monde préalable, celui qui sert de support à ce qu’il appelle ‘le point de vue de la première personne’. Il y a donc une hybridation qui n’a pas de justification autre que celle de pouvoir entreprendre, grâce à la théorie algorithmique de l’information, une simulation du monde tel qu’in fine, il nous apparaît.

La quatrième référence théorique faiblement suggérée, au cours de ce dialogue, se dénomme :’ QBism’ soit la contraction de ‘Quantum Bayesianism’. Grâce à cette théorie, depuis une quinzaine d’années, il est tenté de repenser les fondements de la mécanique quantique hérités de l’Ecole de Copenhague en intégrant un rôle significatif à la conscience de l’observateur. Avec le QBism, une nature subjective est objectivement attribuée aux fondements de la mécanique quantique. C’est à dire que la conscience de l’observateur conditionne les résultats de la mesure sur l’objet quantique. Pour certains le QBism est une forme d’antiréalisme, pour d’autres il est considéré comme un ‘réalisme participatif’. A mon sens ces atermoiements entre, subjectivisme-antiréalisme/réalisme participatif, sont dus au fait que la conscience, en général, de l’être humain : on ne sait pas ce que cela signifie. Aucune compréhension et partant aucune définition stable ne peut prévaloir car état de conscience que l’on peut corréler à état d’éveil, diffère d’un individu à l’autre. Pas de conscience générique ! en conséquence c’est une notion qui ne peut être exploitée dans le cadre de la physique. (Voir article du 11/01/2014 : ‘L’étrangeté quantique, une illusion ?’).

J’ai quelques raisons de penser que la référence théorique que je privilégie a de l’avenir car je rencontre des recoupements dignes d’intérêt. En citant ce que j’ai exprimé avec conviction dans l’article du 11/01/2014 : « L’étrangeté provient du fait que nous sommes des êtres classiques, déterministes, déterminés par notre rapport façonnant avec la Nature à l’échelle classique et notre intelligence naturelle ne peut évoluer que lentement au fur et à mesure que notre rapport avec la Nature s’enrichit, se densifie, s’approfondit. », et en le mettant en rapport avec cet extrait de l’article du 12/01/2018 de Sebastian Deffner sur le site de Phys.org : « Il est important de réaliser que cette « incertitude quantique » (de Heisenberg) n’est pas un défaut de l’équipement de mesure ni de l’ingénierie, mais témoigne plutôt de la façon dont notre cerveau fonctionne (sic). Nous avons évolué par l’intermédiaire d’une confrontation courante avec le "Monde Classique " et nous comprenons comment il fonctionne alors que les mécanismes physiques réels (sic) du "Monde Quantique" sont tout simplement au-delà de notre capacité à les saisir pleinement ». J’ai, avec cet exemple, une bonne raison de penser, qu’avec S. Deffner, il y a une convergence de pensée très intéressante qui accorde donc une primauté aux capacités d’inférer du ‘sujet pensant’ pour décrypter le monde physique. C’est-à-dire que nous le pensons en fonction de nos capacités intellectuelles. J’ajoute que notre capacité à saisir pleinement les mécanismes évoluera grâce au développement d’une capacité à penser quantique. Nous devons considérer que notre évolution cérébrale est toujours en cours. Avec cet exemple j’ai une bonne raison de penser que Deffner a déjà intégré l’idée que le référentiel traditionnel des physiciens doit s’enrichir de ce que les corpus de la paléoanthropologie et des neurosciences ont déjà mis en relief.

A sa façon, S. Dehaene a déjà anticipé ce décloisonnement fertile que j’ai relevé largement dans l’article précédent avec la citation relative à son hypothèse de la compétence supposée du cerveau d’Homo erectus.

Avec ces citations récentes, il est possible d’espérer que l’élargissement du champ d’investigation traditionnel des physiciens que je préconise soit progressivement adopté. Toutefois, il ne faut pas oublier qu’en son temps E. Mach (cité dans l’article précédent), il y a plus d’un siècle avait exprimé des idées très claires et incisives sur ce sujet sans qu’elles essaiment pour autant dans le champ de réflexion des physiciens.

Je continue d’être évidemment vigilant à l’égard de toutes les expressions nouvelles sur ce sujet et je veux espérer pouvoir les signaler dans des prochains articles. A suivre…

Partager cet article

Repost0
16 février 2018 5 16 /02 /février /2018 09:00

Dialogue Markus Mueller – Ph. Maulion

Rappel : le 27/11/2017, j’ai posté un article : ‘La réalité ? C’est vous qui la faites II’ dans lequel je privilégiai le cheminement intellectuel du physicien théoricien Markus Mueller. La raison de ma curiosité et de mon intérêt à l’égard de ses recherches et publications tient au fait que ses hypothèses fondamentales sont très semblables aux miennes. Toutefois elles sont les mêmes préalables pour une exploitation très distincte. Je me suis rapproché de Markus pour tenter de constater les convergences et les différences entre nos façons, au-delà de nos hypothèses communes, d’extraire des conclusions. Markus exploite un arsenal mathématique très sophistiqué pour produire une modélisation théorique que vous pouvez consulter sur arxiv : https://arxiv.org/abs/1712.01816,ainsi que https://arxiv.org/abs/1712.01826, articles publiés le 05/12/2017


Ci-après, je joins quelques échanges de notre correspondance qui précisent nos points essentiels d’accord et ceux de désaccord.

Email que j’ai envoyé à Markus Mueller, le 11/12/2017 :

J’ai lu avec attention l’article de Philip Ball dans le NewScientist qui expose votre conception fondamentale du processus de découverte du monde physique par les physiciens.

            Avec votre conception, j’ai rencontré des convergences intéressantes mais moins radicales. Je suis en accord avec vous pour rejeter la conception des QBists. Je suis d’accord pour affirmer que les lois fondamentales de la nature – relativité générale, équations de Maxwell ou principe d’incertitude de Heisenberg – ne sont pas des lois de la nature mais elles sont là, intellectuellement conçues et font sens. Ces lois sont l’émanation de l’esprit humain[1] et révélatrices de l’interaction, de la dépendance, de l’être humain à l’égard de la nature. Pour moi : « La physique doit être décrypter comme une science de l’interface de l’être humain réflexif et de la nature. »

            Je suis en accord avec vous pour considérer que la loi de Bayes jouent un rôle dans notre quête de connaissance parce que les neuroscientifiques ont découvert (depuis 2011, à ma connaissance) que le cerveau humain est déterminé par la statistique bayésienne et il infère selon cette loi.

            Je suis d’autant plus en accord avec vous que je fais l’hypothèse que l’être humain véhicule d’autres déterminations et notamment que notre conception de l’espace-temps ne se réfère pas à la nature mais qu’il est un propre de l’homme. Selon mon hypothèse cela explique pourquoi les lois fondamentales de la physique quantique nous apparaissent si bizarres et encore maintenant indécryptables. Cette hypothèse peut être testé en réalisant une expérience comprenant une équipe mixte de physiciens, de neuroscientifiques. Par exemple mon expérience pourrait expliquer pourquoi l’étrangeté quantique de la lumière survit après un aller et retour dans l’espace.

             Ceci constitue une synthèse de ma théorie, depuis 10 ans que je l’échafaude. La vôtre m’intéresse car j’y trouve des convergences et je souhaiterais que l’on puisse en discuter si cela vous convient.

Markus m’a répondu le 13/12/2017

Je suis profondément d’accord avec votre idée qu’il est essentiel de voir que les lois de de la nature doivent être comprises comme décrivant l’interface entre les observateurs (par exemple humains) et le monde en quelque sorte, et non comme “directement le monde en soi ”, qu’elle qu’en soit la signification. En particulier, comme vous l’avez écrit, je suis d’accord que cette vision est essentielle pour comprendre le monde quantique.

Je pense pourtant qu’il peut y avoir un important point de désaccord entre nous, sur ce que nous signifions en disant cela. Laissez-moi illustrer cela à titre de comparaison, notamment avec la fameuse expérience de pensée du “physicien dans l’ascenseur“. Comme vous le savez sûrement très bien, ici l’expérience de pensée dit qu’un scientifique dans un ascenseur ne peut jamais savoir si l’ascenseur est en chute libre ou bien planant dans l’espace ailleurs.
Étant donné cela (sans connaître la relativité générale), on peut exprimer différentes conclusions possibles. Une conclusion possible serait de dire que cela révèle une limite essentielle des observateurs et d’une certaine manière que nous ne puissions jamais connaître le monde directement. Mais une autre conclusion possible serait que “les 2 situations sont fondamentalement les mêmes“ en quelque sorte — ce n’est pas une limite de l’observateur, mais une compréhension du monde actuel que nous obtenons (déduisons) de cette expérience de pensée.
Dans ce cas, la dernière conclusion est la plus féconde, puisque conduisant à une formulation du principe d’équivalence.


Maintenant, dans l’approche que je considère, je prends les limites fondamentales au sérieux dans le dernier sens. Ma vision est *non* : nous humains nous ne sommes pas en quelque sorte limités, mais c’est l’ontologie du monde qui est simplement plus clairsemée (réduite) que nous ne le pensons. S’il n’y a en principe aucun moyen de connaître quoi que ce soit concernant ce monde sous-jacent, alors peut-être (et c’est mon hypothèse) il n’y a simplement pas une telle chose comme un “monde“ selon la manière habituelle que nous tendons à le penser. Une question naturelle alors est : “mais pourquoi pratiquement cela nous apparaît comme s’il y en avait un“ et c’est sur ce thème que le plus gros de mon travail est publié dans mes articles — notamment celui qui propose la notion émergente de “monde“ automatiquement, et qui ressemble sous plusieurs aspects fondamentaux à celui que nous voyons.

Ci-dessous : Abstract de l’un de ses articles cités sur arxiv, traduit par mes soins :

Le monde physique pourrait-il être émergent au lieu d’être fondamental, et pourquoi devrions-nous nous le demander ?

Selon la conception courante de la physique, une théorie physique valide est supposée décrire l'évolution objective d'un monde extérieur unique. Cependant, cette hypothèse est contestée par la théorie quantique, qui indique que les systèmes physiques n'ont pas toujours des propriétés objectives qui sont simplement révélées par la mesure. En outre, comme soutenu ci-dessous, plusieurs autres énigmes conceptuelles dans les fondations de la physique ainsi que des domaines connexes indiquent des limitations possibles de la perspective courante et motivent l'exploration d’alternatives.

Ainsi, dans cet article, je propose ici une approche alternative qui commence avec un (rigoureusement formalisé) concept d'«observation» comme première notion, et qui n'assume pas d'emblée l'existence d'un «monde» ou de lois physiques. Elle peut être incluse dans un postulat unique : à savoir que l'induction de Solomonoff prédit correctement les observations futures. En utilisant des outils de la théorie algorithmique de l’information, je montre que la théorie qui en résulte suggère une explication possible pour rendre compte pourquoi il y a des ‘lois de la nature’ probabilistes calculables simples en premier lieu. Il prédit l'émergence de la notion d'un monde extérieur objectif qui a commencé dans un état de faible entropie. En outre, Modulo une conjecture/supposition, il prédit aussi que les observateurs verront typiquement les caractéristiques de la théorie quantique, à savoir la violation des inégalités de Bell, malgré la validité du principe de non-signalisation. Ces caractéristiques sont liées à l'incertitude d'auto-localisation (sic) des observateurs (comme le tristement célèbre "Sleeping Beauty Problem") et aussi au "Principe Principal" de David Lewis.  En outre, la théorie résout le problème du cerveau de Boltzmann de la cosmologie via un «principe de régularités persistantes », et il fait la prédiction inhabituelle que la notion émergente d’un monde objectif externe se décompose dans certaines situations extrêmes, conduisant à des phénomènes tels que  "probabilistes zombies " En outre, il fait en principe des prédictions concrètes pour certains problèmes conceptuels fondamentaux liés à la simulation par ordinateur d'agents intelligents (d'observateurs).

Ce document ne prétend pas décrire exactement « comment fonctionne le monde ». Il ose plutôt soulever la question de savoir si le point de vue de la première personne peut être un départ plus fructueux pour aborder certaines questions fondamentales de longue date, et il fournit une preuve du principe que nous pouvons construire de simples théories rigoureuses de ce genre qui semblent être cohérentes avec nos observations physiques.

Ma réponse communiquée le 15/02/2018 :

Maintenant que nous avons identifié les points d’accord significatifs qui contribuent à nos conceptions respectives, expliquant pourquoi l’être humain atteint une connaissance d’un monde physique sans lien avec une quelconque réalité physique supposée, il est maintenant approprié que nous mettions en évidence nos différences voire nos divergences. Celles-ci pouvant, peut-être, aider à améliorer nos conceptions respectives.

A priori vous considérez que l’être humain (sujet pensant) n’a pas de limite. A priori je considère que l’être humain générique est vecteur de déterminations et chacune de celles-ci est levée lorsqu’un nouveau paradigme de la physique permet d’expliquer ce qui auparavant ne l’était pas. Prenons comme exemple[2] le paradigme des valeurs discrètes des grandeurs de la physique atomique (quantique) et pensons à la résistance de M. Planck, lui-même, à accepter ce paradigme. Mais le caractère discret des valeurs quantiques fondamentales, s’est imposé à l’intelligence de la communauté des physiciens (via N. Bohr et Heisenberg) et puis, progressivement, s’est naturellement (intellectuellement) imposé auprès des chimistes et des biologistes. Les scientifiques pensent de mieux en mieux naturellement quantique mais pas encore totalement puisque la propriété d’intrication[3] n’est pas encore explicable. Cela le sera lorsqu’un nouveau paradigme s’imposera à l’intelligence collective des physiciens, mon hypothèse est : l’espace-temps est un propre de l’homme.

Lorsque le bon paradigme s’imposera, bien des énigmes actuelles de la physique fondamentale seront levées. C’est ce que nous dit L. Smolin avec le titre de son livre : La renaissance du temps : Pour en finir avec la crise de la physique’ (bien que, selon moi, son paradigme du temps réel soit erroné). A partir de cette situation nouvelle un cours nouveau d’avancées significatives de connaissances en physique s’engagera jusqu’à ce que de nouveaux obstacles à la dynamique de la compréhension du monde tel qu’il apparaît aux physiciens surgissent. Des déterminations ignorées jusqu’à ce point feront obstacles et se lèveront à force de nouveaux paradigmes.

Selon ma conception, une détermination correspond à une impossibilité de la part de la communauté scientifique à formuler une pensée fondamentale nouvelle jusqu’à ce qu’objectivement confrontée à ses contradictions la communauté accepte de concevoir ce qui était auparavant impensable. Lever une détermination cela correspond à l’enrichissement du patrimoine culturel, intellectuel, cérébral, qui permet d’aller vers de nouvelles découvertes, de nouvelles compréhensions pour l’être humain.

Je privilégie la connaissance en physique parce que c’est le domaine de la confrontation première, principale et objectivable entre l’être humain et la Nature et elle se situe dans une dynamique sans fin de survie comme l’exprime en synthèse Mach. Ernst[4].

Je privilégie le concept de détermination parce que l’être humain a une origine naturelle, c’est-à-dire qu’il fut avant tout un : ‘Être de la Nature’ et il devint progressivement un : ‘Être dans la nature’, dans la nature lorsqu’il commença à investir avec une pensée première[5] : la Nature, grâce à un facteur primordial (très difficile à identifier mais il ne faut pas l’exclure dans le futur). Cette fracture, ce surgissement, sont balisés par mon concept de ‘Présence’ car ‘l’Être dans la Nature’ qui commence à se hisser sur son promontoire d’observation, qui prend du recul, est un intrus avec un bagage intellectuel rudimentaire propre, il est totalement hétérogène à ce qu’est la Nature.

Formulons l’hypothèse que cela s’est engagé lors de la transition Australopithèques/Homo, peut-être avant, mais il y eut une transition avec le surgissement d’une ‘Présence’[6]. De là, s’engage une évolution physique globale de l’être pensant incluant le cerveau avec sa structure[7] (jusqu’au stade de la globularitée actuelle[8]) donc des facultés intellectuelles c’est-à-dire des facultés à distinguer, à différencier, à corréler, à apprendre, à communiquer, grâce à un processus d’apprentissage et de mémorisation. Lever progressivement les déterminations qui sont liées à cette origine naturelle est la raison d’être de l’humain.

Comme vous pouvez le constater mon observateur est toujours et absolument incarné. La mise en évidence d’un paradigme nouveau correspond toujours à une rupture, à un saut historique de capacités intellectuelles nouvelles qui s’appuient sur un savoir nouveau acquis. Un paradigme ne peut être simulé… avant qu’il ne soit effectivement pensé c’est-à-dire qu’il ne soit effectivement déclaré et accepté par la communauté scientifique. Peut-être qu’une fois que ce paradigme est considéré comme opérationnel cela peut se voir au niveau cérébral grâce à des connexions cérébrales nouvelles qui s’établissent d’une façon pérenne, ou tout au moins plus fréquemment, selon la théorie de l’apprentissage (cela est encore trop tôt pour être affirmé globalement et scientifiquement même du point de vue des neurosciences).

A propos des physiciens qui intègrent le concept de la conscience à la base de leur conception théorique, je considère qu’ils font fausse route car la conscience en général est insaisissable, indéfinissable. Seulement la conscience de quelque chose est identifiable et depuis une vingtaine d’années nous mesurons que la conscience de quelque chose nécessite une durée de 1/3 de seconde. Cette contrainte temporelle de notre prise de conscience ne peut pas être sans conséquence.

Comme vous pouvez le constater, je m’appuie sur d’autres corpus que ceux de la physique et des mathématiques, principalement ceux de la paléoanthropologie et ceux des neurosciences. Ces corpus sont maintenant de plus en plus consistants grâce aux technologies nouvelles d’observation, d’évaluation. Je n’hésite pas à considérer que les physiciens devraient dorénavant puiser dans ces corpus et dialoguer avec les spécialistes en question. Les physiciens ne peuvent plus considérer que leur référentiel propre est toujours autosuffisant pour aborder et traiter les questionnements actuels. Un manifeste Européen qui réunirait les leaders de ces trois corpus pour préconiser : comment associer ceux-ci pour engager des recherches sous un angle nouveau serait le bienvenu. Je prends en exemple le neuroscientifique français S. Dehaene qui nous dit : « La pensée géométrique est assez ancienne. Il est très intrigant de voir que, il y a 1.6 à 1.8 millions d’années, les hommes façonnaient déjà des objets aux propriétés mathématiques élaborées, notamment des pierres en forme de sphère, comme s’ils possédaient la notion d’équidistance à un point… Dès lors, je me demande si la capacité de représentation symbolique et récursive n’est pas apparue, dans un premier temps, indépendamment du langage, avant tout comme un système de représentation rationnelle du monde. Le cerveau d’Homo erectus avait peut-être déjà atteint la compétence d’une machine de Turing universelle, capable de représenter toutes les structures logiques ou mathématiques possibles… ». Bien que je n’adhère pas a priori au point de vue de S. Dehaene, je suis convaincu que physiciens et mathématiciens ont tout à gagner à s’enquérir sur quelle base S. Dehaene formule cette hypothèse. En tant que neuroscientifique, il a des raisons de formuler cette hypothèse. Quelles sont ces raisons ? 

Pour nous, les lois physiques sont des inventions de l’être humain qui résultent d’un processus d’interprétation évolutif des lois de la nature. Pour moi cela s’inscrit dans un processus de survie de l’espèce au sein de cette nature. Ainsi la problématique d’une réalité physique ne se pose pas (c’est un cadre qui n’a pas de valeur opérationnelle) puisque ce qui est central c’est la dynamique de la compréhension sans fin de lois physiques à laquelle est associée une dynamique perpétuelle d’évolution de l’espèce humaine.

Notre conviction commune que l’être humain ne peut pas être exclu de la réalité du monde physique a la valeur d’un socle commun à partir duquel nous pouvons mettre à l’épreuve les conséquences respectives que nous projetons.

            Selon mon point de vue, en premier lieu la ‘Présence’ de l’être humain inexpugnable de la réalité du monde physique conçue intellectuellement doit être concrètement identifiable et au moins quantifiable. Sinon on reste au niveau d’une conviction métaphysique[9]. Ainsi, le TpS (Temps propre du Sujet pensant), que je postule à partir de mon désaccord sur une assertion d’Einstein, et que j’identifie comme le point aveugle de l’intelligence humaine aurait une valeur de l’ordre de 10-25s. C’est-à-dire que les phénomènes et les événements qui ont une durée inférieure à cet ordre de grandeur ne peuvent être observés. Depuis que j’ai émis cette hypothèse, je constate, en faveur de celle-ci, qu’au CERN depuis le Boson de Higgs (τ estimé 10-21s) on n’observe rien dans les détecteurs. Nous ne pouvons pas affirmer qu’il n’y a rien à observer, pour le moment nous ne pouvons qu’affirmer : nous sommes incapables d’observer. Est-ce que cela est provisoire ou sera permanent ? De même nous pouvons détecter les ondes gravitationnelles que si elles font subir un déplacement minimum aux miroirs de 10-18m soit un Tic < 10-26s. De même, il y a une dizaine d’années on attribuait à l’électron une dimension de 10-18m, maintenant que l’on a gagné en précision de mesure on est objectivement obligé de dire qu’il n’a aucune dimension, et qu’il est ponctuel !! Cela ne veut pas dire que mon hypothèse est validée mais ces données expérimentales qui s’accumulent constituent des indices.

Enfin on peut conjecturer qu’il est difficile de penser que le fonctionnement avéré par intermittence de la conscience de quelque chose de la part du sujet pensant conduise à un fonctionnement intellectuel, observationnel, absolument continu du sujet pensant.

            Bref, selon ma conviction, le rebond théorique en physique fondamentale que nous attendons depuis des décennies sera préalablement le fruit d’au moins un nouveau paradigme et une logique mathématique nouvelle (peut-être déjà existante) mettra en œuvre des développements significatifs.

 

 

 

 

 

 

[1] Voir article de Etienne Klein dans ‘Pour la Science Hors-série Février-Mars 2018.

[2] Cela pourrait être la découverte de Newton ou encore l’annulation du concept d’éther, et donc admettre le principe d’une propagation dans le vide, etc…

[3] Bien que cette propriété telle qu’elle nous apparaît soit technologiquement exploitable et déjà largement exploitée.

[4] E. Mach, à son époque affirmait : “La tâche des théories physiques consiste à organiser notre expérience conformément au postulat de l’économie de la pensée. Une loi physique est un condensé d’expériences permettant de faire l’économie d’innombrables expériences, une théorie scientifique est une construction coordonnant nos sensations en vue de la prédiction d’expériences futures. Mach lecteur de Darwin, tient les concepts et les théories scientifiques pour des instruments de la survie de l’espèce. »

[5] Celle-ci est, selon mon hypothèse, en relation avec la nécessité de penser l’espace-temps pour se situer dans la nature locale et en conséquence situer l’autre (représentant d’une espèce, prédateur…).

[6] ‘Présence’ ne peut se confondre avec ‘Conscience’. Si celle-ci était identifiable en tant que telle, elle ne serait qu’une conséquence de la ‘Présence’. Le concept de la ‘Présence’ est un concept de l’ordre de l’existentialité.

[7] Il ne me semble pas que votre concept de : ‘first-person’, puisse se situer à ce stade et puisse se superposer avec cet ‘être pensant’ qui met en œuvre une faculté de se projeter, j’attends que vous m’indiquiez ce que vous en pensez.

[8] Très recent article : ‘The evolution of modern human brain shape’, Department of Human Evolution, Max Planck Institute for Evolutionary Anthropology, Deutscher Platz 6, 04103 Leipzig, Germany: “Modern humans have large and globular brains that distinguish them from their extinct Homo relatives. The characteristic globularity develops during a prenatal and early postnatal period of rapid brain growth critical for neural wiring and cognitive development”

[9] ‘Le Moment Présent’ que L. Smolin a identifié au cours de sa remarquable analyse des conséquences de la R. G. n’a jamais été évalué par l’auteur. Puisque vous avez l’occasion de discuter avec lui, si vous le pouvez, posez-lui la question pourquoi il n’a pas franchi ce Rubicon de l’évaluation en durée de ce ‘Moment Présent’ ?

Partager cet article

Repost0
16 janvier 2018 2 16 /01 /janvier /2018 08:14

S’écarter du CERN : Il y a une voie plus économique pour percer la physique.

Ce titre est celui de l’article (publié en accès libre), le 10/01 dans ‘Nature’ : ‘Step aside CERN : There’s a cheaper way to break open physics’. L’article est signé par le physicien Gerald Gabrielse qui ouvertement ne croit plus que le LHC et ses détecteurs puissent révéler une nouvelle physique s’il y en a une. Je cite : « Mais la production de six années de données au LHC n’a pas permis de produire quelque chose de nouveau. » ; « Plus de physiciens suivent la même direction que Gabrielse, avec de modestes installations expérimentales qui correspondent à la dimension standard des laboratoires universitaires. Au lieu des méthodes de la force brute telles que celles de collisions de particules, ces expérimentateurs utilisent des techniques de précision pour chercher des déviations extraordinairement subtiles sur les paramètres de la nature les plus fondamentaux. Quelques différences, aussi faibles qu’elles soient, pourraient indiquer la voie vers des champs futurs. »

Cet article laisse entendre qu’à défaut d’une analyse sérieuse et collective de l’impossibilité de faire émerger une physique originale, nouvelle, au CERN, les physiciens définissent à leur niveau des cibles de recherche qu’ils considèrent plus prometteuses. Toutefois ces cibles privilégiées sont déterminées par ce que le CERN n’a pas été en mesure de confirmer ni d’infirmer. Ce qui indique qu’il n’est pas possible de se dispenser de cette réflexion collective qui devrait s’imposer. Dans l’article du 29/09/2017, suite au silence assourdissant à propos de l’ICHEP du 21 au 22 septembre, j’avais proposé que l’absence de résultats significatifs, depuis plusieurs années, provenant du CERN, soit considérée comme un résultat expérimental. Selon moi, c’est le propre d’un scientifique d’enclencher une réflexion sérieuse quand il n’y a pas de réponse à une (des) question(s) posée(s).

J’ai déjà exprimé une inquiétude certaine dans l’article 16/01/2016 dans lequel j’ai été amené à énoncer un désaccord total (et c’était à regret) à l’égard du contenu du premier article d’arrivée en fonction de la Directrice Générale du CERN qui affirmait : « Si une nouvelle physique est là, nous pouvons la découvrir, mais c’est entre les mains de la nature. » Je ne prenais aucun risque en disant que préalablement il faut avoir la pensée bien placée pour détecter une nouvelle physique. Prenons en exemple le domaine de l’astrophysique où les moyens d’observations, quels qu’ils soient, sont définis par des cahiers des charges très précis, ceux-ci témoignant d’un investissement intellectuel significatif préalable de ce que l’on cherche à voir avant de mettre en œuvre ces moyens d’observations. On comprend ainsi la remarquable vitesse avec laquelle des découvertes nouvelles et des précisions nouvelles sont annoncées dans ce domaine.

A propos du développement de la physique des particules élémentaires, G. Gabrielse met le doigt sur le fait que l’essor du développement de cette physique est dû aussi à des critères exogènes à celles-ci. Il a raison de pointer cette dynamique exogène qui a prévalue et dont les inconvénients se font ressentir encore actuellement. Après avoir rappelé qu’en 1956, Mme Chien-Shiung Wu avait découvert une propriété[1] physique inattendue et remarquable grâce à un dispositif expérimental à l’échelle du laboratoire dont il préconise le retour, il nous rappelle : « Mais la physique se développait déjà vers la création d’instruments de plus en plus gros et de plus en plus coûteux. Soutenu par un flux de crédits et de prestiges (sic) de l’après-seconde guerre mondiale et par les prédictions de nouvelles particules qui émergeraient des collisions à haute énergie, les physiciens demandaient des accélérateurs de particules toujours plus puissants et plus onéreux. Et ils les obtinrent : les équipements jaillissent à Stanford, au Fermilab, près de Batavia (Illinois), au CERN près de Genève, et ailleurs. Quarks, muons, neutrinos et, finalement le boson de Higgs était découvert. Le Modèle Standard était complet. » Quelques lignes plus loin il s’exclame : « J’aime dire que le Modèle Standard est un grand triomphe et une grande frustration de la physique moderne. D’une part, il permet aux physiciens de prédire et de calculer quelques quantités (avec une précision ridicule (sic)), d'autre part, nous avons un trou (de connaissances) dans lequel nous pouvons installer l'Univers. » Il est vrai qu’il peut exploiter cette image du trou dans lequel pourrait sombrer l’Univers puisque nous ignorons 95% de ce qui le constitue.

Paradoxalement, Gabrielse concentre toute son attention sur l’électron, l’objet quantique le plus exploré et a priori le mieux connu parce que le plus commun du modèle standard. Gabrielse considère que l’élection décèle une très, très, faible dissymétrie spatiale et en conséquence il serait doté d’un moment dipolaire électrique très, très, faible, qui n’a jamais été détecté ni évalué, jusqu’à présent. Cette piste risque de conduire à une impasse car plus nous gagnons en précision moins il est possible d’attribuer une dimension à l’électron. Il y a une dizaine d’année on lui attribuait (au doigt mouillé) encore une dimension de l’ordre de 10-18m (la dimension du proton est de 10-15m), maintenant on ne peut le considérer que comme sans dimension, c’est-à-dire ponctuel (sic). En tous les cas, il est plus petit que ce que permet nos capacités de mesure et c’est ce que nous devons retenir. Notons que 10-18m est la plus petite variation de distance qu’il est possible d’enregistrer en ce qui concerne les miroirs des interféromètres des ondes gravitationnelles Ligo et Virgo.

Pour d’autres raisons, étonnamment, l’électron pourrait encore être à l’origine d’une révision du Modèle Standard à condition que l’on prenne en compte ses particules jumelles que sont le muon et le tau. Ces trois particules sont de la famille des leptons et ce qui les différencie c’est leur masse respective. L’autre famille étant celle des quarks. D’après les règles établies du Modèle Standard ces trois particules leptoniques devraient se comporter comme un triplet de particules identiques. Or trois expériences indépendantes ont mis en évidence des indices que ces particules se comportent différemment en raison d’une influence qui reste encore inconnue.

Le premier constat d’une disparité éventuelle et significative entre ces trois leptons date de 2012 à propos de l’expérience BaBar du Centre de l'accélérateur linéaire de Standford (SLAC) en Californie. Ensuite deux autres expériences nommées LHCb au Cern et Belle au Japon ont en 2015 relevé des disparités similaires qui ont été à nouveau confirmées au LHCb en 2017. Etant donné les conditions très distinctes de l’apparition de ces disparités on ne peut pas a priori évoquer des erreurs expérimentales. Si une disparité était confirmée, il y aurait violation de l’universalité leptonique et donc le Modèle Standard devrait être reconsidéré et cela ouvrirait la porte pour cogiter une nouvelle physique. Toutefois, il ne faut pas s’emballer car bien que ces résultats soient de plus en plus consistants, ils ne sont pas irréfutables car ils pourraient encore être dus tout simplement aux effets de fluctuations, du hasard, donc statistiques. Il faut donc accroitre le nombre d’expériences et le nombre d’événements pour réduire la marge d’incertitude et ainsi pouvoir proclamer la découverte éventuelle d’une propriété nouvelle, d’une force nouvelle, etc… Patience dans 5 ans on en saura plus.

Certains physiciens sont sceptiques car même si ces déviations sont confirmées le nouveau modèle qui s’ensuivrait n’offrirait aucune nouvelle hypothèse transcendante : « À première vue, le type de modèle qui peut reproduire les anomalies n’explique... rien d’autre », précise Zoltan Ligeti. « Par exemple, il ne nous aidera pas à comprendre ce que peut être la matière noire. »

L’idée élémentaire de départ à la conception du LHC, a été que les physiciens devaient disposer d’un accélérateur qui produise des collisions aux énergies les plus élevées et en nombre par unité de temps le plus élevait. Et puis la puissance de stockage des données et de calcul informatique permettront de sélectionner le bon grain de l’ivraie parmi la foultitude de traces qui surgiront dans les détecteurs à une fréquence prodigieuse et là où il y a quelque chose d’inédit à voir les physiciens immanquablement le verront. Je ne caricature pas car c’est bien ce que nous a dit, début 2016, F. Gianetti et que j’ai critiqué.  A part le Boson de Higgs (et on peut dire qu’à ce propos la pensée des physiciens étaient placée depuis très longtemps), le LHC n’a rien montré par lui-même et cela devrait être considéré comme matière à réflexion collective.

S’il n’y a pas de point de vue théorique préalable, s’il n’y a pas d’investissement intellectuel préalable, s’il n’y a pas un regard intellectuel qui scrute intentionnellement, on ne peut être qu’aveugle. La légende dit que c’est quand Newton, se reposant sous un pommier, a reçu une pomme sur le crâne qu’il a découvert la loi de la gravitation mais la légende n’a jamais caché que son cerveau avait déjà largement cogité la chose. La légende dit aussi que lorsqu’Einstein a pris l’ascenseur il a été convaincu du bien fondé de son hypothèse basique (propriété d’invariance) qui allait le conduire jusqu’à l’invention de la loi de la Relativité Générale.

Il se pourrait qu’il y ait une cause réelle, concrète, de notre aveuglement intellectuel, et c’est une hypothèse que je n’exclus pas à cause de l’hypothèse que je privilégie avec TpS. Cette hypothèse est totalement corrélée avec le fait actuel (entre autres) que nous sommes incapables d’attribuer une dimension spatiale à l’électron. Car à TpS correspond un ∆l = C × TpS : aveugle, C étant la vitesse de la lumière.

Peut-être que l’article du 12/01/2018, dans Phys.org : « Vitesse quantique limite peut freiner l’ordinateur quantique. » ; « Quantum speed limit may put brakes on quantum computers », offre des arguments qui confirmeraient ceux que j’ai déjà développés dans de nombreux articles et in fine valideraient mon hypothèse, je cite quelques extraits de ce nouvel article de Sebastian Deffner : «… mais ma recherche récente a révélé que les ordinateurs quantiques auront des limites (de vitesse de calcul) qui leur seraient propre – et a indiqué la voie par laquelle on peut préciser ce qu’elles seraient… » ;  

Les limites de la compréhension.

« Pour les physiciens, nous, humains, vivons dans ce que nous appelons le monde « classique » et dans ce contexte nous avons progressivement compris intuitivement la physique. Avec les lois de la physique classique il y a des limites théoriques qui s’imposent. Mais elles sont tellement élevées : par exemple nous savons qu’un objet ne peut jamais dépasser la vitesse de la lumière. Les gens ne rencontrent jamais les limites physiques du monde, mais elles existent. Jusqu'à récemment, cependant, les savants avaient seulement une idée assez vague que la physique quantique avait des limites aussi, mais ne savaient pas réellement comprendre comment cela pourrait s'appliquer dans le monde réel. »

« L’incertitude de Heisenberg »

« Il est important de réaliser que cette « incertitude quantique » n’est pas un défaut de l’équipement de mesure ni de l’ingénierie, mais témoigne plutôt de la façon dont notre cerveau fonctionne (sic). Nous avons évolué par l’intermédiaire d’une confrontation courante avec le "Monde Classique " et nous comprenons comment il fonctionne alors que les mécanismes physiques réels du "Monde Quantique" sont tout simplement au-delà de notre capacité à les saisir pleinement »

Si les physiciens acceptaient l’idée qu’au CERN, l’impossibilité depuis plusieurs années de détecter des événements nouveaux, significatifs, devrait être considérée comme un fait expérimental significatif, alors les arguments exposés dans cet article de S. Deffner seraient d’une très grande utilité.

 

[1] Découverte que l’interaction nucléaire faible distinguée la droite de la gauche, c’est-à-dire qu’il y avait là une preuve d’une brisure de symétrie spatiale.

Partager cet article

Repost0
5 janvier 2018 5 05 /01 /janvier /2018 10:25

Turing or not Turing

Avant tout je souhaite une excellente année 2018 à mes lecteurs.

Je vous cite ci-dessous un extrait d’un article de ‘La Recherche’, (Octobre 2017) dans lequel S. Dehaene livre un entretien :

« La pensée géométrique est assez ancienne. Il est très intrigant de voir que, il y a 1.6 à 1.8 millions d'années les hommes, façonnaient déjà des objets aux propriétés mathématiques élaborées, notamment des pierres en forme de sphère, comme s'ils possédaient la notion d'équidistance à un point. On connaît également des dizaines de milliers de bifaces, ces outils pourvus de deux plans de symétrie orthogonaux : ils ont le même degré d'ancienneté, et leur perfection géométrique démontre une recherche délibérée de la géométrie, au-delà de la simple utilité fonctionnelle. Dès lors, je me demande si la capacité de représentation symbolique et récursive n’est pas apparue, dans un premier temps, indépendamment du langage, avant tout comme un système de représentation rationnelle du monde.

Le cerveau d'Homo erectus avait peut-être déjà atteint la compétence d'une machine de Turing universelle (sic), capable de représenter toutes les structures logiques ou mathématiques possibles. Peut-être est-ce une illusion, mais pour l'instant, notre espèce a réussi à comprendre l'organisation des structures du monde à toutes les échelles de l'Univers. Dans un deuxième temps, il y a environ 100.000 ans, on observe une explosion culturelle qui suggère un langage, une communication... On peut donc se demander s'il n’y a pas d'abord la mise en place d'un système de représentations mentales enchâssées, puis l'apparition d'une capacité à communiquer ces représentations. »

Depuis que j’ai lu ce document, je suis intrigué par ces propos avancés par l’auteur. Je suis interpelé parce que Dehaene laisserait entendre qu’Homo erectus est doté d’un cerveau qui avait peut-être déjà atteint la compétence d’une machine de Turing universelle… En conséquence dans une bonne mesure la compétence actuelle de notre cerveau est préétablie dès cette époque. Son hypothèse fait penser à une conception platonicienne inversée : ce ne seraient pas les pages de l’Univers qui seraient pré écrites et que le cerveau humain devrait apprendre à décrypter mais ce serait le cerveau de l’homme qui serait pré imprégné d’une compétence spécifique type machine de Turing universelle permettant d’accéder à une compréhension de l’Univers. Ainsi une capacité de perception du monde physique serait déterminée avec l’émergence d’Homo erectus. Notre compréhension actuelle et à venir serait inhérente au cerveau d’Homo erectus. Cela met à mal l’historicité de l’évolution car il est inenvisageable de séparer l’histoire de l’évolution du cerveau des Homos, jusqu’à nous, de l’histoire de ses évolutions physiques intégrales qui sont aussi la conséquence de sa volonté de survie face à l’hostilité de la Nature qu’il ne peut que progressivement comprendre pour progressivement s’adapter et la maîtriser (cf. Descartes)

Pour étayer mon scepticisme je me réfère à E. Mach (1838-1916), bien qu’il ne soit pas habituellement ma source d’inspiration, mais sur le point énoncé je suis totalement en phase : « La tâche des théories physiques consiste à organiser notre expérience conformément au postulat de l’économie de la pensée. Une loi physique est un condensé d’expériences permettant de faire l’économie d’innombrables expériences, une théorie scientifique est une construction ((sic) coordonnant nos sensations en vue de la prédiction d’expériences futures. » Mach, lecteur de Darwin, tient les concepts et les théories scientifiques pour des instruments de la survie de l’espèce.

La théorie de l’évolution met en jeu un processus d’évolution grâce à l’apprentissage, à l’observation, à la scrutation de l’environnement et le résultat s’appelle l’adaptation pour acquérir de l’indépendance vis-à-vis des contraintes environnementales. C’est-à-dire que le cerveau engrange des données mais aussi et surtout développe une capacité progressive à inférer. Capacité acquise à un certain stade de l’évolution du cerveau constituant un tremplin pour projeter une nouvelle phase d’évolution. L’évolution de ces capacités est marquée par l’évolution du volume de ce cerveau et par l’enrichissement des connexions neuronales. Cela correspond à ce que l’on appelle l’encéphalisation : il y a de la matière cérébrale produite pour une taille corporelle qui reste à peu près équivalente. Le volume du cerveau des Homo erectus les plus jeunes a doublé (1200 cm3) au regard des plus anciens, cela correspond à une durée d’un million d’années.

Ainsi concevoir qu’il puisse y avoir une correspondance complète voire partielle entre la compétence d’une ‘machine de Turing universelle’ et le cerveau humain ne peut valoir à mon sens qu’à un stade de développement cérébral correspondant à celui d’Homo Sapiens et encore c’est à voir. Si on tient compte du découvreur (Jean-Jacques Hublin) de l’Homo sapiens le plus ancien (300 000 ans, au Maroc), il nous dit qu’entre notre cerveau d’Homo sapiens « moderne » et celui dont le crâne a été découvert il n’y a pas beaucoup de différences si ce n’est ce qui affecte le câblage du cerveau. C’est peut-être à ce niveau que se joue une différence qualitative significative. 

Rappelons-nous de ce qu’est une machine de Turing universelle : universelle, parce que c’est une machine de Turing qui peut simuler n’importe qu’elle machine de Turing sur n’importe qu’elle entrée (sic). Une machine universelle prend en entrée la description de la machine à simuler et l'entrée de cette dernière (re-sic), (voir wikipédia). La référence à la machine de Turing universelle est obligatoire pour qu’il y ait une relation avec la récursivité.

Dans le ‘Dictionnaire d’histoire et philosophie des sciences’, on peut lire ce qu’implique tout ce qui concerne l’invention de A. Turing (1912-1954) : « Sa conception de machine[1] qui en tant que dispositif mimant les manipulations symboliques qu’opère un humain qui réalise un calcul, prétend modéliser la notion intuitive de calculabilité. » ; « La notion de machine universelle de Turing laissait entrevoir la possibilité de construire un dispositif capable de calculer tout ce qui est calculable, ou disons-le dans les termes de la thèse de Turing, tout ce qu’un calculateur humain peut faire. Les bases formelles étaient posées pour la quête du « cerveau artificiel ». Enfin, en héritage je cite cette problématique durable qu’il nous a confiée : « Le deuxième grand legs de Turing, lié aux présupposés matérialistes de la thèse de Turing, et plus généralement à la tradition (sic) identifiant calcul et pensée, est aujourd’hui perpétué par ceux qui, au sein de la recherche en Intelligence artificielle, considérant les thèses avancées par Turing en 1950 comme leur programme. Leurs réponses, aujourd’hui encore, sont pour le moins insuffisantes. Si calculer est une manière de penser, la pensée en est-elle calculable ? »

A ce stade de l’article, je dois indiquer qu’en exprimant un désaccord avec la thèse de Dehaene, je véhicule peut-être une contradiction car en faisant l’hypothèse que l’espace-temps est un propre de l’homme et en proposant un scénario d’émergence de ce propre (voir article du 05/08/2017) je dois assumer l’idée qu’en conséquence, concomitamment, Homo erectus commence à entreprendre la cogitation, le calcul, de la trajectoire de son déplacement sur la planète Terre. Est-ce que la reconnaissance de cette entreprise peut conduire à rallier le point de vue de S. Dehaene ? Non, je ne le crois pas, même en termes de potentialité, la compétence d’une machine de Turing universelle ne peut pas être un attribut d’Homo erectus. (C’est un sujet à suivre, de toute façon je considère que ce débat est très, très, important et remercions S. Dehaene d’en être l’initiateur.)

 

[1] Alan Turing a imaginé une telle machine en 1936. Cette machine est considérée par certains comme l'origine de l'ordinateur à programme enregistré conçu par John von Neumann (1946) qui porte maintenant son nom : l'architecture de von Neumann.

 

Partager cet article

Repost0
5 décembre 2017 2 05 /12 /décembre /2017 09:15

Matières à réflexion.

Les grands courants philosophiques occidentaux, qui ont précédé le XXIe siècle commençant, peuvent être caractérisés, entre autres, par Martin Heidegger qui situe la question de l’Être au cœur de sa réflexion, par Max Scheler qui privilégie la question de l’Homme dans le monde, la question de l’existence qui fut le sujet central de Karl Jaspers, la question de la connaissance pour les néokantiens, et encore la question du phénomène pour Edmund Husserl…

Aujourd’hui, il y aurait suffisamment de connaissances fiables et réunies pour rendre compte du phénomène de l’émergence de l’être humain dans le monde avec ses facultés et ses compétences, avec, par contre, une contribution du champ de la pensée hautement philosophique pour étayer ce processus de plus en plus réduite.

Ainsi, il vient d’être publié le livre (Seuil) : ‘Aux origines de la société humaine’ de Bernard Chapais, professeur d’anthropologie à l’université de Montréal. Chapais a entrepris un programme de recherche interdisciplinaire sur l’évolution de la socialité humaine, alliant biologie, psychologie et anthropologie socioculturelle. Selon lui, nous partageons certains comportements sociaux avec les sociétés primates. Mais nous possédons aussi quelques traits spécifiques : système de reproduction fondé sur la monogamie, parenté dans les rapports sociaux et force des liens entre groupes. Ces phénomènes ont des fondements biologiques et définissent la structure profonde des sociétés humaines[1]. La structure profonde de la société humaine se révèle être un amalgame original de traits ayant différentes origines, le fait qu’elle soit décomposable en éléments qui ont une histoire évolutive et des bases biologiques indique qu’elle est inscrite dans la nature humaine (être de la nature) – et non une création culturelle (symptôme de l’être dans la nature). Son avènement coïncide avec la véritable naissance de la société humaine.

B. Chapuis affirme un point de vue qui me met en éveil : « Il ne s’agit pas de substituer des explications biologiques aux explications culturelles mais s’assurer que les deux ensembles sont compatibles et concordants, et de chercher à corriger et enrichir les théories en conséquence. La congruence interdisciplinaire est un principe fondamental de la méthode scientifique. »

Après l’étude de l’émergence de la société humaine, faisons un zoom en nous référant au livre qui a pour titre : ‘Le Règne du langage’ (éditeur, R. Laffont ; auteur T. Wolfe), pour rendre compte de l’émergence de l’Homme. Quelle est « la particularité des particularités » humaines ? selon l’auteur, il s’agit du langage. Le livre tente de rendre compte des tentatives successives pour expliquer les origines de cette caractéristique fondamentale de l’espèce humaine.

Plus concrètement, à partir du 8/01/2018, Stanislas Dehaene nous promet un cours hebdomadaire au Collège de France : « Origines du langage et singularité de l’espèce humaine » et c’est avec l’appui des neurosciences que Dehaene va nous expliquer par quel processus évolutif de notre cerveau l’acquisition du langage a été engendrée.  

Voyons déjà ce qu’il annonce en préambule dans un article dans la Recherche de Octobre 2017 : « Notre objectif est de décrypter le code neural du langage » ; avec son équipe, il étudie les mécanismes cérébraux à l’origine de nos capacités cognitives de haut niveau, comme les mathématiques et le langage. Ces capacités sont sous-tendues par une aptitude propre au cerveau humain : celle d’assembler des symboles pour former des représentations mentales d’ordre supérieur. Cette compétence combinatoire, sélectionnée au fil de l’évolution, ferait de l’homme une espèce si singulière.

Il se demande : « …si la capacité de représentation symbolique et récursive n’est pas apparue, dans un premier temps, indépendamment du langage, avant tout comme un système de représentation rationnelle du monde. Le cerveau d’Homo erectus (environ 2000 000 d’années) avait peut-être déjà atteint la compétence d’une machine de Turing universelle, capable de représenter toutes les structures logiques ou mathématiques possibles. Peut-être est-ce une illusion, mais pour l’instant notre espèce a réussi à comprendre l’organisation des structures du monde à toutes les échelles de l’Univers (sic). Dans un deuxième temps, il y a environ 100 000 ans, on observe une explosion culturelle qui suggère un langage, une communication… On peut donc se demander s’il n’y a pas d’abord la mise en place d’un système de représentations mentales enchâssées, puis l’apparition d’une capacité à communiquer ces représentations. » et il ajoute : « …que c’est difficile à trancher sur le plan historique parce que, ni les langues, ni la musique, ni les mathématiques ne se fossilisent ! Cependant, notre génome et notre cerveau portent les traces de notre évolution. Je suis persuadé que, dans la prochaine décennie, les neurosciences combinées à une approche génétique apporteront des réponses solides à la question de l’origine des langages du cerveau. »

Des hypothèses formulées par S. Dehaene, certaines méritent d’être interrogées, notamment celle qui fait référence à : « un système (complet) de représentation rationnelle du monde. » que le cerveau d’Homo erectus aurait déjà intégré. Est-ce inhérent au cerveau de cet Homo, c’est-à-dire ce serait une caractéristique propre du cerveau de cet Homo, ou est-ce le fruit d’un apprentissage, qui s’engagerait spécifiquement avec cet Homo, en rapport avec la confrontation au rude monde dans lequel Homo erectus cherche à concevoir sa place ?

La thèse de l’apprentissage est celle que je retiens avec l’idée que le cerveau des Homos qui se sont succédés jusqu’à l’homme moderne a évolué et qu’il fut un facteur de sélection. Globalement l’évolution de notre cerveau est continue et c’est, entre autres, grâce à l’intégration-compréhension des lois physiques de ce monde auquel fait référence Dehaene que cette continuité est garantie. Enfin, je constate avec intérêt que Dehaene prévoit à l’avance : « qu’il faudra les neurosciences combinées à une approche génétique pour apporte des réponses solides à la question de l’origine des langages du cerveau. »

En ce qui concerne l’émergence du langage, il y a eu de très bonnes publications qui indiquent que cette émergence est corrélée avec la pratique et l’aptitude progressives de la taille des silex dès le Paléolithique, à partir d’Homo erectus ou Homo ergaster.

Dans la suite de cet article nous continuons de réfléchir à l’essor de l’intelligence et du langage humains et de l’exceptionnel degré de la socialisation des individus avec Antonio Damasio (professeur de neurosciences, neurologie et psychologie, il dirige l’institut du cerveau et de la créativité de l’université de Caroline du Sud), à l’occasion de la publication de son livre : ‘L’ordre étrange des choses, la vie, les sentiments et la fabrique de la culture’ (édit. O. Jacob).

Antonio Damasio nous propose de faire une plongée dans les profondeurs du temps biologique pour penser aux origines de cet essor. Je cite : « En observant les bactéries (formes de vie apparues il y a, à peu près, 3.5 milliards d’années) ça a été une révélation pour moi, de constater qu’il y a chez elles une complexité des comportements, une émotivité, des stratégies (sic). Certaines travaillent très dur, mais il y a des bactéries traitresses, il y en a qui rusent pour ne rien faire et profiter de ce que font les autres… C’est très beau, très étrange, parce qu’il n’y a aucune possibilité qu’il y ait une pensée chez elles. Chez les bactéries, il y a des comportements qui s’apparentent à nos comportements culturels (sic). »  

Evidemment, il est lucide, il sait qu’un ‘fossé’ sépare cette culture-là de la nôtre. Mais selon lui, « il y a entre les deux une continuité du désir – plus déclaré chez l’homme que dans les bactéries – de durer, d’avancer, poussé par une force originaire qui s’observe sous les microscopes autant que dans les sociétés humaines ». Personnellement je n’ai jamais pensé que l’être de la nature que je conçois en rapport avec l’être dans la nature pour rendre compte de la dynamique de conquête sans fin des lois physique de la nature, puisse avoir une explication originaire aussi profonde dans le temps. Sans être en mesure de partager, encore moins d’adhérer, à la thèse de A. Damasio, il est à coup sûr enrichissant de comprendre son cheminement intellectuel. Alors analysons ce qu’il propose : « Cette conception d’une culture purement intellectuelle me semble toutefois quelque fois limitée. Comme si l’intelligence créatrice s’était matérialisée sans élément déclencheur(sic) et avait simplement suivi le mouvement sans motivation sous-jacente, en dehors de la raison pure (la survie n’est pas un facteur de motivation recevable, dans la mesure où cet argument élimine les raisons expliquant pourquoi la survie est un sujet de préoccupation). Comme si la créativité ne faisait pas corps avec cet édifice complexe qu’est l’affect (sic). Comme si enfin la cognition avait pu à elle seule assurer la poursuite et la gestion du processus d’invention culturelle – sans que la perception de la valeur des événements vécus, bons ou mauvais, ait voix au chapitre. »

Or, contrairement à ce qu’affirme Damasio, les paléoanthropologues considèrent que la volonté de survie au sein de la nature hostile fut un facteur de la sélection de nos très lointains ancêtres, jusqu’à l’avènement d’Homo sapiens, et notamment les rudes changements climatiques sur la planète Terre contribuèrent à accélérer les phases de sélection. Il a fallu développer de l’intelligence pour concevoir des stratégies de survie dans ces nouvelles situations, décrypter qu’elles étaient ces propriétés de la nature qui mettaient en cause l’existence propre d’Homos. Cette thèse des paléoanthropologues me convient pour penser l’avènement et l’essor de la connaissance de la physique. Ainsi, les premiers pas d’une pensée consciente de l’espace et du temps, c’est-à-dire les premiers pas d’un processus de capture intellectuelle de l’espace-temps, se sont imposés à Homo ergaster (ou un autre, car on ne sait pas encore dater correctement) en vue de ‘calculer’ la durée du chemin à parcourir pour aller à la mine de silex et revenir se réfugier avant la nuit tombante dans la caverne habitée, pour ne pas être une proie exposée à ses prédateurs.

Je considère qu’il y a de quoi faire son miel avec l’ouvrage de A. Damasio, et il est utile d’être ouvert à son travail prospectif car il y a de sa part une part importante d’observations du comportement spontané des bactéries qui l’amène à exprimer une idée qui devrait mettre dans un état d’alerte positive les physiciens, je cite[2] : « Dans leur volonté non réfléchie de survivre, elles cherchent la compagnie d’alliées partageant leur but. Leurs réactions collectives face aux attaques de tous types suivent la même logique non réfléchie : le groupe cherche automatiquement à dominer par le nombre en adoptant l’équivalent du principe de moindre action (sic). Les bactéries respectent les impératifs homéostatiques[3] à la lettre. » Or le principe de moindre action a été intellectuellement capturé en 1744, par P.l. Moreau de Maupertuis en ces termes : « L'Action est proportionnelle au produit de la masse par la vitesse et par l'espace. Maintenant, voici ce principe, si sage, si digne de l'Être suprême : lorsqu'il arrive quelque changement dans la Nature, la quantité d'Action employée pour ce changement est toujours la plus petite qu'il soit possible. » Il est le principe fondamental exploité par les physiciens depuis l’époque de sa formulation et il n’y aurait pas de physique quantique des champs ni de théorie des cordes sans l’utilisation de ce principe. Alors ?

Bon ! il y a de quoi être perplexe. In fine c’est une affaire de conviction et Damasio est guidé par une profonde conviction comme il le dit : « Les sentiments, en leur qualité d’adjoints de l’homéostasie, sont les catalyseurs des réactions qui ont permis l’émergence des cultures humaines. Est-ce là une formulation recevable ? Peut-on raisonnablement postuler que les sentiments ont motivé les inventions intellectuelles qui nous ont apporté : 1) les arts ; 2) la réflexion philosophique ; 3) les croyances religieuses ; 4) les règles morales ; 5) la justice ; 6) les systèmes de gouvernance politique et les institutions économiques ; 7) la technologie ; et 8) la science ? J’estime, avec la plus profonde conviction, que tel est le cas. »

Dans une bonne mesure tous les auteurs et ouvrages récents que j’ai évoqués dans le présent article sont partie prenante du fond théorique sur lequel je déploie mes hypothèses que je présente au fur et à mesure depuis 5 ans sur le blog et dans mon cours depuis 10 ans : « Faire de la physique en ‘Présence’ », il y a donc de ma part une invitation à les lire et… relire : Kant, Heidegger, Jaspers, Scheler, Husserl, etc.

 

[1] ‘La recherche’ décembre 2016

[2] Page 85, de ‘La Recherche’ décembre 2017.

[3] Homéostasie est un concept clé du parcours théorique de Damasio ainsi : « L’homéostasie est le fondement de la vie biologique et socioculturelle humaine. »

Partager cet article

Repost0
27 novembre 2017 1 27 /11 /novembre /2017 16:50

                        La réalité ? C’est vous qui la faites II.

Dans la continuité de l’article précédent je reprends la traduction de l’article de Ph. Ball (page 32), au niveau où il met en exergue une théorie radicale actuellement proposée par Markus Müller (Théoricien à l’Institut d’optique quantique et d’information quantique à Vienne). En effet M. Müller indique que la conception proposée par les QBists n’est pas suffisamment radicale[1], il explique pourquoi et je cite : « Le QBism assume qu’il y a un monde extérieur qui est le support des résultats de nos expériences. » et Müller commence par le postulat suivant : « Il n’y a pas de ce monde des QBists. Cela veut dire que l’on doit imaginer qu’il n’y a pas de lois fondamentales de la nature (sic) – pas de Relativité Générale, pas d’équations de Maxwell ni de Principe d’Incertitude d’Heisenberg. Le fait de rejeter la physique avec ses lois conduit Müller à concevoir un monde hypothétique sur la base d’une logique mathématique restante (sic). »

A ce stade, je propose de commenter car à mon sens c’est une erreur d’affirmer qu’il n’y a pas tout autant qu’il y a : dans le monde extérieur, car nous ne pouvons être que totalement ignorant de ce fait et le rester à demeure. Par contre on ne peut pas dire qu’il n’y a pas ces lois citées par Müller, c’est un postulat complètement artificiel qui ne peut engendrer que des conceptions artificielles. A l’évidence les lois citées ci-dessus sont là, elles ont été intellectuellement conçues et sont positivement vérifiables, reste à interpréter correctement ce qu’elles nous révèlent car elles ont un sens qui n’est pas banal. Selon mon hypothèse on ne peut pas affirmer qu’elles sont dans la nature, ni qu’elles ne sont pas dans la nature, mais elles sont révélatrices de l’interaction, de la dépendance, de l’être humain à l’égard de la nature. Elles sont révélatrices que l’être humain doit continuer de réduire sa dépendance (son ignorance) à l’égard de la nature et donc ne pas cesser de la décrypter pour que l’être dans la nature prospère en réduisant la part de l’être de la nature (voir article du 18/03/2015 : Décrypter la physique comme science de l’interface de l’être humain et de la Nature !). La valeur croissante des lois émergentes de la physique au cours du temps révèle l’histoire du développement intellectuel de l’humanité, ex : de la loi de Newton à la loi d’Einstein, les lois de Maxwell à l’électrodynamique quantique. C’est sur la base du constat de cette dynamique que l’on doit enchaîner la recherche de nouveaux paradigmes qui permettront de lever les obstacles que nous rencontrons pour prospecter (creuser) plus loin de nouvelles lois de physique.  

Puisque Müller postule qu’une logique mathématique reste fondamentalement à l’œuvre lorsqu’on efface toute existence de lois physiques, voyons comment il exploite cette hypothèse radicale. Il considère qu’il faut privilégier la théorie de l’information algorithmique qui est un sous ensemble de la théorie de l’information et de la science informatique. Selon Gregory Chaitin : “C’est ce qui résulte quand on met la théorie de l’information de Shannon et la théorie de Turing de l’informatique dans un même shaker à cocktail et que l’on secoue vigoureusement. » (Voir wikipédia anglais).

Nous n’avons pas besoin d’être spécialiste de cette théorie de l’information algorithmique pour comprendre ce à quoi Müller aboutit, car il nous propose l’interprétation suivante de son résultat : « Ainsi l’observateur déduit un ‘modèle’ simple de la réalité, caractérisé par des lois régulières et compréhensibles (sic) qui sans problème connecte une expérience à la suivante. Cela semble profondément étrange : comment le hasard fait émerger une conduite apparemment structurée par des lois ? C’est un peu la façon dont nous comprenons l’état gazeux. Bien que toutes les configurations des molécules soient possibles, la probabilité de la distribution des vitesses des molécules que nous observons est gaussienne et les molécules sont aussi observées uniformément distribuées dans l’espace. De ceci nous parvenons à aisément mesurer dans le cadre de lois simples : pression, température et volume. Ces lois ne sont pas écrites dans les molécules de gaz elles-mêmes, elles sont des propriétés émergentes des probabilités des différentes configurations. »

Le résultat de Müller nous l’avons déjà anticipé, voir article du 1/10/2014 : « Au sein d’une éternité parmi tous les possibles… », je conseille de relire cet article car mon argumentation s’appuie aussi sur les résultats des travaux de S. Dehaene qui offrent une compréhension scientifique de notre fonctionnement cérébrale, en utilisant aussi le pouvoir prédictif des statistiques Bayésiennes comme le postule aussi M. Müller dans sa théorie. J’insiste sur l’existence d’une différence notable car Müller, en tant que disciple de Platon-Galilée, postule que les statistiques bayésiennes sont une réalité de la nature, alors que Dehaene observe que ces statistiques permettent de rendre compte de résultats propres à l’intelligence humaine. C’est évidemment ces résultats, promus par Dehaene, qui corroborent l’hypothèse : ‘Décrypter la physique comme science de l’interface de l’être humain et de la Nature’ et qui autorisent à interpréter le développement des connaissances en physique ainsi que leur essence avec cette dynamique de conquête que je rappelle souvent : « Au sein d’une éternité parmi tous les possibles, l’anthrôpos ne cesse de creuser sa connaissance de l’univers… » On notera que l’interprétation donnée par Müller n’est pas lointaine de celle que je propose quand il indique que parmi toutes vitesses et positions possibles des molécules d’un gaz on en observe qu’une des valeurs centrales. Mais chez lui il n’y a pas de dynamique de creusement et il n’y a pas de perspective.

Quand même, globalement, avec des choix de référentiels très différents nous obtenons des résultats qui se rejoignent dixit en page 32 en conclusion : « Cette image d’un univers construit directement par les expériences de l’observateur est si ‘en dehors des clous’ que les autres chercheurs savent à peine ce qu’ils peuvent en faire… Müller lui-même est parfaitement conscient qu’il n’a pas choisi un chemin facile, mais il considère que cela en vaut la peine et premièrement ce n’est pas aussi absurde que cela paraît. Mais ce sera un important challenge de convaincre les gens, étant donné que la vue du monde qui est suggérée est si inhabituelle et différente de ce que nous avons la coutume de penser. »

En synthèse : Müller nous dit : définitivement il n’y a pas de réalité physique réelle, c’est l’observateur qui en conçoit une. Selon moi : c’est la ‘Présence’ d’un ‘sujet pensant’ qui contribue progressivement à concevoir du sens à des lois physiques sans pouvoir pour autant affirmer qu’elles sont là dans la nature.

 

[1] Sur ce sujet du QBism, voir article du 11/01/2014, ‘l’étrangeté quantique une illusion ?’ article dans lequel j’ai exprimé mon désaccord sur cette théorie, mais pour des raisons différentes que celles émises par Müller.

Partager cet article

Repost0
21 novembre 2017 2 21 /11 /novembre /2017 09:02

Finalement cela sera compris et accepté.

Des récents articles m’autorisent à cet optimisme affiché. Il y a malgré tout encore du chemin à parcourir car les auteurs de ces articles n’évoquent pas quel est le paradigme et quelles sont les expériences qui permettront de valider l’hypothèse : La Réalité ? C’est vous qui la faites.

Depuis dix ans j’assure un cours qui s’intitule :  Faire de la physique en ‘Présence, ‘Présence’ : active, qui investit, décrypte, apprend, qui ne se réduit pas à de la simple conscience, je suis satisfait de lire ce qui constitue une convergence forte avec mon hypothèse fondamentale (voir entre autres dans le Blog : articles du 2/11/2012 et article du 1/01/2013).  

Lu dans le NewScientist, l’article de Philip Ball du 8/11/2017, article au titre affirmatif sur le site : Consciemment quantique : Comment vous faites toutes choses réelles.

Ou encore dans la version papier : La Réalité ? C’est vous qui la faites. Soit « Reality ? It’s what you make it »

Je traduis et cite, puis commenterai : « L'idée que nous créons la réalité semble absurde. Mais une nouvelle audacieuse compréhension de la théorie quantique suggère que les lois fondamentales de la nature émergent de nos propres expériences.

La réalité existe-t-elle sans nous ? Albert Einstein n’en avait aucun doute : assurément la lune ne disparaît pas quand nous ne la regardons pas, demande-t-il, une fois, incrédule. Il avait été provoqué par la proposition, provenant de la théorie quantique, que les choses ne deviennent réelles seulement lorsque nous les observons. Mais ce n'est pas une idée si idiote, et même Einstein gardait l'esprit ouvert. « Il est fondamental pour la physique (sic) que l'on assume un monde réel existant indépendamment de tout acte de perception », écrit-il dans une lettre en 1955. "Mais ceci nous ne le savons pas."

Cela fait des décennies que les physiciens découvrent avec exaspération qu’il est difficile d’écrire la place de l'observateur dans la théorie quantique. Maintenant, certains envisagent une époustouflante alternative : une description cohérente de la réalité, avec toutes ses bizarreries quantiques, peut tout simplement surgir d’expériences subjectives aléatoires. Cela ressemble à la « perspective d'un fou », dit l'auteur de cette audacieuse nouvelle théorie, parce qu'elle nous oblige à abandonner toute notion de lois physiques fondamentales (sic). Mais si elle s’impose, elle résoudrait non seulement quelques énigmes profondes sur la mécanique quantique, mais elle chamboulerait aussi nos idées les plus profondes sur la réalité elle-même.

Quand il s'agit de prévoir de quelle façon dont le monde se comporte, la théorie quantique est indépassable : chacune de ses prédictions, peu importe qu’elle soit contre-intuitive, est corroborée par l'expérience. Par exemple, les électrons peuvent parfois afficher un comportement caractéristique ondulatoire, bien qu’ils semblent dans d'autres circonstances se comporter comme des particules.

Onde de confusion

Avant l'observation, de tels objets quantiques sont dits être dans une superposition de toutes les observables possibles. Cela ne signifie pas qu'ils existent dans tous les états à la fois, mais ce que nous sommes plutôt autorisés à dire c’est que tous les résultats de mesure sont encore possibles. Cette potentialité est décrite par la fonction d’onde quantique une expression qui encode tous les résultats de mesure possibles y compris leurs probabilités relatives d’obtention.

Mais ce que la fonction d’onde peut nous dire à propos de la nature d’un système quantique, avant que l’on réalise la mesure, n’est pas évident. L’acte de mesure réduit toutes les observables possibles à une seule, opération appelée réduction de la fonction d’onde – mais personne ne sait réellement ce que cela veut dire. Des chercheurs pensent que cela pourrait correspondre à un processus réel comme la désintégration radioactive. Ceux qui souscrivent à l’interprétation des mondes multiple (thèse de H. Everett) pensent que c’est une illusion provoquée par une scission de l’univers en autant d’observables possibles. D’autres disent qu’il n’y a pas de possibilité d’expliquer les choses – et qui s’en préoccupe ? Les maths sont efficaces, donc taisez-vous et calculez.

Qu’elle que soit l’interprétation, la réduction de la fonction d’onde semble dépendre d’une intervention ou d’une observation ce qui provoque d’énormes problèmes, pas moins que celui du rôle de la conscience dans tout ce processus. C’est ce que l’on appelle le problème de la mesure ce que l’on reconnaît comme étant le plus grand mal de tête de la théorie quantique… »

L’article de Ph. Ball n’est pas facile à traduire parce qu’il y a à mon sens beaucoup trop d’idées, de réflexions, exprimées dans la gangue de la pensée traditionnelle donc classique. Ainsi l’auteur persiste à évoquer la réalité en référence à la conception réaliste si chère à A. Einstein. D’ailleurs ce n’est pas fortuit que l’auteur le cite dès ses premières lignes, comme s’il avait besoin de cette caution pour que ses arguments suivants développés acquièrent de la crédibilité. Il semblerait donc que l’année de son décès, Einstein aurait exprimé une incertitude, certes (très) faible, à propos de sa métaphysique réaliste.

Comme l’assume Einstein il est fondamental de considérer qu’il y a un monde réel d’un côté et le physicien de l’autre et la tâche du physicien est de révéler objectivement la réalité de la nature du monde. Cela revient à considérer que le physicien : l’être humain est un habitant de ce monde et il est venu habiter après coup, une fois que celui-ci fut établi. Ce qui exclut qu’il puisse être une conséquence de ce monde. Cette métaphysique réaliste a été particulièrement fertile pour l’auteur de la Relativité Générale, car il est certain que sans ce préalable métaphysique A. Einstein n’aurait pas eu la maîtrise du fil qui l’a conduit après dix années de persévérance à ce résultat.

En mécanique quantique, il n’est pas approprié de parler de réalité au sens strict du terme car dans la plupart des cas il est plus judicieux d’évoquer les objets, les propriétés, tels qu’ils nous apparaissent, et il faut accepter l’idée que cela fonde un état de connaissance complet, maximal. Toute référence à l’idée, d’objets réels, de propriétés réelles, à laquelle il faut renoncer, ne peut qu’induire de la confusion dans notre raisonnement, dans notre discours (voir article du 18/09/2017), et évidemment ce n’est pas qu’un problème de sémantique. A défaut d’atteindre une quelconque réalité (puisque nous ne pouvons pas la dire), sans pour autant affirmer qu’il n’y en a pas, nous sommes, par contre, assurés d’atteindre une vérité stable, sur les objets physiques et les propriétés physiques observés et donc une vérité stable qui est communicable entre les scientifiques.

Renoncer à la croyance : que le physicien décrit le monde réel, est bouleversant car cela met fin non seulement à une croyance assurée depuis des siècles mais cela déplace et transforme la réalité de la relation entre l’être humain et la Nature que nous pensons immuable puisque l’être humain serait immuable. Renoncer à considérer : que la Nature est saisie telle qu’elle est effectivement, plutôt que telle qu’elle nous apparaît, est pressenti comme une réduction de l’autonomie de la posture de l’être humain au sein de celle-ci et oblige le physicien à renoncer à sa croyance de maîtriser un langage universel en l’occurrence celui de mathématiques.

 Peut-être est-ce fortuit, mais je souligne quand même que ce présent article avec son titre décapant est écrit par un journaliste scientifique. De même deux semaines auparavant un article que j’ai signalé en fin de mon article du 29/10 : « Une expérience quantique dans l’espace confirme (sic) que la réalité est comme vous la faites » ; « Quantum experiment in space confirms that reality is what you make it », signé par Adrian Cho qui lui aussi m’a assuré qu’il était un journaliste scientifique et non pas un physicien. De plus son titre décapant qui précède de deux semaines celui identique de Ph. Ball, est excessif comparé à son contenu. Dans cet article A. Cho, rapporte des interviews de physiciens qui évoquent des sujets d’intérêts sans relation avec le titre. L’un indique que c’est bien de faire de la physique quantique dans l’espace, l’autre indique que mener des expériences qui mixent la mécanique quantique avec la relativité restreinte est original. Sans forcer le trait on peut constater que les physiciens répugnent à accepter des interprétations qui font les titres de ces articles.  

Supposons maintenant que ce qui est proclamé dans les titres des articles : ‘la réalité est comme nous la faisons’, ou « la réalité est ce que nous la faisons » ou encore « la réalité est telle que nous faisons » est juste et de plus cela peut se vérifier expérimentalement comme je le propose dans l’article : « Appel d’offres » du 05/08/2017 avec l’hypothèse que ‘l’espace-temps est un propre de l’homme’ constituant une porte d’entrée à la compréhension de notre perception du monde quantique et partant nous permettra de commencer à penser quantique. (voir article du 26/09/2015)

Supposons que tout ceci est valide, est-ce que cela modifie ce que l’on sait présentement en physique ? Pour l’essentiel : Non. Ce qui changera c’est l’interprétation de ce savoir des physiciens qui sera reconnu comme étant celui qui résulte des capacités cérébrales d’investissement et d’entendement de l’être humain qui sont déterminées étant donné le niveau actuel de l’évolution de l’humanité. Les lois physiques devront être considérées comme résultant de l’interface des interactions entre l’Être humain et la Nature et non pas des lois de la Nature sans Présence de l’être humain. Bref, ce sera la fin de la croyance à la métaphysique réaliste. Bref, toute pensée qui est polarisée par la quête d’une réalité de la nature qui existerait est une pensée prisonnière et au bout du compte aveugle à l’égard de la réalité constitutive de l’être humain. 

Ainsi si l’on découvre que l’espace-temps est un propre de l’homme alors avec ce nouveau paradigme on franchira un nouveau stade de l’évolution intellectuelle du genre humain puisque on aura identifié une détermination profonde. Naturellement à ce stade on deviendra capable de penser quantique, après plus d’un siècle d’apprentissage.

Le paradigme concomitant qui surgit nous conduit à conjecturer qu’il n’y a pas de monde réel qui nous soit accessible en dehors de ce que nous sommes, ce dont nous sommes capables d’investir c’est notre monde, qui n’est pas ‘Le Monde’. Il n’est pas souhaitable d’entretenir l’idée que certes ce n’est pas ‘Le Monde’ que l’on investit intellectuellement mais malgré tout on accède à une image plus ou moins réaliste de celui-ci (Souvenons-nous de la tentative infructueuse proposée par B. d’Espagnat avec sa théorie du ‘Réel Voilé’). A mon sens nous devons nous accorder la liberté la plus ample pour réduire nos préconceptions et mieux comprendre ce que nous sommes en tant que sujet pensant avec nos déterminations qui correspondent à l’état de notre évolution car contrairement à l’implicite de la métaphysique d’Einstein nous ne sommes pas des habitants du monde mais nous en sommes la conséquence qui doit concevoir et conquérir une place jamais finie au sein de celui-ci. C’est une dynamique du vivant en conscience qui est à l’œuvre.

Nous véhiculons encore des préconceptions consécutives aux déterminations qui nous habitent encore et celles-ci se révélant au fur et à mesure de l’avancée de nos connaissances futures seront objectivement abandonnées.

Le paléoanthropologue P. Picq, dans un article : ‘Le roman des intelligences’ (Pour la Science, juillet-septembre 2016 : Intelligence, notre cerveau a-t-il atteint ses limites ?), nous dit : « Nous entrons dans la troisième coévolution. La première coévolution concerne tous les organismes vivants et leurs interactions. La deuxième se met en place avec les premiers hommes (Homo erectus) avec des innovations techniques et culturelles, comme la cuisson et la taille des outils, qui modifient et sélectionnent nos organismes, des gènes aux capacités cognitives. La troisième se manifeste depuis le début du XXIe avec l’impact des NBIC (nanotechnologies, biologie naturelle et de synthèse, sciences informatiques et cognitives)

Mais contrairement aux sirènes du transhumanisme qui postulent que l’évolution est arrivée à son terme et que nos technologies doivent prendre le relais, il faut penser notre avenir en fonction des interactions de ces trois coévolutions : l’émergence, en quelque sorte, d’une nouvelle intelligence. Car, fondamentalement, c’est quoi l’intelligence ? Essentiellement des interactions… »

La lecture de P. Picq est l’occasion de rappeler à quel point les physiciens ont intérêt à décloisonner le corpus de leur connaissance et relever leur regard prospectif. Je termine à ce stade l’article mais sur le sujet traité, je publierai un prochain parce qu’il y a dans de celui de Ph. Ball encore matière à réflexion.

Partager cet article

Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens