Overblog
Suivre ce blog Administration + Créer mon blog
27 juin 2017 2 27 /06 /juin /2017 07:33

Quid du Big Bang ?

Il y a quelques jours ont été publiés quelques articles relatifs à un même sujet : « Big Bang : le modèle de Hartle-Hawking est-il faux ? », ou « No Universe without Big Bang ». Je les joins en fin du présent article.

Ces articles mettent l’accent sur la singularité que constitue le fait de vouloir attribuer une origine à l’univers tel que nous le concevons actuellement, grâce aux moyens de la relativité générale et de la mécanique quantique. Mais l’impossibilité de pouvoir fusionner ces deux corpus dans un seul et même corpus qui les sublimeraient rend pour le moment la tâche impossible. Et le fait d’être en mesure un jour de réaliser cette unification que l’on appellera : ‘Gravité Quantique’ ne garantira pas qu’on découvrira, pour autant, une théorie du Big Bang.

Rappelons le fil qui nous conduit à soutenir que l’on peut établir, pour la première fois depuis le début de l’humanité, une cosmogonie complète du XXIe siècle sur des bases correspondant à des critères scientifiques de calculabilité. Un élément essentiel de ce fil est la première image de l’univers que l’on date à 380000 ans après le Big Bang et cette image obtenue constitue notre référentiel incontournable (que l’on appelle image du rayonnement fossile, ou image du découplage matière/rayonnement, ou image de la première diffusion). La précision et la qualité obtenues de cette image nous autorisent à prédire, en partie, la physique qui a prévalue à sa formation et la physique postérieure à l’émergence de celle-ci. Le ‘en partie’ que j’introduis ici dans le texte prend depuis peu beaucoup d’ampleur. Ainsi les trois quasars primordiaux que l’on vient de découvrir et qui ont moins d’1 milliard d’années donnent du poids au terme : ‘en partie’. Dans la période de l’avant 380000 ans et remontant juste après le Big Bang les physiciens pensaient avoir, depuis 1975, compris toute la phénoménologie physique qui aurait prévalue à la formation de cette première image observée. Là encore, il faut dire : ‘les physiciens pensaient’ parce que dans le scénario le plus abouti ils ont besoin d’inventer l’existence de matière noire, que nous n’avons jamais observée (voir article du 26/06/2017, sur le site de Physicsworld. com : Dark-matter constraints tightened after LUX no-shows), et de neutrinos aux propriétés physiques que nous n’observons pas non plus. Ce dont il s’agit dans l’article concernant le modèle de Hartle-Hawking c’est de rendre compte, à la fois, grâce aux lois de la physique que nous connaissons, de la physique du Big Bang et des conditions de son surgissement (Sic). Sa validation (à défaut de ne pouvoir l’observer ou le reproduire) ne peut être retenue que si ses prédictions sont intimement compatibles avec le référentiel de la première image de l’univers.

Juste à ce niveau de la présentation, et pour prendre un recul intellectuel profitable, je rappelle ce que nous dit L. Smolin que j’ai cité dans l’article précédent : « Si on (embrasse la réalité du temps et) voit les lois mathématiques comme des outils plutôt que des miroirs mystiques de la nature » Ce rappel nous éclaire à la fois sur un questionnement épistémologique et philosophique. En effet, si d’un point de vue pragmatique, on privilégie le caractère ‘outil’ des mathématiques et si on obtient un résultat satisfaisant on pourra vanter la puissance et l’efficacité de l’outil et partant la puissance de l’intelligence de l’humanité créatrice de celui-ci. Si au contraire on croit que les mathématiques sont : « des miroirs mystiques de la nature », alors on dira que le résultat signifie que l’on aura ‘encapsuler’ la réalité vérace du début de l’univers, c’est-à-dire que l’on aura atteint la vérité de notre raison d’être dans ce monde. Pas moins !

  Je rappelle que la relativité générale décrit bien l’évolution matérielle de l’univers mais exclut la Présence, dans le cosmos, d’une intelligence qui pense ce cosmos. Il y aurait une différence dans le cadre de la mécanique quantique selon le statut que l’on attribue à l’observateur. Que ce soit de la part des physiciens qui attribuent la primauté de la puissance prédictive à la Relativité Générale ou à ceux qui l’attribuent à la mécanique quantique c’est-à-dire dans ce cas à la Théorie Quantique des Champs (TQC), il y a la conviction que notre univers en tout instant est descriptible par des lois physiques.

Je privilégie un extrait de l’article de L. Sacco (que je conseille de lire dans son intégralité) qui illustre correctement d’un point de vue chronologique la démarche suivie par J. Hartle et S. Hawking pour lever mathématiquement la singularité initiale.

« Avec son collègue James Hartle, Stephen Hawking a donc tenté de résoudre, de façon au moins approchée, l'équation de WD dans des cas simples à l'aide de l'intégrale de chemin de Feynman.

La stratégie semblait prometteuse car les équations de la relativité générale sont des analogues des équations de Yang-Mills à la base du modèle standard en physique des particules. Or, le prix Nobel Gerard 't Hooft avait fortement contribué à montrer que l'intégrale de Feynman était un outil exceptionnellement efficace et pratique pour faire des calculs de théorie quantique des champs avec les équations de Yang-Mills.

De fait, en transposant (sic) les techniques qui marchaient en physique des particules au traitement quantique de l'espace-temps en cosmologie, Hawking et Hartle ont émis une proposition en 1983 qui allait faire grand bruit. Ils ont ainsi avancé des arguments permettant de supprimer naturellement la singularité initiale, mais au prix de considérer que la nature de l'espace-temps pouvait profondément changer au voisinage de la naissance du Big Bang. Dans les équations, le temps, au lieu d'être décrit par des nombres réels, était décrit par une généralisation de ces nombres que les mathématiciens ont appelé « des nombres complexes » et qui sont à la base de la fameuse équation de Schrödinger, l'un des postulats fondamentaux de la mécanique quantique. »

On constate ici la conséquence de voir les mathématiques comme des miroirs mystiques de la nature car les travaux de Feynman (à partir de la décennie 1940) en physique des particules élémentaires deviennent ipso facto transposables pour décrire l’univers et le processus de son émergence. En fait cette réduction n’est possible que si on est adepte de la philosophie platonicienne qui clame que l’univers est comme un livre ouvert et ses pages contiennent un alphabet, celui des mathématiques (géométrie) et si on sait le décrypter on peut décrire l’univers. Le dieu fondateur de l’univers est un dieu mathématicien (géomètre). Mais son univers est indifférent à la réalité de l’homme. C’est là qu’il y a un hic, car avec la croyance que l’univers a un début, avec ce début il n’y a pas que l’émergence de la matière inerte qui soit en cause mais il y a aussi l’émergence de la vie intelligente, bien qu’elle soit datée très longtemps après. Mais voilà, nous sommes conçus de cette matière (poussières d’étoiles), rétroactivement nous devons comprendre le tropisme que de fait cela engendre.

On a beau essayer d’évacuer ce problème, il est en fait inexpugnable. Lorsqu’on décrit l’univers observable, établi, se déployant avec ce que l’on considère comme étant sa dynamique propre, la relativité générale est efficace parce que dans ces conditions l’être humain peut être mis à côté, à côté de ce qui est observé, de ce qui est observable. Ici la présence de l’être humain interfère a minima. Avec la volonté d’introduire le concept de Big Bang qui est à l’origine de tout, évidemment cette mise à côté est une approximation qui n’est plus possible, cette facilité n’est plus possible et la mise de côté est définitivement irréaliste.

Selon mon point de vue, il y a effectivement une singularité c’est celle correspondant à l’émergence d’une première intelligence sur la planète terre qui se situe d’une façon non instinctive sur celle-ci (peut-être que cela se situe il y a 2millions d’années). Cette première intelligence a fondé l’ancêtre de l’espace-temps, au moins son essence, et il n’y en a pas dans la nature qui soit donné pace que le monde n’a pas de limite, il est infini dans toutes ces dimensions. C’est l’être humain qui a des limites et la vertu de son existence c’est, sans cesse, les repousser. C’est là l’essence de la dynamique de son existence. Voir article du 26/08/2014 : « Pour un authentique Big bang » (Est-ce une coïncidence si le concept d’émergence fait florès dans les réflexions théoriques actuelles qui se veulent novatrices ?)

            De la part des physiciens, il y a une répugnance certaine à prendre en compte des savoirs qui n’obéissent pas aux contraintes d’une rationalité déductive qui puisse être classée objective. Ils considèrent que c’est un critère essentiel qui garantit le travail collectif et la capacité d’une vérification expérimentale. Toutefois étant donné les apories qui jalonnent depuis de nombreuses décennies la connaissance en physique, on lit de plus en plus des publications qui, proposant de lever ces apories, contiennent des arguments du type « nous avons la conviction ». Les problèmes à résoudre sont tellement ardus et tellement résistant à toutes les tentatives de résolution, que certains estiment que suivre le chemin de la conviction ou de l’intuition peut ouvrir la porte à des résolutions. 

            La connaissance en physique, en tant que telle, s’affirme sur des bases et des règles qui ont émergées avec la physique Galiléenne. Depuis elle a tellement fructifié qu’il n’est pas envisageable de remettre en cause l’édifice. Nous devons considérer que cette connaissance appartient à une école et cela ne peut pas être autrement. Mais il faut que l’on prenne conscience qu’elle n’est pas l’école de la connaissance universelle, elle doit se frotter à d’autres écoles de connaissances qui ont leur propre rationalité, leur propre règle d’inférence, et offre des connaissances dont il est souhaitable d’en comprendre la complémentarité. Il faut que la physique fondamentale s’associe à d’autres écoles comme celles de la paléoanthropologie et de l’imagerie cérébrale. Voir mon article précédent.

Il y a dans l’article de L. Sacco, à la fin de son article dans le paragraphe : L'effet tunnel et le temps imaginaire en cosmologie quantique une erreur importante :

 « Il se trouve que le temps imaginaire intervient d'une certaine façon dans la théorie de l'effet tunnel quantique et il est donc possible… ». Cela n’est plus vrai depuis la publication de l’article d’une équipe Australienne en juin 2015, voir mon article du 17/06/2015. L’usage du temps imaginaire était la conséquence de la croyance que cet effet était instantané, en fait c’était la conséquence que l’on ne savait pas mesurer des intervalles de temps de l’ordre de 10-18s et plus petit. Maintenant cela est possible, l’effet tunnel a une durée et le temps est devenu naturellement réel. En résumé les nombres imaginaires pointeraient les domaines de notre ignorance… provisoire.

Big Bang : le modèle de Hartle-Hawking est-il faux ? Par L. Sacco.  Site : Futura Science

« Le modèle de Hartle-Hawking est un modèle de cosmologie quantique très populaire mais il souffre de problèmes mathématiques. Trois physiciens, dont le célèbre Neil Turok, ont tenté de résoudre ces problèmes. Aujourd'hui, ils pensent avoir montré que le modèle de Hartle-Hawking conduit à des conséquences en contradiction avec les observations du rayonnement fossile. La théorie du Big Bang de Stephen Hawking pourrait donc être fausse.

Ce qu'il faut retenir

Les travaux de Stephen Hawking sur les singularités de l'espace-temps et la physique des trous noirs l'ont conduit à proposer en :

  • 1983 une théorie quantique du Big Bang avec son collègue James Hartle.
  • Le modèle sans frontière de Hartle-Hawking implique l'existence d'une géométrie quantique de l'espace-temps primitif où le temps devient espace et où la singularité cosmologique initiale, plutôt que d'être l'analogue du sommet d'un cône, ressemble à la surface lisse et sans singularité d'une sphère.
  • En essayant de rendre rigoureuse cette théorie, des chercheurs du Perimeter Institute, au Canada, sont arrivés à la conclusion qu'elle faisait des prédictions incompatibles avec les caractéristiques du rayonnement fossile, au moins dans sa formulation primitive.

L'année 2015 fut marquée par le centenaire de la formulation finale de la théorie de la relativité générale par Einstein. Cette année 2017, nous pouvons célébrer deux autres centenaires : celui de la formulation du premier modèle de cosmologie relativiste et celui de la découverte de l'effet laser, également par Einstein ; cette découverte a posé les bases de la mécanique des matrices de Heisenberg, un des piliers de la mécanique quantique.

En 1970, Roger Penrose et Stephen Hawking ont publié un théorème montrant qu'appliquée à la théorie du Big Bang, la théorie d'Einstein amenait inexorablement à la conclusion que notre univers devait être né d'une singularité de l’espace-temps. Toutefois, aucun de ces chercheurs n'était dupe : leur théorème montrait simplement l'effondrement du pouvoir prédictif de la théorie de la gravitation d'Einstein tant qu'on ne cherchait pas à la rendre quantique. Or, tout comme les électrons d'un atome étaient sauvés de l'effondrement inévitable sur le noyau en physique classique par les équations de la mécanique quantique, on devait s'attendre à ce que la singularité cosmologique soit, elle aussi, supprimée par ces équations appliquées à la nature et la dynamique de l'espace-temps. Mais, pour le montrer, il fallait aller au-delà de la théorie de la relativité générale.

Heureusement, une théorie quantique de la gravitation était déjà en cours d'élaboration pendant les années 1960. John Wheeler, l'un des pionniers de la physique des trous noirs, et Bryce DeWitt, l'époux de la physicienne et mathématicienne française Cécile DeWitt-Morette, étaient arrivés à découvrir une équation à la base de la cosmologie quantique, la fameuse équation de Wheeler-DeWitt (WD).

La théorie de la relativité générale d'Albert Einstein (1915) n'est pas compatible avec la physique quantique (qui décrit le comportement des atomes et des particules), l'autre grand fondement de la physique. Faut-il donc aller plus loin, trouver la théorie « qui unifie tout » ? Les réponses d'Aurélien Barrau. © Bibliothèque publique d'information

La cosmologie quantique et les solutions de l'équation de Wheeler-DeWitt

Cette équation est malheureusement fort difficile à résoudre, sauf si elle est appliquée à des modèles cosmologiques très simplifiés. De grandes classes de solutions ont été trouvées dans le cadre de la théorie de la gravitation quantique à boucles. Au début des années 1980, Stephen Hawking, fort des succès qu'il avait rencontrés en appliquant les travaux du prix Nobel Richard Feynman en théorie quantique des champs au cas de l'évaporation des trous noirs, a cherché, lui aussi, à utiliser cette équation pour comprendre le début de l'univers. Avec son collègue James Hartle, Stephen Hawking a dont tenté de résoudre, de façon au moins approchée, l'équation de WD dans des cas simples à l'aide de l'intégrale de chemin de Feynman.

La stratégie semblait prometteuse car les équations de la relativité générale sont des analogues des équations de Yang-Mills à la base du modèle standard en physique des particules. Or, le prix Nobel Gerard 't Hooft avait fortement contribué à montrer que l'intégrale de Feynman était un outil exceptionnellement efficace et pratique pour faire des calculs de théorie quantique des champs avec les équations de Yang-Mills.

De fait, en transposant les techniques qui marchaient en physique des particules au traitement quantique de l'espace-temps en cosmologie,

Hawking et Hartle ont émis une proposition en 1983 qui allait faire grand bruit. Ils ont ainsi avancé des arguments permettant de supprimer naturellement la singularité initiale, mais au prix de considérer que la nature de l'espace-temps pouvait profondément changer au voisinage de la naissance du Big Bang. Dans les équations, le temps, au lieu d'être décrit par des nombres réels, était décrit par une généralisation de ces nombres que les mathématiciens ont appelé « des nombres complexes » et qui sont à la base de la fameuse équation de Schrödinger, l'un des postulats fondamentaux de la mécanique quantique.

Plus précisément, le temps devenait alors « imaginaire pur », dans le jargon des mathématiciens, ce qui revenait à dire que l'espace-temps à 4 dimensions devenait de l'espace à 4 dimensions. Au lieu de « débuter », par un point de densité infini et avec une courbure également infinie de l'espace-temps, le cosmos aurait alors émergé d'une géométrie quantique floue, comme le sont les trajectoires des particules dans un atome. Une image de cette géométrie serait alors celle de la surface d'une sphère sans frontière ni bord. Il est possible de se déplacer sur cette surface sans rencontrer d'obstacle, ce qui n'est pas le cas sur celle d'un cône, puisque son sommet est précisément une singularité de la géométrie, ou encore sur la surface d'un cylindre qui possède deux bords.

L'effet tunnel et le temps imaginaire en cosmologie quantique

La proposition sans frontière (No boundary proposal) avec temps imaginaire de Hartle-Hawking allait fasciner par son élégance et parce qu'elle proposait une solution au problème de la naissance du temps. Une variante de cette cosmologie quantique a été proposée par le physicien russe Alexander Vilenkin, également pionnier de la théorie de l'inflation éternelle. Vilenkin a développé une idée en germe dans la théorie de l'atome primitif de Lemaître, conçu comme une sorte de noyau subissant une désintégration radioactive par effet tunnel.

Il se trouve que le temps imaginaire intervient d'une certaine façon dans la théorie de l'effet tunnel quantique et il est donc possible, comme l'ont fait Hartle et Hawking, d'y voir plus qu'une astuce de calcul mais bien un changement dans la nature de l'espace-temps. La théorie de Vilenkin suggère donc que l'univers a fait une sorte de saut par effet tunnel quantique d'un état qui n'est ni espace ni temps (qui peut être abusivement appelé « le néant » mais qui suppose tout de même l'existence préalable des lois de la physique) directement dans l'espace-temps primordial. »

 

No Universe without Big Bang

June 15, 2017

Credit: J.-L. Lehners (Max Planck Institute for Gravitational Physics)

According to Einstein's theory of relativity, the curvature of spacetime was infinite at the big bang. In fact, at this point all mathematical tools fail, and the theory breaks down. However, there remained the notion that perhaps the beginning of the universe could be treated in a simpler manner, and that the infinities of the big bang might be avoided. This has indeed been the hope expressed since the 1980s by the well-known cosmologists James Hartle and Stephen Hawking with their "no-boundary proposal", and by Alexander Vilenkin with his "tunneling proposal". Now scientists at the Max Planck Institute for Gravitational Physics (Albert Einstein Institute/AEI) in Potsdam and at the Perimeter Institute in Canada have been able to use better mathematical methods to show that these ideas cannot work. The big bang, in its complicated glory, retains all its mystery.

One of the principal goals of cosmology is to understand the beginning of our universe. Data from the Planck satellite mission shows that 13.8 billion years ago the universe consisted of a hot and dense soup of particles. Since then the universe has been expanding. This is the main tenet of the hot big bang theory, but the theory fails to describe the very first stages themselves, as the conditions were too extreme. Indeed, as we approach the big bang, the energy density and the curvature grow until we reach the point where they become infinite.

As an alternative, the "no-boundary" and "tunneling" proposals assume that the tiny early universe arose by quantum tunneling from nothing, and subsequently grew into the large universe that we see. The curvature of spacetime would have been large, but finite in this beginning stage, and the geometry would have been smooth - without boundary (see Fig. 1, left panel). This initial configuration would replace the standard big bang. However, for a long time the true consequences of this hypothesis remained unclear. Now, with the help of better mathematical methods, Jean-Luc Lehners, group leader at the AEI, and his colleagues Job Feldbrugge and Neil Turok at Perimeter Institute, managed to define the 35 year old theories in a precise manner for the first time, and to calculate their implications. The result of these investigations is that these alternatives to the big bang are no true alternatives. As a result of Heisenberg's uncertainty relation, these models do not only imply that smooth universes can tunnel out of nothing, but also irregular universes. In fact, the more irregular and crumpled they are, the more likely (see Fig. 1, right panel). "Hence the "no-boundary proposal" does not imply a large universe like the one we live in, but rather tiny curved universes that would collapse immediately", says Jean-Luc Lehners, who leads the "theoretical cosmology" group at the AEI.

Hence one cannot circumvent the big bang so easily. Lehners and his colleagues are now trying to figure out what mechanism could have kept those large quantum fluctuations in check under the most extreme circumstances, allowing our large universe to unfold.

https://cf3e497594.site.internapcdn.net/tmpl/v5/img/1x1.gif 

 

 

Partager cet article
Repost0
20 juin 2017 2 20 /06 /juin /2017 16:44

Il faudra un jour que la pensée en physique franchisse le Rubicond.

 

Jusqu’à présent l’effet Zénon est clairement observé et identifié mais n’est pas fondamentalement expliqué. Les physiciens se satisfont d’une description factuelle, sans que ne soit creusé, ne soit interrogé, le rôle spécifique de l’observateur. Voir article du 21/12/2011.

Jusqu’à présent ce que nous dit D. Mermin : « Les mesures (quantiques) ne ‘causent’ pas les choses qui se produisent dans le monde réel, quel qu’il soit ; elles causent les choses qui se produisent dans nos têtes. L’action fantôme à distance est aussi une illusion… », n’a pas suscité la moindre tentative de comprendre comment cela se produirait dans nos têtes. Voir article du 27/05/2014.

Jusqu’à présent ce que nous déclare A. Barrau et d’autres : « Mais il ne faut pas oublier… que nos manières d’appréhender cet « autre part » n’en demeurent pas moins humaines et créées… Nous choisissons et inventons les rapports au(x) monde(s) que nous jugeons pertinents. Ils ne sont pas donnés, ils sont construits. », continue d’être un commentaire gratuit, sans conséquence, puisqu’aucune nouvelle manière, autre que l’habituelle, n’a été jusqu’à présent suggérée. Pourquoi Barrau est-il resté au milieu du gué d’une réflexion pourtant pertinente ? Pourquoi est-ce avec la casquette de philosophe qu’il a avancé ce propos ? Voir articles du 12/04/2016 et du 23/04/2016.

Jusqu’à présent l’intrication entre des objets quantiques est absolument reconnue par les physiciens, les ingénieurs exploitent cette propriété, en repoussant sans discontinuité les limites de son exploitation, mais jusqu’à présent dans le cadre de la croyance réaliste traditionnelle les physiciens ne savent pas fondamentalement expliquer ce qui est en jeu. Voir article du 22/11/2014 et les autres.

Jusqu’à présent L. Smolin, affirme que : « L’univers réel a des propriétés qui ne sont pas représentables par un quelconque objet mathématique. Une de celles-ci est quil y a toujours un moment présent. Les objets mathématiques, étant intemporels, n’ont pas de moments présents, n’ont pas de futurs ni de passés. Toutefois, si on embrasse la réalité du temps et voit les lois mathématiques comme des outils plutôt que des miroirs mystiques de la nature, d’autres faits têtus, inexplicables, concernant le monde deviennent explicables… », mais il n’a pas pu aller au-delà de ce constat car il n’a pas pu franchir le Rubicond c’est-à-dire prendre le contre-pied de la métaphysique d’Einstein. Voir article du 02/02/2013.

Jusqu’à présent N. Gisin annonce dans un article au titre évocateur : « La physique a tué le libre arbitre et le flux du temps. Nous devons revenir en arrière » puis « Finalement, parce que la physique – et la science en général – est l’activité humaine ayant pour but de décrire et de comprendre comment la Nature fonctionne. Pour cette raison nous devons décrire aussi comment l’être humain interagit avec la nature, comment on la questionne. » Dans cet article, il a écrit en incise « désolé Einstein », il a donc fait les premiers pas en vue de franchir le Rubicond sans plus. Voir article du 03/06/2016

De plus en plus fréquemment des illustrations représentant l’univers et ses structures essentiels avec leur évolution dans le temps, depuis l’origine appelé Big Bang, sont accompagnées de la figure du Penseur de Rodin situé dans le temps actuel soit 13 milliards 800 millions d’années depuis ce Big Bang. Nous connaissons tous la posture de ce Penseur mais comment comprendre la présence de ce Penseur dans cette illustration ?

Est-il le contemplateur de Galilée hérité de Platon pour qui, l’intelligible ne s’apprend pas du visible, il appartient à l’âme qui doit le tirer, par la réminiscence, de son fonds. La science galiléenne étant une science d’un monde sans l’homme, d’un monde préétabli, préordonné, par des fondements physico-mathématiques, se passant de la pensée, bref La vérité de l’univers étant indifférente à la réalité de l’homme. Dans ce cas le penseur de Rodin est inapproprié, pour le moins superflu.

Est-ce le penseur Einsteinien qui doit être un acteur préalablement actif pour assurer les conditions de l’accueil de la réalité indubitable de l’univers ? Bref ici le penseur de Rodin est en partie approprié parce qu’il reçoit la réalité du monde qui vient à lui parce qu’il a assuré les conditions de cet accueil. Mais une fois établi le flux est à sens unique.

Est-ce, tout autrement, le penseur qui, selon mon point de vue, doit franchir le Rubicond ? Et partant doit considérer que la connaissance du monde n’est que sa connaissance du monde – et non point universel – façonnée selon ses capacités actuelles d’acquérir cette connaissance et ne peut pas être déclarée connaissance du réel car dans ce cas ce quasi platonisme – qui est franchement majoritaire chez les physiciens et les mathématiciens, consciemment ou non – s’oppose au flux biunivoque (flux évoqué par N. Gisin : « comment l’être humain interagit avec la nature, comment on le questionne » voir mon article du 23/08/2016.) qui doit être considéré comme un paradigme de l’évolution de l’anthrôpos. Pour illustrer mon propos, je me réfère à ce que nous dit la science paléoanthropologique toute récente, en effet : dans un article qui relatait récemment la découverte au Maroc de « l’Homo sapiens » le plus ancien (315 000 ans), l’un des découvreurs des restes de 5 individus nous dit : « Leur visage n’était pas différent de celui de n’importe qui dans le métro. Leur boîte crânienne était aussi volumineuse mais moins globulaire que la nôtre, et leur cervelet moins développé. L’évolution ne s’arrête pas, nous évoluons encore et toute la différence, entre les premiers sapiens et nous, tient probablement dans l’organisation interne du cerveau, sa connectivité. Malheureusement, la génétique ne sera d’aucun secours pour en savoir plus : il fait trop chaud au Maroc pour espérer récupérer de l’ADN ancien sur ces fossiles. »

Notre connaissance authentique de la nature physique du monde dans sa globalité sera atteinte lorsque notre cerveau, par l’acquisition de tout ce qui fait connaissances, assurera toutes ses connectivités possibles. Ici, il faut penser que c’est une dynamique parfaitement biunivoque qui est en jeu. L’aboutissement de ce processus est certainement imprédictible, puisqu’il nous renvoie dans l’infini spatio-temporel : le moteur de notre volonté de conquête.

Ce processus de croissance des connectivités possibles, qui dirige pour l’essentiel notre évolution, subit probablement une croissance exponentielle qui doit présentement nous rendre humble à l’égard du statut de nos connaissances actuelles, qui devraient être à mon sens non seulement considérées comme des approximations de ce qui seraient, mais, pour permettre le bon recul intellectuel, devraient être pensées comme des apparaîtres construits illustratifs de nos capacités cognitives actuelles, représentants de l’état provisoire et daté de notre évolution.

Ci-dessous, je joins la traduction d’un article avec son original en copie, car il fait réfléchir et puis il sera probablement repris ultérieurement en référence.

Est-ce que la vie est plus probable que les trous noirs d’être une adaptation pour la duplication de l’univers ? Article du 15 juin par Sarah Cox de la Brunel Université de Londres.

La vie intelligente est plus probable, que ne le sont les trous noirs, d’être une adaptation conçue par la sélection naturelle cosmologique. C’est ce que spécule un évolutionniste de l’Université Brunel. Michael Price qui adopte un point de vue adaptationniste à propos de la théorie de la sélection naturelle cosmologique introduite par Lee Smolin au début des années 1990. En effet celui-ci suggère que les trous noirs sont une adaptation conçue par la sélection cosmologique naturelle et que la vie est un sous-produit de la sélection pour les trous noirs. L’autoréplication au moyen des trous noirs et la sélection favorisent des univers qui contiennent plus de trous noirs.

Price théorise qu’en considérant notre connaissance, à propos du comment la sélection naturelle opère au niveau biologique, la vie intelligente est actuellement plus vraisemblable que les trous noirs d’être un mécanisme par lequel les univers se répliquent eux-mêmes – un concept connu en tant que sélection naturelle cosmologique avec intelligence (a concept known as cosmological natural selection (CNS) with intelligence). (A mon sens il faut comprendre cette phrase : CNS grâce à l’intelligence)

Price note que la sélection naturelle opérant au niveau biologique est le processus connu le plus fort dans l’univers pour créer un ordre complexe et pour faire diminuer le processus de l’entropie croissante (dégénération et désintégration), et cela devrait opérer aussi bien au niveau cosmologique. Essentiellement, la vie est ordonnée avec bien plus de complexité et elle est vraisemblablement moins certaine de survenir par chance qu’un trou noir et donc plus vraisemblablement d’être une adaptation de la duplication d’univers. Ce point de vue est contrasté de celui de Smolin qui suggère que les trous noirs résultent de l’adaptation et la vie est un sous-produit.

« Les organismes vivants sont les moins entropiques, c’est-à-dire les complexités les plus ordonnées et les entités improbables connues pour exister » nous explique Price.

La sélection biologique naturelle (Biological natural selection (BNS)) est donc le processus anti-entropique le plus fort connu parce qu’il crée des organismes. La sélection biologique naturelle dote ces organismes avec des traits (caractères) nommés des adaptations qui ultimement rendent possible les réplications génétiques. On reconnaît un trait comme une adaptation basée sur sa complexité improbable, et cette complexité est le signe (la marque) de la sélection naturelle.

Si nous acceptons, comme l’argumente Smolin, que nous vivons dans un multivers où les modèles d’univers se reproduisent compétitivement selon un processus de sélection, alors la sélection biologique naturelle peut être un guide fiable auquel nous pourrions nous attendre de la sélection naturelle cosmologique.

  1. implication, je suggère qu’ensemble la vie intelligente et les trous noirs sont des candidats plausibles pour être des adaptations conçus par CNS mais la probabilité d’être une telle adaptation est plus grande pour la vie que pour les trous noirs ou bien sûr, pour tout autre objet connu dans l’univers, parce que la vie est la chose la plus complexe et improbable dont nous avons connaissance.

Je suggère aussi que plus généralement, CNS pourrait être l’ultime cause première de l’ordre cosmologique, juste comme BNS est l’ultime cause première de l’ordre biologique. En d’autres mots, BNS et CNS pourraient être ensemble ultimement responsables de plus d’ordre que nous observons dans l’univers. Sans cet ordre il n’y aurait pas d’entropie parce que rien ne se désintègrerait dans un état d’ordre inférieur et en conséquence pas de flèche du temps.

En somme, le processus de la sélection pourrait être bien plus fondamental pour expliquer la nature de notre univers tel qu’il est généralement supposé.

Je rappelle pour mémoire, durant ces deux dernières décennies on a identifié à coup sûr trois catégories de trous noirs : ceux d’une masse de quelques dizaines de masses solaires et on cherche à savoir la densité de présence de ceux-ci par unité de volume d’univers soit en binaire soit en unitaire ; ceux qualifiés massifs (millions de masses solaires), hypermassifs (milliards de masses solaires) qui sont au cœur des galaxies matures ; ceux que l’on découvre maintenant, hypermassifs et de moins d’un milliard d’années depuis le Big Bang. Enfin on cherche à savoir si des trous noirs primordiaux existent dans notre univers et quelle serait leur masse aussi quelle serait leur densité de répartition dans l’univers.

Is life more likely than black holes to be an adaptation for universe replication?

June 15, 2017 by Sarah Cox, Brunel University London

  1. life is more likely than black holes are to be an adaptation designed by cosmological natural selection, an evolutionist from Brunel University London speculates.

Writing in the journal Complexity, Dr Michael Price takes an adaptationist view on the theory of cosmological natural selection introduced by theoretical physicist Professor Lee Smolin in the early 1990s.

Smolin suggests that black holes are an adaptation designed by cosmological natural selection and that life is a by-product of selection for black holes. Universes self-replicate through black holes, and selection favours universes that contain more black holes.

Dr Price theorises that, based on our knowledge about how natural selection operates at the biological level, intelligent life is actually more likely than black holes to be a mechanism by which universes replicate themselves – a concept known as cosmological natural selection (CNS) with intelligence.

Price notes that natural selection operating at the biological level is the strongest known process in the universe for creating complex order and for slowing down the process of increasing entropy (degeneration and decay), and it may operate at the cosmological level as well.

Essentially, life is much more complexly ordered and less likely to arise by chance than a black hole, and thus more likely to be an adaptation for universe replication, he explains. This view contrasts with Smolin's suggestion that black holes are the adaptation and life is the by-product.

"Living organisms are the least entropic, that is, the most complexly ordered and improbable entities known to exist," Dr Price, Head of Brunel's Centre for Culture and Evolution, explains.

"Biological natural selection (BNS), then, is the strongest known anti-entropic process because it creates organisms. Biological natural selection endows those organisms with traits called adaptations that ultimately enable genetic replication. We recognise a trait as an adaptation based on its improbable complexity, and this complexity is the hallmark of natural selection.

"If we accept, as Professor Smolin argues, that we live in a multiverse where universe designs reproduce competitively according to a process of selection, then biological natural selection may be a reliable guide to what we should expect from cosmological natural selection.

"By implication, I suggest that both intelligent life and black holes are plausible candidates to be CNS-designed adaptations but the probability of being such an adaptation is higher for life than black holes or indeed, for any other known object in the universe, because life is the most complexly improbable thing we know of.

"I also suggest that more generally, CNS may be the ultimate primary cause of cosmological order, just as BNS is the ultimate primary cause of biological order. In other words, BNS and CNS may together be ultimately responsible for much of the order that we observe in the universe. Without this order there would be no entropy because nothing would decay to a less-ordered state and therefore no arrow of time.

"In sum, the process of selection may be far more fundamental to explaining the nature of our universe than is generally supposed."

Explore further: Did the universe evolve to make black holes?

More information: 'Entropy and selection: Life as an adaptation for universe replication' by Michael E. Price, Department of Life Sciences, Brunel University London, is published in Complexity: www.hindawi.com/journals/complexity/aip/4745379/

Provided by: Brunel University

 

 

Partager cet article
Repost0
30 mai 2017 2 30 /05 /mai /2017 09:43

Toujours à la recherche de la ‘Spooky action’, dommage.

Avec cet article, je me propose de vous informer du projet d’expérience qui n’est pas banal car pensé par des physiciens mais qui met en évidence une véritable inertie de cette pensée (parce qu’on n’a pas encore dépassé la réflexion qui exprime l’étonnement et le refus d’Einstein). Toutefois il est intéressant de connaître ce projet et par la suite le résultat qui sera obtenu. C’est dans le NewScientist que se trouve l’article de présentation que je mets en copie à la fin du présent. Son titre est : ‘Un test de la physique quantique classique pourrait révéler les limites de l’esprit humain’ (A classic quantum test could reveal the limits of the human mind).

C’est dans le cadre d’une opération d’intrication que ce test est programmé, il est centré sur la tentative de mettre en évidence le concept de ‘l’action fantôme’, qui était l’expression de l’étonnement et du refus d’Einstein d’admettre l’explication proposée par N. Bohr. Ici, la tentative relève de savoir si, au bout du compte, l’action fantôme serait peut-être une opération due à l’esprit humain (‘être dans la nature’) déconnecté de toutes déterminations de ‘l’être de la nature’. A priori je pourrai me satisfaire qu’il peut être enfin considéré que la ‘présence du sujet pensant’ jouerait un rôle en faveur d’une interprétation correcte et complète de propriété physique. Mais l’hypothèse cible que veulent vérifier les auteurs du projet d’expérience, n’est pas, selon mon hypothèse, la bonne, loin de là.

Je cite : « En 1964, J. Bell ouvre la voie pour tester si les particules intriquées s’influencent l’une à l’autre. Il conçoit une expérience qui implique une paire de particules intriquées et envoie une de celle-ci en A et l’autre en B. A chacun de ces lieux, il y a un instrument qui mesure, par exemple, le spin de la particule. La caractéristique des instruments est de mesurer le spin à +45 ou -45°, ceci est défini par des générateurs de nombre au hasard, de telle façon qu’il est impossible pour A de connaître la façon dont celle de B est établie, vice-versa, au moment de la mesure.

Les mesures sont réalisées pour un nombre important de paires intriquées. Si la physique quantique est correcte et qu’il y ait effectivement une action fantôme à distance, alors les résultats de ces mesures seront corrélés un plus grand nombre de fois que ceux que si Einstein avait raison. Toutes les expériences ont vérifié l’interprétation de Bohr.

Néanmoins, quelques physiciens ont argumenté que les nombres aléatoires générés ne seraient pas véritablement le fait du hasard. Il se pourrait qu’ils soient gouvernés par une physique sous-jacente que nous ne comprenons toujours pas et ce ‘super-déterminisme’ pourrait expliquer les corrélations observées.

Maintenant, Lucien Hardy de l’institut ‘Perimeter’ au Canada suggère que les mesures, entre A et B, pourraient être contrôlées par quelque chose qui pourrait être séparée du monde matériel : l’esprit humain.

Question de libre arbitre.

Pour tester cette idée, L. Hardy propose une expérience dans laquelle A et B sont définis à 100km l’un de l’autre. En chaque lieu, sont présent de l’ordre de 100 personnes équipées de casques EEG (électroencéphalographique) décryptant les réactions du cerveau. Les signaux émis sont utilisés pour changer le réglage des instruments de mesure en chacun des points A et B. L’idée est d’obtenir un très grand nombre de mesures en A et B et extraire la petite fraction dans laquelle les signaux EEG provoquent des changements de réglage en A et B après le départ des particules de leur point origine mais avant qu’ils arrivent et qu’ils soient mesurées.

Si le nombre de corrélations entre ces mesures ne correspond pas avec les prévisions de Bell, cela implique une violation de la théorie quantique, pointant que les mesures en A et B seraient contrôlées par un processus en dehors de la conception physique standard.

Si on constate une violation de la théorie quantique quand vous avez un système qui pourrait être considérée comme conscient, humain ou autres animaux, cela pourrait être passionnant. Je ne peux pas imaginer un résultat expérimental plus frappant que ça. »

Ensuite les trois derniers paragraphes, comme on peut le constater dans la version originale (ci-jointe) est consacré au libre arbitre de l’humain. Considérer que l’être humain disposerait d’une capacité d’agir, de concevoir, de penser, qui s’appuierait sur une faculté de libre arbitre absolue, n’a pas de valeur, parce que erronée. Que l’être humain veuille tendre vers cet absolu c’est certain, mais il n’est pas souhaitable de considérer que cela soit à l’œuvre car ce serait ignorer le poids des déterminations (l’article ‘Pas à pas’ en est une illustration) qui ne pourront se réduire qu’avec la découverte de nouvelles connaissances c’est-à-dire que le poids de ‘l’être de la nature’ aille diminuant.

J’ai voulu signaler l’existence de cet article parce que confrontés avec l’inexplicable de l’intrication, on commence à considérer que la ‘présence du sujet pensant’ pourrait offrir une explication. De plus, c’est la première fois que je lis une proposition d’évaluation d’une expérience prédéfinie (en dehors de la mienne en 2012, voir article précédent : ‘Pas à pas’) avec la contribution de l’imagerie cérébrale.

A classic quantum test could reveal the limits of the human mind

A quantum test could tell us what minds are made of

Dominic Lipinski/PA

By Anil Ananthaswamy

The boundary between mind and matter could be tested using a new twist on a well-known experiment in quantum physics.

Over the past two decades, a type of experiment known as a Bell test has confirmed the weirdness of quantum mechanics – specifically the “spooky action at a distance” that so bothered Einstein.

Now, a theorist proposes a Bell test experiment using something unprecedented: human consciousness. If such an experiment showed deviations from quantum mechanics, it could provide the first hints that our minds are potentially immaterial.

Advertisement

Spooky action at a distance was Einstein’s phrase for a quantum effect called entanglement. If two particles are entangled, then measuring the state of one particle seems to instantly influence the state of the other, even if they are light years apart.

But any signal passing between them would have to travel faster than the speed of light, breaking the cosmic speed limit. To Einstein, this implied that quantum theory was incomplete, and that there was a deeper theory that could explain the particles’ behaviour without resorting to weird instantaneous influence. Some physicists have been trying to find this deeper theory ever since.

Demonstrating Descartes

In 1964, physicist John Bell paved the way for testing whether the particles do in fact influence each other. He devised an experiment that involves creating a pair of entangled particles and sending one towards location A and the other to location B. At each point, there is a device that measures, say, the spin of the particle.

The setting on the device – for example, whether to measure the particle’s spin in the +45 or -45 degree direction – is chosen using random number generators, and in such a way that it’s impossible for A to know of B’s setting and vice-versa at the time of the measurement.

The measurements are done for numerous entangled pairs. If quantum physics is correct and there is indeed spooky action at a distance, then the results of these measurements would be correlated to a far greater extent than if Einstein was correct. All such experiments so far have supported quantum physics.

However, some physicists have argued that even the random number generators may not be truly random. They could be governed by some underlying physics that we don’t yet understand, and this so-called “super-determinism” could explain the observed correlations.

Now, Lucien Hardy at the Perimeter Institute in Canada suggests that the measurements at A and B can be controlled by something that could potentially be separate from the material world: the human mind.

“[French philosopher Rene] Descartes put forth this mind-matter duality, [where] the mind is outside of regular physics and intervenes on the physical world,” says Hardy.

Question of free will

To test this idea, Hardy proposed an experiment in which A and B are set 100 kilometres apart. At each end, about 100 humans are hooked up to EEG headsets that can read their brain activity. These signals are then used to switch the settings on the measuring device at each location.

The idea is to perform an extremely large number of measurements at A and B and extract the small fraction in which the EEG signals caused changes to the settings at A and B after the particles departed their original position but before they arrived and were measured..

If the amount of correlation between these measurements doesn’t tally with previous Bell tests, it implies a violation of quantum theory, hinting that the measurements at A and B are being controlled by processes outside the purview of standard physics.

“[If] you only saw a violation of quantum theory when you had systems that might be regarded as conscious, humans or other animals, that would certainly be exciting. I can’t imagine a more striking experimental result in physics than that,” Hardy says. “We’d want to debate as to what that meant.”

Such a finding would stir up debate about the existence of free will. It could be that even if physics dictated the material world, the human mind not being made of that same matter would mean that we could overcome physics with free will. “It wouldn’t settle the question, but it would certainly have a strong bearing on the issue of free will,” says Hardy.

Nicolas Gisin at the University of Geneva in Switzerland thinks Hardy’s proposal makes “plenty of sense”, but he’s sceptical of using unstructured EEG signals to switch settings on devices. That’s akin to using the brain as a random number generator, says Gisin. He would rather see an experiment where the conscious intent of humans is used to perform the switching – but that would be experimentally more challenging.

Either way, he wants to see the experiment done. “There is an enormous probability that nothing special will happen, and that quantum physics will not change,” says Gisin. “But if someone does the experiment and gets a surprising result, the reward is enormous. It would be the first time we as scientists can put our hands on this mind-body or problem of consciousness.”

Journal reference: arXiv, DOI: 1705.04620v1

 

Partager cet article
Repost0
27 mai 2017 6 27 /05 /mai /2017 14:27

Pas à pas

‘Pas à pas’, parce que le projet d’expérience que je propose et que j’ai précisé une ultime fois dans l’article du 21/09/2016 et confirmé dans celui 15/10/2016 rencontre une validité supplémentaire dans l’article que je présente ci-dessous.

‘Pas à pas’, parce que j’avais conscience que mon hypothèse de base qui m’a conduit à imaginer le projet d’expérience dès l’article du 2/11/2012 (expérience 1) avait un caractère inacceptable a priori pour la communauté scientifique et cela ne pouvait être que ‘pas à pas’ qu’il pouvait être entendu. Il me semble qu’il est pertinent maintenant de concevoir concrètement l’expérience que je propose et c’est aux experts de l’imagerie cérébrale d’affiner le protocole, de réaliser l’expérience et offrir les données qui nous permettront de cheminer vers la compréhension, la source, de ce fameux phénomène quantique débarrassé de son qualificatif bizarre.

Donc je fais référence à l’article qui vient d’être publié dans le NewScientist qui résume l’article, DOI : 10.7554/eLife.21761. Son titre : ‘Nos cerveaux préfèrent de l’information visuelle inventée au chose réelle’. (Nos cerveaux suppléent les ‘bits’ que nos yeux ne peuvent pas voir.) est en copie pour l’essentiel en fin du présent article. Le titre de l’article original DOI étant : ‘Humans treat unreliable filled-in percepts as more real than veridical ones’

« Voir ne devrait pas toujours être cru. Nous avons tous des points aveugles dans notre vision, mais nous ne les remarquons pas parce que nos cerveaux comblent le trou avec de l’information fabriquée.

Si le cerveau fonctionne de cette façon dans d’autres domaines, cela suggère que nous devrions être moins confiants de ce qui nous semble évident d’après nos sens. La perception ne nous fournit pas la vraie représentation du monde, elle est contaminée par ce que nous connaissons déjà (sic) »

« Le point aveugle est provoqué par un ‘patch’ à l’arrière de chacun des yeux où il n’y a pas de cellules sensibles à la lumière, juste un trou que nos neurones évacuent de l’œil sur le chemin vers le cerveau. Nous ne notons pas ces points aveugles parce que nos deux yeux peuvent les combler mutuellement. Quand notre vision est obscurcie sur un œil, le cerveau fabrique ce qui manque dans l’espace du trou en assumant que, quel que soit ce qui est dans les régions autour, le trou continue de représenter. »

Tour de l’esprit.

« Mais savons-nous inconsciemment que cette vision complétée est moins digne de confiance que l’information visuelle réelle ? Benedikt Ehinger de l’université d’Osnabrück et ses collègues obtiennent une réponse à cette question en demandant à 100 personnes de regarder une photo d’un cercle de bandes verticales, contenant un petit ‘patch’ de bandes horizontales. Le cercle était positionné de telle façon qu’avec un œil caché, le ‘patch’ des bandes horizontales tombe dans le point aveugle de l’autre œil. Comme résultat, le cercle apparaît pensé comme s’il n’y avait pas de ‘patch’ et comme si les bandes verticales étaient continues.

Ensuite à cela, il y avait un autre cercle avec des bandes verticales sans aucun ‘patch’ de bandes horizontales. On demandait aux personnes de choisir quel cercle semblait avoir des bandes continues. L’équipe d’Ehinger espérait que les personnes choisiraient plus souvent le cercle sans ‘patch’. Cela semblait plus logique de choisir celui où ils peuvent réellement voir toute l’information.

Biais cognitif

En fait, les personnes choisirent, le cercle qui avait : la vision complétée, à 65%. « Nous n’avions jamais prévu ceci » dit Ehinger. Quand les personnes tiennent des croyances fortes, ils sont propices à ignorer les évidences du contraire.

Il n’y a aucun bénéfice évident pour nos cerveaux d’ignorer une information extérieure, dit Ehinger. « J’ai parlé à beaucoup de personnes à ce propos, et tous m’ont dit que ça n’avait pas de sens. »

Comme dans les points aveugles de la vision, il y a d’autres domaines dans lesquels nos perceptions sont changées par nos expectatives cérébrales. Par exemple, si des chansons bien connues sont converties en format MIDI, ce qui élimine les voix, les gens peuvent couramment ‘entendre’ les mots qui ne sont pas réellement là. »

Pour rappel, j’ai été amené à proposer l’expérience précise de l’article du 21/09/2016 parce qu’il faut prendre en compte le poids des déterminations (dans l’article du NewScientist désignées : contaminations) qui habitent l’être humain. L’être humain, donc le physicien, n’est pas un penseur nu, il est habité par des déterminations profondes, formatrices, c’est à mes yeux, ce qu’il en est de la détermination spatio-temporelle. La libération, par rapport à ces déterminations, ne peut s’obtenir qu’après avoir atteint le stade de sa reconnaissance concrète sur le plan expérimental et ainsi évaluer les biais apportés par ces déterminations qui ensuite peuvent, peu ou prou, être intellectuellement contournées. Cela fait partie du processus de notre évolution potentielle en tant que ‘sujet pensant’. C’est ce que j’ai exprimé dans l’article du 26/09/2015 : ‘Non, on ne pense pas quantique. Pas encore !’. Aussi comme indiqué dans l’article ultime du 24/05 : ‘Emergence :…’ la propriété de l’intrication pourra être élucidée si la problématique de la fondation de l’espace-temps est cernée.

Our brains prefer invented visual information to the real thing’, in the NewScientist.

Our brains make up for the bits our individual eyes can’t see.

By Clare Wilson

Seeing shouldn’t always be believing. We all have blind spots in our vision, but we don’t notice them because our brains fill the gaps with made-up information. Now subtle tests show that we trust this “fake vision” more than the real thing.

If the brain works like this in other ways, it suggests we should be less trusting of the evidence from our senses, says Christoph Teufel of Cardiff University, who wasn’t involved in the study. “Perception is not providing us with a [true] representation of the world,” he says. “It is contaminated by what we already know.”

The blind spot is caused by a patch at the back of each eye where there are no light-sensitive cells, just a gap where neurons exit the eye on their way to the brain.

Advertisement

We normally don’t notice blind spots because our two eyes can fill in for each other. When vision is obscured in one eye, the brain makes up what’s in the missing area by assuming that whatever is in the regions around the spot continues inwards.

Trick of the mind

But do we subconsciously know that this filled-in vision is less trustworthy than real visual information? Benedikt Ehinger of the University of Osnabrück in Germany and his colleagues set out to answer this question by asking 100 people to look at a picture of a circle of vertical stripes, which contained a small patch of horizontal stripes.

The circle was positioned so that with one eye obscured, the patch of horizontal stripes fell within the other eye’s blind spot. As a result, the circle appeared as though there was no patch and the vertical stripes were continuous.

Next to this was another circle of vertical stripes without a patch of horizontal stripes. People were asked to choose which circle seemed most likely to have continuous stripes.

Ehinger’s team were expecting that people would choose the circle without a patch more often. “It would be more logical to choose the one where they can really see all the information,” he says.

Cognitive bias

In fact, people chose the circle that had a filled-in patch 65 per cent of the time. “We never expected this,” says Ehinger. “The brain trusts its own generated information more than what it sees outside in the world.”

This fits in with what we know about cognitive biases, says Ehinger. When people hold strong beliefs, they are likely to ignore any evidence to the contrary.

There is no obvious benefit to our brains ignoring external information, says Ehinger. “I’ve talked to many people about it, and they all say it doesn’t make sense,” he says.

As well as blind spots in vision, there are other ways in which our perceptions are changed by the brain’s expectations, says Teufel. For instance, if a well-known song is converted to MIDI format, which strips out the vocals, people can usually “hear” words that aren’t really there.

Journal reference

DOI: 10.7554/eLife.21761 

 

Partager cet article
Repost0
24 mai 2017 3 24 /05 /mai /2017 17:20

Emergence : pourquoi les physiciens recourent-ils à cette notion ?

Avec cet article je propose de réfléchir à la notion d’émergence qui fait florès actuellement en physique théorique et ainsi tenter de comprendre si cette notion constitue un subterfuge ou bien constitue une avancée de la compréhension de certaines propriétés physiques, jusqu’à présent, impossibles à élucider.

Je propose de prendre comme premier exemple de la survenue de la notion d’émergence celui relatif à la théorie de la gravité quantique à boucles telle qu’elle est présentement développée par Carlo Rovelli. Il écrit : « Il n’y a pas de temps dans la gravité quantique à boucles… Qu’est-ce donc enfin que le temps, et son « écoulement ?» « Le temps doit émerger (sic), comme l’espace, du champ gravitationnel quantique[1]. » Selon l’auteur, les raisons pour lesquelles l’espace et le temps ne résultent que d’un processus émergent, c’est qu’ils ne sont pas réels car selon lui le monde est fait de champs quantiques invariants. P 177, du livre cité : « Les particules sont des quantas de champs quantiques ; la lumière est formée des quantas d’un champ ; l’espace n’est qu’un champ, lui aussi quantique ; et le temps naît à partir des processus de ce même champ. Autrement dit, le monde est entièrement fait de champs quantiques. Ces champs ne vivent pas dans l’espace-temps ; ils vivent, pour ainsi dire, les uns sur les autres : des champs sur des champs. L’espace et le temps que nous percevons à grande échelle sont l’image floue et approchée d’un de ces champs quantiques : le champ gravitationnel. Ces champs qui vivent sur eux-mêmes, sans besoin d’un espace-temps pour leur servir de substrat, et capable d’engendrer eux-mêmes l’espace-temps, sont appelés champs quantiques covariants. »

Le deuxième exemple qui fait intervenir un processus d’émergence, nous le devons à Erik Verlinde, physicien théoricien Hollandais. Sa proposition théorique[2] d’émergence concerne la gravitation. Pour lui l’espace-temps est réel à l’échelle quantique et la gravitation telle qu’elle est décrite par la Relativité Générale est émergente, voici ce qu’il nous explique : « Le but de la gravité émergente est d’obtenir les équations qui gouvernent la gravité à partir de considérations quantique en utilisant des ingrédients de la théorie de l’information quantique. Une des idées principales est que différents éléments d’espace-temps sont englués grâce à l’intrication quantique. La gravité peut être obtenue à partir d’unités microscopiques qui façonnent l’espace-temps. Ces ‘molécules d’espace-temps’ sont des unités d’information quantique (qubits) qui sont entre elles intriquées, avec l’importance de l’intrication mesurée par l’entropie d’intrication. »

Quand on lui demande combien la gravité émergente affecterait le reste de la physique ? Voici ce qu’il en pense :

« Notre perception des composants fondamentaux de la nature changerait d’une manière drastique. Nous ne penserons plus en termes de particules élémentaires et de forces fondamentales mais en unités d’information quantique. Désormais, les forces de jauge responsables des interactions électrofaibles et fortes seront comprises comme étant émergentes, et cela constitue la voie par laquelle les forces fondamentales de la nature deviendront unifiées. Dans ce sens, toutes les lois courantes de la nature seront perçues comme émergentes. »

Le troisième exemple qui fait intervenir une théorie de l’émergence nous le trouvons dans les deux articles du récent numéro de ‘Pour la Science’ de mai 2017 qui a pour titre général ‘Trous noirs intriqués : une porte vers l’espace-temps quantique’. premier article de Clara Moskowitz, affirme d’entrée : « l’espace et le temps émergeraient de l’intrication quantique de minuscules bribes d’information : telle est l’audacieuse hypothèse explorée par le projet collaboratif intitulé It from Qubit. » Qubit est la contraction de bit quantique et représente la plus petite quantité d’information : c’est la version quantique du bit informatique. Malgré les apparences ce troisième exemple diffère de celui évoqué par E. Verlinde et inversement à ce que postule C. Rovelli, voir page 22 de ‘PlS’ :« l’espace-temps serait le constituant premier originairement composé de minuscules bouts d’information. Selon cette approche, ces petits éléments, en interagissant, créent l’espace-temps et font émerger ses propriétés, telles que la courbure – dont découle la gravité. » « De quoi exactement ces bits sont-ils faits et quel type d’information contiennent-ils ? s chercheurs l’ignorent. Mais curieusement cela ne semble pas les déranger. Ce qui compte, ce sont les relations entre les bits eux-mêmes. Toute la richesse vient de ces relations collectives. Ici, l’élément crucial, ce n’est pas les constituants, mais la manière dont ils s’organisent. »

A la lecture de ces quelques lignes, il est légitime d’exprimer un certain scepticisme à propos du recours à cette thèse de l’émergence. Celle-ci est actuellement proposée après des décennies infructueuses de mise en évidence d’une véritable théorie de la gravité quantique confirmée par l’observation et donc acceptée par la communauté scientifique. Est-ce que ce recours à l’émergence ne serait qu’un moyen détourné qui masquerait un renoncement à savoir reconnaître, identifier, exprimer, les propriétés de la nature à l’échelle quantique ? Ce qui se dit dans l’article à ce niveau c’est qu’après tout peu importe ce qui précède ce que l’on fait apparaître en accord avec le processus de l’émergence. En conséquence, avec cette marge de liberté que s’octroient les théoriciens en question, ce qu’ils font apparaître, in fine, par l’intermédiaire du processus d’émergence relève plutôt de l’intuition, de la conception, a priori des auteurs, et non pas le fruit d’un raisonnement scientifique rigoureux, habituel, qui puisse être compris et partagé, pas à pas, par les collègues physiciens. N’oublions pas que l’interaction en jeu c’est l’intrication dont nous connaissons définitivement sa bizarre phénoménologie sans comprendre quoi que ce soit de sa nature. Donc, il est évident qu’il faut garder une bonne distance intellectuelle à l’égard de ce qui est énoncé dans le cadre de cette thèse de l’émergence, ainsi je cite, p.23 : « Selon une idée fascinante (sic) proposée récemment, l’étoffe de l’espace-temps serait tissée par l’intrication quantique des éléments sous-jacents d’espace-temps, qu’elle qu’en soit la nature. » « La gravité et l’espace-temps pourraient n’être que le produit final, en trois dimensions, de l’intrication des qubits dans un espace n’ayant seulement que deux dimensions. » Certes les chercheurs (déjà +200) qui travaillent sur ce sujet n’ignorent pas l’étendue du chantier et ses arêtes, mais cette propension à mettre la charrue devant les bœufs peut nourrir un certain scepticisme. P.24 : « Une fois que les différents aspects de l’intrication seront mieux compris et maitrisés, les chercheurs comprendront peut-être comment l’espace-temps émerge de ce phénomène (sic). »

Le deuxième article de ‘PlS’ est écrit par J. Maldacena, il a pour titre : ‘l’intrication quantique est-elle un trou de ver ?’, par un raccourci fréquent on écrit EPR=ER, conjecture proposée Maldacena et L. Susskind en 2013. EPR fait référence à l’article fondateur de la propriété de l’intrication et ER fait référence à l’article fondateur du trou de ver. D’un point de vue théorique les trous de ver laissent apparaître des propriétés qui pour nous ne peuvent être que de l’ordre de la fiction. Ainsi un trou de ver permet sur le papier à un vaisseau spatial ou tout autre objet d’entrer par une extrémité et en sortir instantanément à son autre extrémité située dans un lieu et un temps différent. Les trous de ver à la Einstein-Rosen (ER) ne sont pas traversables, ils s’effondrent avant que l’on se présente devant. Selon les travaux de J. Maldacena et d’autres, des trous noirs objets quantiques par excellence pourraient être intriqués, plus précisément puisque : « vus de l’extérieur, les trous noirs ressemblent à des systèmes quantiques ordinaires, rien ne nous empêche (en théorie) de considérer deux trous noirs intriqués et très distants l’un de l’autre. Chacun a un grand nombre de micro-états quantiques possibles. Et l’on peut imaginer (sic) une intrication telle que chaque micro-état quantique du premier trou noir est corrélé avec le micro-état correspondant du second. A partir de là nous suggérons qu’une paire de trous noirs aux micro-états ainsi intriqués produirait un espace-temps dans lequel le trou de ver relierait l’intérieur des deux trous noirs. En d’autres termes, l’intrication quantique crée une connexion géométrique entre les deux trous noirs. » « Si l’équivalence entre trous de ver et l’intrication quantique se généralise (sic), la connexion spatiale pourrait impliquer de minuscules structures quantiques qui ne suivraient pas notre vision habituelle de la géométrie. Nous ne savons toujours pas décrire ces géométries microscopiques, mais l’intrication de ces structures pourrait, d’une manière ou d’une autre, donner naissance à l’espace-temps lui-même. C’est comme si l’intrication pouvait être considérée comme un fil reliant deux systèmes. Quand la quantité d’intrication augmente, nous avons beaucoup de fils, et ensemble ces fils pourraient tisser la trame de l’espace-temps. Dans cette représentation, les équations de la relativité d’Einstein régissent les connexions et les reconnexions de ces fils, tandis que la physique quantique serait l’essence de la construction de l’espace-temps. »

Je cite largement J. Maldacena parce que ses analyses et ses résultats scientifiques sont réputés. Ci-dessus on lit sa conviction que l’émergence de l’espace-temps résulte d’un processus qui se trame dans la nature et qu’il y aurait enfin matière à unifier relativité générale et mécanique quantique.

Dans plusieurs articles (notamment celui du 9/12/2015) j’ai proposé que l’intrication quantique entre deux objets devait s’expliquer, du point de vue de l’observateur, par l’absence d’espace-temps qui relie les objets car l’intrication se produit à l’origine dans un temps < TpS. Donc l’observateur ne peut fonder le temps et en corollaire l’espace, et en conséquence aucune différenciation des objets ne peut opérer. Etant donné l’interprétation la plus courante du trou de ver, j’accepte l’égalité EPR = ER, qui conforteraient ma conception de l’intrication et sa cause. Mais la conséquence est remarquable car selon mon scénario l’espace-temps témoigne de la présence du sujet pensant qui cogite à propos des lois de la nature et contrairement à ce que Maldacena nous dit, les ingrédients basiques de l’espace-temps ne sont pas dans la nature. Effectivement mon hypothèse est dérangeante pour la majorité des physiciens car ils sont toujours convaincus que les connaissances qu’ils mettent en évidence sont objectives et correspondent donc à un ‘voir’ et à un ‘connaître’ de ce qui est intrinsèque à la réalité : celle de la nature, c’est-à-dire ce qui est en dehors de nous : êtres humains. Il y a des positions dont le clivage est moins net avec les miennes, c’est le cas avec Mermin, avec Chalmers et les Qbists : voir article du 27/05/2014, mais le chemin de la convergence sera long parce que tortueux.

Toutefois, le fait que des physiciens absolument réalistes soient obligés de s’appuyer sur un concept d’émergence pour qu’à partir de celle-ci, ils soient capables de discerner des objets, des concepts, qui puissent s’insérer dans leur discours scientifique, devrait les interpeller sur la validité de leurs convictions de producteur d’un savoir universel. Ils devraient se demander pourquoi : ils ne lèvent le voile de la nature qu’à partir d’un certain stade en laissant dans une étonnante approximation voire dans l’épaisseur de l’ignorance des causes profondes et premières.

La notion d’émergence me convient, pas comme un recours face à la défaillance de la prédiction théorique, mais très explicitement je la conçois a priori lorsque je précise la conception rassemblée de ma métaphysique : « Au sein d’une éternité, parmi tous les possibles, l’anthrôpos ne cesse de creuser sa compréhension du monde… ». Dans cette formule le battement du temps est un symptôme, celui de la présence de l’anthrôpos et l’émergence est la conséquence de l’activité permanente du creusement vers la compréhension de la nature physique du monde.

 

[1] ‘Par-delà le visible’, p. 162, édit, O. Jacob, 01/2015

[2] Voir article du Cern-courier, May 2017

Partager cet article
Repost0
7 mai 2017 7 07 /05 /mai /2017 06:15

La science a besoin de raison pour produire de la confiance

 

Dans des articles principaux du 11/04/2017 et du 16/01/2016 et quelques autres, j’ai exprimé une sérieuse inquiétude à propos de ce que j’analyse comme étant une dérive redoutable de la pensée scientifique en tant que discipline ayant l’objectif d’accéder à des connaissances rigoureuses et partageables. Il y a maintenant quelques décennies que cette discipline prend des chemins qui fourvoient les fondements et les contraintes de celle-ci. Ce qui est impressionnant c’est que cela prend de l’ampleur avec l’impossibilité toujours actuelle de sortir des impasses théoriques aussi bien en cosmologie, en physique des particules élémentaires et plus particulièrement celle des neutrinos. Cette fuite en avant s’explique en partie à cause des moyens technologiques de plus en plus fabuleux dont l’humanité dispose et disposera ainsi que des moyens de calcul qui laissent croire que l’on peut voir originalement, par simulation, ce que l’on est incapable de penser. La communauté scientifique est dans l’incapacité de proposer de nouveaux paradigmes qui donneraient l’élan nécessaire pour dépasser les impasses actuelles. La nature ne nous dévoilera jamais ces paradigmes (naturellement) puisqu’ils ne sont que des productions de l’intelligence humaine engagée dans le dépassement perpétuel pour que la Nature nous dévoile ses lois et ses propriétés. C’est une praxis qui fut inhérente à l’histoire de l’émancipation de l’humanité, praxis qui continue de l’être pour son émancipation future, c’est-à-dire la nôtre.

C’est avec beaucoup d’intérêt et de satisfaction que j’ai pris connaissance d’un article du 05/04 dans la revue Nature : ‘Science needs reason to be trusted’, de Sabine Hossenfelder, qui nous dit avec beaucoup de lucidité et de sincérité, là où elle exerce son métier de physicienne, pourquoi nous nous rejoignons pour exprimer nos états d’alerte. Elle indique aussi – un point de vue que je partage – que les physiciens et spécialistes des sciences exactes ont tort de considérer que leur activité professionnelle les rend imperméables aux influences sociétales et à ses valeurs qui peuvent être versatiles. Sabine Hossenfelder exerce à l’institut des études avancées de Francfort.

Ci-joint le texte de l’article traduit par Michel, Alain, François, Daniel, dont j’assume la responsabilité de son assemblage.

« Je suis physicienne dans le domaine : théorie de la physique des particules, et je doute de la validité de la recherche dans ce domaine. Je sais que c’est déjà gênant mais il y a encore pire. Je crains que le public ait de bonnes raisons de ne pas faire confiance aux scientifiques et – triste mais vrai – moi-même je trouve également qu’il est de plus en plus difficile de leur faire confiance.

Au cours des dernières années la confiance en la science a été sévèrement mise en question par la crise de la reproductibilité. Ce problème a principalement touché les sciences de la vie où il arrive que de nombreuses découvertes validées par des pairs ne peuvent être reproduites de manière indépendante. Les tentatives pour remédier à cela se sont concentrées sur l’amélioration des dispositions actuelles relatives à la fiabilité statistique et la façon dont elles sont appliquées en pratique. Des changements de ce type ont été mis en œuvre pour améliorer l’objectivité scientifique ou – de manière plus brutale – empêcher les scientifiques de se mentir et de mentir aux autres. Ils ont été conçus pour rétablir la confiance.

La crise de la reproductibilité est un problème mais au moins c’est un problème qui a été identifié et qui est traité. Néanmoins, où je suis, dans un domaine de recherche qui peut, grosso modo être défini comme les fondements de la physique – cosmologie, physique au- delà du modèle standard, fondements de la mécanique quantique – je suis au contact direct d’un problème bien plus important.

  1. travaille dans l’élaboration des théories. Notre tâche, consiste en gros à trouver des nouvelles – et d’une certaine façon meilleures – explications à des observations déjà existantes et à en tirer ensuite des prédictions pour tester ces nouvelles propositions prédictives. Nous n’avons pas de crise de reproductibilité car au départ nous ne disposons pas de données – toutes les observations disponibles peuvent s’expliquer par des théories bien établies (à savoir : le modèle standard de la physique des particules élémentaires et le modèle standard de la cosmologie : LCDM).

Mais nous avons une crise d’une toute autre nature : nous produisons une énorme quantité de théories nouvelles et pourtant aucune d’entre elles n’est jamais confirmée expérimentalement. Appelons cela la crise de surproduction. Nous utilisons les méthodes reconnues dans notre discipline, constatons qu’elles ne marchent pas mais n’en tirons aucune conséquence. Comme une mouche frappant une vitre, nous nous répétons sans cesse, en attendant de nouveaux résultats

Quelques-uns de mes collègues ne seront pas d’accord pour reconnaître qu’il y a une crise. Ils vous diront que nous avons fait de grands progrès au cours des quelques dernières décades (en dépit du fait qu’il n’en est rien sorti) et en conséquence il est normal qu’il y ait un ralentissement du progrès de la connaissance comme lorsqu’un champ arrive à maturité. Ce n’est pas le 18e siècle et découvrir aujourd’hui sur le plan fondamental une nouvelle physique n’est pas aussi simple que cela a été. Cela se comprend. Mais mon problème ce n’est pas le chemin du progrès, per se, à la vitesse de l’escargot, c’est que les pratiques actuelles des développements théoriques contemporains montrent un défaut de la méthode scientifique.

Permettez-moi d’illustrer ce que je veux dire :

En décembre 2015 les ensembles CMS et Atlas du LHC ont présenté une évidence d’un écart par rapport au modèle standard de la physique avec, approximativement, une résonnance de masse à 750 GEV. L’excèdent est apparu dans le canal de désintégration avec deux photons et avait un faible niveau de signification statistique. Cela ne correspondait à rien de ce qui avait été jusqu’à présent prédit. En aout 2016, de nouvelles données ont révélé que l’excédent était simplement une fluctuation statistique. Mais avant que ceci soit mis en évidence, les physiciens des hautes énergies ont produit plus de 600 articles pour expliquer le signal supposé. Beaucoup de ces articles furent publiés dans les principaux journaux de ce domaine. Aucun d’entre eux n’a décrit la réalité.

Actuellement, la communauté des physiciens des particules est toujours sujette aux marottes et aux modes. Bien que ce cas soit extrême à la fois par le nombre de participants et par leur célérité, il y eut auparavant de nombreux cas similaires. Dans la physique des particules, se précipiter sur un sujet chaud dans l’espoir d’obtenir des citations est si commun qu’il a un nom : ‘la chasse à l’ambulance’, en référence (vraisemblablement apocryphe) à la pratique des avocats suivant les ambulances dans l’espoir de trouver de nouveaux clients.

On pourrait argumenter que même si toutes les explications de cette excroissance de 750 GEV étaient fausses, c’était cependant un bon exercice pour l’esprit, une sorte d’opération de forage pour atteindre un vrai résultat. Je ne suis pas convaincue que ceci soit du temps bien utilisé, mais d’une façon ou d’une autre, chasser l’ambulance n’est pas ce qui m’inquiète. Ce qui me préoccupe, c'est que cette quantité produite de documents est une démonstration frappante de l'inefficacité des critères de qualité actuels. Si seulement quelques mois suffisent pour produire plusieurs centaines d'’explications pour un accident statistique, alors à quoi ces explications seraient-elles bonnes ?

Et ce n'est pas seulement en physique théorique des hautes énergies. On le constate aussi en cosmologie, où les modèles d'inflation abondent. Les théoriciens introduisent un ou plusieurs nouveaux champs et potentiels qui régulent la dynamique de l'Univers avant qu’ils ne se désintègrent en matière courante. Les données d'observation actuelles ne permettent pas de distinguer ces différents modèles. Et même en disposant de nouvelles données, il restera encore beaucoup de modèles pour écrire des articles. Selon mon estimation, la littérature en contient actuellement plusieurs centaines.

Pour chaque choix de champs et potentiels d'inflation, on peut calculer des observables, puis passer aux champs et potentiels suivants. La probabilité que l'un de ces modèles décrive la réalité est infime - c'est un jeu de roulette sur une table infiniment grande. Mais selon les critères de qualité actuels, c'est une science de première qualité.

Ce syndrome de comportement se manifeste également en astrophysique, où les théoriciens évoquent des champs pour expliquer la constante cosmologique (qui est bien expliquée par le fait que c’est bien une constante) et suggèrent des «secteurs cachés» de plus en plus compliqués de particules qui pourraient être ou n’être pas de la matière noire.

Il n’est pas dans mon intention de rejeter indistinctement toute cette recherche comme inutile. Dans chaque cas, il y a de bonnes raisons pour que le sujet mérite d'être étudié et conduise à de nouvelles idées - raisons que je n’ai pas la place de développer ici. Mais en l'absence de mesures de bonne qualité, les idées qui s’imposent sont les plus fructueuses, même s'il n'y a aucune preuve que la fécondité d'une théorie soit en corrélation avec sa justesse. Permettez-moi de souligner que cela ne signifie pas nécessairement qu'individuellement les scientifiques modifient leur comportement pour satisfaire leurs pairs. Cela signifie seulement que les tactiques qui survivent sont celles qui se reproduisent.

Beaucoup de mes collègues croient que cette abondance de théories sera éventuellement réduite grâce aux données factuelles. Mais dans les processus de fondation de la physique, il a été extrêmement rare d’éliminer un modèle quel qu’il soit. La pratique admise est au contraire d’ajuster le modèle pour qu’il continue à être en accord avec le manque de preuves empiriques.

La prédominance d’hypothèses fertiles et facilement modifiables a des conséquences. Etant donné que les expériences prouvant les fondations des théories physiques sont devenues tellement couteuses et tellement longues à mettre sur pied, nous devons examiner soigneusement lesquelles d’entre elles sont aptes à révéler de nouveaux phénomènes. Dans cette évaluation les avis des théoriciens sur les modèles susceptibles d’être corrects, jouent un grand rôle. Bien sûr les expérimentateurs mettent en avant leur propres délais, mais c’est la théorie qui devrait éclairer leur mission. Quoi qu’il en soit ceci signifie que si les théoriciens sont perdus, les expériences deviennent moins aptes à produire de nouveaux résultats interprétables, en conséquence les théoriciens ne peuvent s’appuyer sur de nouvelles données et le cercle (vicieux) se referme.

Il n’est pas difficile de voir comment nous en sommes arrivé à cette situation. Nous sommes jugés sur le nombre de nos publications – ou au moins nous pensons être jugés ainsi – et l’exigence d’éléments qualitativement meilleurs pour assurer le développement des théories amputerait la production de celles-ci. Mais que la pression pour publier récompense la quantité au détriment de la qualité a souvent été dit dans le passé et je ne veux pas encore ajouter d’autres reproches sur les éléments mal conçus pour assurer un succès scientifique. Il est évident que de tels reproches n’ajouteraient rien.

Des complaintes sur la pression pour publier ne servent à rien car cette pression est seulement un symptôme et pas la maladie. Le problème sous-jacent est que la science comme toute autre activité collective humaine est soumise à la dynamique sociale. A la différence de la plupart des autres activités humaines collectives, les scientifiques devraient reconnaitre les menaces portant sur l'objectivité de leur jugement et trouver les moyens de les éviter. Mais ce n'est pas ce qui arrive.

Si les scientifiques sont sélectivement exposés aux informations émanant de pairs pensant la même chose, s'ils sont punis pour ne pas suffisamment attirer l'attention, s'ils font face à des obstacles pour quitter des domaines de recherche promis au déclin, ils ne peuvent être comptés comme étant objectifs. C'est la situation dans laquelle nous sommes actuellement et nous devons l'accepter.

Pour moi, notre incapacité -- ou peut-être même notre mauvaise volonté -- à limiter l'influence des biais sociaux et cognitifs au sein des communautés scientifiques est une sérieuse défaillance du système. Nous ne protégeons pas les valeurs de notre discipline. La seule réponse que je vois, sont des tentatives pour rendre les autres responsables : les agences de financement, les administrateurs de l'enseignement supérieur ou les décideurs politiques. Mais aucun de ces acteurs n'est intéressé à gaspiller de l'argent dans des recherches inutiles. Ils comptent sur nous, les scientifiques, pour leur dire comment la science fonctionne.

J'ai indiqué des exemples de ces manquements à l'autocorrection dans ma propre discipline. Il semble raisonnable de penser que la dynamique sociale est plus influente dans les domaines privés de données, ainsi les fondements de la physique représentent-ils peut être un cas extrême. Mais à la base, le problème affecte toutes les communautés scientifiques. L'an dernier, la campagne du Brexit et la campagne de la présidentielle américaine nous ont montré à quoi ressemblent les politiques post-factuelles -- un développement qui peut être complétement perturbant pour quiconque est doté d'un bagage scientifique. Ignorer les faits est vain. Mais, nous aussi, nous ignorons les faits : il n'y a aucune évidence que l'intelligence fournisse une immunité contre les biais sociaux et cognitifs, aussi cette présence doit être considérée comme défaut supposé. Et tout comme nous avons des règles pour éviter des biais systématiques dans l'analyse des données, nous devrions également avoir des lignes directrices pour éviter les biais systématiques découlant de la façon dont les cerveaux humains traitent l'information.

Cela signifie, par exemple, que nous ne devrions pas pénaliser les chercheurs qui travaillent dans des domaines « impopulaires », ni filtrer les informations en utilisant les recommandations d’amis, ni utiliser les techniques de marketing, et nous devrions agir contre la crainte de l’échec avec des incitations à changer de domaine, et donner plus d’importance aux connaissances qui ne sont pas encore largement partagées (Pour éviter le «biais d'information partagée»). Par-dessus tout, nous devrions commencer à prendre le problème au sérieux.

Pourquoi n'est-il pas pris au sérieux jusqu'à présent ? Parce que les scientifiques font confiance à la science. Cela a toujours fonctionné ainsi, et la plupart des scientifiques sont optimistes sur le fait que cela continuera - sans qu’ils aient à agir. Mais nous ne sommes plus au dix-huitième siècle. Les communautés scientifiques ont radicalement changé au cours des dernières décennies. Nous sommes plus nombreux, nous collaborons davantage et nous partageons plus d'informations que jamais. Tout cela est amplifié par les commentaires dans les réseaux sociaux, et il est naïf de croire que quand nos communautés changent nous n’aurions pas aussi à réévaluer nos méthodes.

Comment pouvons-nous blâmer le public d'être mal informé parce qu'ils vivent dans des bulles sociales si nous en sommes également coupables ? »

 

Partager cet article
Repost0
28 avril 2017 5 28 /04 /avril /2017 14:46

A propos de la mécanique quantique standard : recherche de déviations.

La mécanique quantique standard continue d’être auscultée pour tenter de découvrir des déviations par rapport à la conception standard qui s’est imposée depuis maintenant un siècle. L’article d’Alain Aspect du 16/12/2015 : « Closing the Door on Einstein and Bohr’s Quantum Debate » dans la revue de l’American Physical Society, a contribué à valider la complétude de cette conception standard. Malgré ceci, cela ne clôt pas pour autant la recherche de phénomènes, de propriétés, qui n’auraient pas encore été décelés. Récemment, il y en a au moins une qui était recherchée par une équipe de l’université de Vienne dont les conclusions ne permettent pas de dire qu’ils ont débusqué une propriété originale non standard.

Dans ce bref article, je souhaite faire connaître ce résultat négatif parce qu’en creux cela conforte un certain nombre de mes hypothèses. Je me réfère donc à l’article original dans Phys.Org du 21/04/2017 : «The search for deviations from standard quantum mechanics » : « La recherche de déviations de la mécanique quantique standard »

En résumé, il est relaté que s’il est pensé au moins une propriété nouvelle éventuelle, non prescrite par le formalisme mathématique standard, alors il faut en premier lieu exploiter un formalisme mathématique nouveau. La première étape de la tentative des chercheurs de l’université de Vienne a consisté à sélectionner un formalisme mathématique différent de celui exploité par la description standard. Ils proposent donc de substituer aux nombres complexes habituels des nombres hypercomplexes. Ceux-ci correspondent à une généralisation des nombres complexes (par exemple les nombres hypercomplexes sont utilisés en physique quantique pour calculer la probabilité d'un événement en tenant compte du spin de la particule. En négligeant le spin, les nombres complexes « normaux » suffisent.)

Dans une première étape il faut donc s’assurer qu’avec les nombres hypercomplexes on retrouve tous les résultats confirmés dans le cadre de la mécanique quantique standard. Une fois que cette étape est franchie il s’agit d’évaluer théoriquement ce qui pourrait être prédit au-delà du cadre standard. Justement dans le nouveau cadre certaines opérations ne commutent pas alors qu’avec les nombres complexes il y a commutation. Expérimentalement cela signifierait que dans un interféromètre au-delà du miroir semi transparent un chemin spécifié, parcouru par le photon, plutôt que l’autre, non spécifié, n’est pas indifférent (non commutation) à ce qui serait observable in fine dans l’interféromètre.

La différenciation des deux chemins possibles du photon dans l’interféromètre est assurée par l’introduction, dans un, d’un dispositif qui accélère la lumière (avec un méta-matériel) et dans l’autre, un matériel classique qui ralentit la lumière. Evidemment ces caractérisations des chemins ne sont pas exploitables par l’observateur pour qu’il puisse savoir si le photon est passé par un chemin plutôt qu’un autre. L’observateur est maintenu dans l’ignorance spatio-temporelle du chemin effectivement suivi par le photon et c’est essentiel. Ce que les physiciens observent expérimentalement c’est que la règle de non commutation déduite de l’introduction des nombres hypercomplexes ne se vérifie pas avec ce dispositif expérimental particulier.

En fait ce que les chercheurs, auteurs de ce travail, pensent a priori c’est que ce qui est observé serait tributaire des propriétés intrinsèques (modifiées) de objets quantiques. L’idée qui est mienne c’est que ce que l’on observe in fine dans l’interféromètre dépend uniquement si l’observateur a une information spatio-temporelle ou pas sur le chemin effectivement suivi par le photon. Dans un cas, ce qui est observé, ce sont des impacts d’objets ponctuels dans l’autre cas, ce sont des franges d’interférences (qui résultent de l’aspect ondulatoire).

Selon mon hypothèse fondamentale, l’espace, le temps, et en l’occurrence l’espace-temps sont fondés par l’être humain, c’est-à-dire que ce sont des propres de l’homme. Les apparaître différents à l’observateur : onde/objet ponctuel, sont déterminés par sa connaissance ou pas d’une information spatio-temporelle à propos du chemin suivi par l’objet (ici, un photon). La mécanique quantique nous confronte au fait que l’être humain est un être façonné par les lois classiques de la nature. C’est donc en fonction de ce bagage hérité au cours de son évolution qu’il décrypte progressivement les lois de la nature. Le monde de l’infiniment petit ne nous étant pas accessible directement, aucune conception réaliste de ce monde ne peut être établie contrairement à ce qu’avait voulu instaurer Einstein avec ténacité. Comme le rappelle l’article d’Alain Aspect c’est la version de l’école de Copenhague qui est juste et pas celle des réalistes.

Ce que nous observons n’est qu’un apparaître et nous enregistrons un savoir qui est conditionné par nos capacités cérébrales déterminées par le fait que nous sommes des sujets pensants, observateurs, moulés par une intelligence et des références du monde classique. J’ai eu plusieurs fois l’occasion d’indiquer que c’est un stade provisoire de notre faculté de décrypter le monde physique : voir article du 26/09/2015 ‘Non, on ne pense pas quantique. Pas encore !’. Ce stade provisoire pourra être franchi, lorsque nous atteindrons une compréhension nouvelle de nos facultés cérébrales d’investigations comme je l’ai proposé dans les articles du 21/09/2016 et du 10/10/2016.

Partager cet article
Repost0
11 avril 2017 2 11 /04 /avril /2017 12:11

La recherche doit-elle voir toujours plus grand ?

Dans le numéro de 'La Recherche', du mois de Mars, sont proposés plusieurs articles sous la rubrique : « Big science », La recherche doit-elle voir toujours plus grand ? A propos de ce thème générique, je considèrerai les sujets qui recouvrent essentiellement le domaine de la physique.

  • Grands instruments, grandes équipes et/ou gros budgets caractérisent une nouvelle manière de faire de la science. De plus en plus répandue dons tous les champs de recherche, elle est à l'origine de plusieurs découvertes marquantes de ces dernières années. Mais les interrogations, les doutes, les oppositions que ce modèle suscite, dans la communauté scientifique et au-delà, soulignent à quel point il est crucial de bien mûrir un projet de grande envergure afin d'en faire un succès. » Ce paragraphe introductif, que l'on peut lire page 81, présente justement la problématique qu'engendre le développement et l'exploitation de ce qui se réfère à la Big science ». A juste raison sont présentés les succès significatifs qui sont dus à son recours. Mais sont aussi mis en exergue les projets dont on peut craindre qu'ils ne soient que des fuites en avant. Fuites en avant quand les projets (d’expériences et/ou d’observations) ne sont pas suffisamment précédés par un minimum de prédictions théoriques qui cernent un spectre d’hypothèses hiérarchisées permettant de valider ou invalider quelques-unes de celles-ci.

Exemple, p.86 : « Mais la big science a aussi ses détracteurs ou, tout au moins, ses sceptiques. Simon White, directeur de recherche à l'institut Max-Planck d'astrophysique, à Garching, en Allemagne, a ainsi exprimé de multiples doutes quant aux grands projets de recherche sur l'énergie noire, cette forme d'énergie hypothétique nécessaire, par exemple, pour expliquer l'accélération de l'expansion de l'univers. Il redoute surtout l'impact possiblement néfaste de ces projets sur la recherche en astrophysique. Entre autres, que leur bénéfice réel soit mol évalué et, par conséquent, conduise à engloutir les crédits de recherche dans la construction d'instruments très coûteux mais apportant finalement des avancées limitées. »

L'aspect financier n'est pas secondaire, mais à mon sens cet aspect n'exprime pas l'inconvénient essentiel. Pour illustrer mon propos, je prends pour exemple le cours réalisé par Françoise Combes au Collège de France 2016-2017, intitulé :'Energie noire et modèles d'univers'. Ce cours n'a pas pu être autrement que très impressionniste car notre compréhension des choses est encore trop vague, franchement fluctuante, insuffisamment confirmée sur le plan observationnel, et récemment des nouvelles mesures affaiblissent sérieusement la thèse de l'accélération de l'expansion de l'univers dont l'énergie noire en serait la cause. Bref, on a pu constater que F. Combes se trouvait sur le fil du rasoir au cours des séances successives qui ont été conclues par celle du 06/02 avec le titre : 'Perspectives avec Euclid, WFIRST, LSST, SKA'. Ces acronymes désignent des télescopes spatiaux ou terrestres, qui vont entrer en activité dans la prochaine décennie, censés lever le voile de la validité ou pas de l'hypothèse de l’énergie noire. A ce niveau, on entend l'inquiétude de Simon White à propos de ces perspectives qui représentent au total des engagements financiers de l'ordre de 4 ou 5 milliards d'euros ou dollars.

Pour mon compte se trouve illustré, avec ces perspectives annoncées, ma préoccupation relative à une fuite en avant. En effet, ce cours n'a pas pu indiquer une quelconque avancée théorique, si ce n'est la présentation d'une panoplie extrêmement large d’hypothèses sans qu'aucune hiérarchie parmi celles-ci ne puisse être affirmée. Il faut de plus prendre en compte qu’il y a déjà en action deux voire trois dispositifs d'observations et de mesures qui visent à détecter l'action d'une énergie noire dans l'univers : SDSS, DES, BOSS, autres acronymes désignant les dispositifs actuellement en activité. Aucune conclusion ne peut être extraite de ces présentes observations. De plus, un article qu’il n’est pas possible de sous-estimer, publié par des théoriciens, le 3 avril, nous indique que l’énergie noire pourrait n’être qu’une illusion. L'irrésistible propension à définir de nouveaux appareils d’observation, et à effectivement les construire, est justifiée par la progression remarquable des technologies. Ce qui permet de disposer de caméras et de télescopes de plus en plus sensibles et qui, de plus, ramassent par unité de temps des quantités d'informations de plus en plus importantes. L'impressionnant développement de la capacité de traitement informatique de ces gigantesques quantités d'informations recueillies autorisent à considérer que l'aire de la méga science, sans pensée préalable, ne peut que prospérer.

Pourtant, pour notre réflexion nous disposons d'un redoutable exemple illustrant le fait qu'une méga technologie couplée à une méga capacité de calcul ne conduit pas systématiquement à de méga avancées scientifiques, loin s’en faut. On ne peut pas glisser sous le tapis l’inquiétante déconvenue internationale provoquée par l'absence de résultats significatifs au CERN depuis trois bonnes années, alors que toutes les conditions optimales de productions de résultats ont été réunies pendant l'année 2016 grâce au fonctionnement idéal du LHC, aucune publication originale, significative, n'a été produite. Bref aucune nouveauté originale n’a pu être discriminée dans les détecteurs. Mais nous ne pouvons pas exclure qu’une ou plusieurs nouveautés ont été générées, sans que nous puissions les voir parce que non précédées par un minimum de regard théorique.

C’est dans l'article d'entrée en responsabilité de Fabiola Gianetti, en tant que Directrice Générale du CERN le 01/01/2016, que d'une façon explicite j'ai lu l'expression de la croyance qu'il suffisait de se reposer sur le développement de Ia puissance technologique pour que tous les espoirs soient permis. L'expression de cette croyance est contenue dans cette phrase : « Si une nouvelle physique est là, nous pouvons la découvrir, mais c'est entre les mains de la nature. » J'ai dit quel était le dépit que m'inspirait cette appréciation erronée dans l'article du 16/01/2016 : « Et si notre pensée était mal placée ! ». L'histoire des découvertes scientifiques nous indique que l'homme ne découvre que ce qu'il a préalablement conçu théoriquement dans l'ordre du possible et donc s'il a conçu un filet intellectuel capable de recueillir dans ses mailles des signes interprétables dans un sens ou dans un autre, sinon la nature ne peut être, pour nous, que muette.

Prenons un exemple significatif, de filet intellectuel préalable, celui qui a mené à la mise en évidence du Fond diffus Cosmologique. Petit rappel historique : quand A. Penzias et R. Wilson ont observé dans leur antenne nouvelle, qu'ils testaient en 1965, un bruit de fond plutôt homogène et plutôt isotrope, ils étaient intrigués. En tant qu'électroniciens ils étaient inquiets car pour eux c'était un bruit qui pouvait laisser supposer un défaut de leur antenne prototype. N'arrivant pas à éliminer ce qui pour ces électroniciens était un bruit parasite, ils échangèrent leurs préoccupations avec des physiciens. Il s'est trouvé que ceux-ci connaissaient les travaux avant-gardistes du physicien théoricien et cosmologiste George Gamow ainsi que ceux de Ralph Alpher et Robert Herman concernant l'hypothèse d'un univers naissant dans une phase primordiale et prédisant un rayonnement rémanent. Le filet intellectuel, jeté par ces physiciens théoriciens dans la mer d’une connaissance éventuelle, recueillait dans ses mailles ce qui bien ailleurs était détecté comme un bruit parasite. Un prix Nobel fut attribué à A. Penzias et à R. Wilson, pas à Gamow.

Il est intéressant de citer un exemple très actuel où le recours à la 'Big science' est complètement justifié puisque éclairée par de l’intelligence prédictive et ainsi permettra peut-être de satisfaire des curiosités multiples à propos des trous noirs massifs et hypermassifs qui sont au centre des galaxies. En effet au cours de ce mois d'avril, plus précisément en ce moment dans la période du 4 au 14 avril, il est programmé d'obtenir une image du cœur de notre galaxie où réside un trou noir qui pèse M = 4 millions de masse solaire et du cœur de la galaxie M87 qui se trouve à une distance de 53,5 millions d'années-lumière de la terre ayant un trou noir pesant M = 6 milliards (sic) de masse solaire. Pour obtenir ce type d'image il faut constituer pendant la période d'observation un télescope virtuel qui résulte de la combinaison en temps réel de huit observatoires de 4 continents et d'Hawaii et ainsi obtenir un télescope unique avec un pouvoir de résolution qui a la taille de la terre. Cette opération typiquement « Big science », appelée : Télescope Horizon d'Evénement', acronyme : EHT (Event Horizon Telescope) devrait permettre de révéler le bord de ces deux trous noirs nommé : horizon des événements. Le rayon de l'horizon est défini par l'équation R = 2GM/C2. EHT doit permettre de voir le bord r > R du trou noir car il est entouré d’un disque d'accrétion de matière très chaude qui spirale autour de l'horizon jusqu'à ce que celle-ci soit engloutie irréversiblement. Avant ce terme, spiralant à très grande vitesse, la matière émet de la lumière et c'est ce que EHT veut capter sur des longueurs d'ondes de 0.87 à 1.3 mm. Dans la région d'un trou noir la gravitation est extrême et le disque d'accrétion sera vu déformé (prévision de la Relativité Générale) au point que la partie arrière du disque sera visible.

Il faudra récolter chaque nuit d'observation 2.1015 bytes de données (ce qui représente la même quantité collectée au cours d'une annualité de fonctionnement du LHC). Ensuite il s'agira de traiter ces données et les analyser grâce à des réseaux d'ordinateurs pendant un semestre et ensuite l'étude scientifique commencera. Si tout se déroule comme prévu, les premières publications seront disponibles à la mi-2018.

Ci-joints 2 articles annonçant que l’opération d’observation est commencée :

Worldwide telescope attempts to image a black hole. Le 6 Avril

An attempt to obtain the first ever image of the Milky Way's supermassive black hole has begun. The Earth-sized Event Horizon Telescope (EHT) has launched 10 days run to obtain the portrait via very-long-baseline interferometry (VLBI). The telescope comprises eight radio dishes across the globe, including the Atacama Large Millimeter/submillimeter Array (ALMA) in Chile, the South Pole Telescope (SPT) in Antarctica, and the IRAM 30 metre telescope in Spain. Since its first measurements in 2007, the EHT has yielded tantalizing results even without the full array of telescopes. Now, all eight are linked and looking at our black hole, Sagittarius A* (Sgr A*), as well as the even bigger one in the neighbouring galaxy M87. Although black holes are inherently invisible because of their extreme density and gravitational field, the researchers hope to image the point where matter and energy can no longer escape – the so-called event horizon. "This week heralds an exciting and challenging endeavour for astronomy," says France Córdova, director of the funding agency National Science Foundation. For more information on the EHT, see our feature "Portrait of a black hole

EHT (Event Horizon Telescope) va acquérir une première image du trou noir de notre galaxie, la Voie lactée. Comment ? En utilisant un réseau de radiotélescopes répartis sur la planète pour former un télescope virtuel de quelque 5.000 kilomètres de diamètre. Les explications de Michael Bremer, astronome et responsable Iram du projet EHT.

Ce qu'il faut retenir :

  • En associant les instruments de sept observatoires répartis sur les deux hémisphères, le projet EHT crée un télescope virtuel d'environ 5.000 kilomètres de diamètre.
  • Il sera utilisé, tout d'abord, pour obtenir une image du trou noir au centre de notre galaxie. Pour être réalisée, elle nécessitera plusieurs mois de traitement.
  • C’est en fait l'horizon du trou noir qui sera vu, dans le domaine submillimétrique.

Alors qu'il semblait impossible d'observer le trou noir au centre de la Voie lactée, une équipe internationale d'astronomes, dont des Français, parie le contraire. Depuis quelques jours, ils observent Sagittarius A*, le trou noir supermassif de notre galaxie, situé à 26.000 années-lumière de nous. Pour observer cet objet d'une taille estimée à 25 millions de kilomètres et quatre millions de fois plus massif que le Soleil, nos astronomes utilisent l'EHT (Event Horizon Telescope).

L'instrument, pourtant, n'existe pas vraiment... Il est virtuel, associant des observatoires et des télescopes du monde entier, de l'Europe jusqu'à l'Antarctique, en passant par le Chili et Hawaï.

Partager cet article
Repost0
14 mars 2017 2 14 /03 /mars /2017 13:49

Indices solides qui valident l’article du 17 février.

Ce 17 février, j’ai posté l’article : ‘Fragilité du Modèle Standard de la Cosmologie’. Ce 8 mars un article important est publié sur le site de la revue ‘Science’ : ‘Trouble sur la constante de Hubble : un débat relancé à propos de la vitesse d’expansion de l’univers pourrait mener à une nouvelle physique

Le débat en question présente beaucoup d’intérêt parce qu’il est provoqué par le constat d’un écart de valeur significatif, de l’ordre de 8% mesuré, de la constante de Hubble (H0) qui détermine la vitesse d’expansion de l’univers et aussi permet de calculer l’âge de l’univers depuis le Big-Bang. Pour une part des cosmologistes annoncent 68 km/s/Mpc (2014), d’autre part les astrophysiciens annoncent 73 km/s/Mpc (2016). La valeur obtenue par les cosmologistes résulte de l’exploitation des relevés récents fournis par le satellite Planck qui sont considérés comme les plus précis depuis 2014. La première nouvelle valeur obtenue par les astrophysiciens fut publiée le 2 juin 2016 et elle a été confirmée par une autre équipe le 26 janvier 2017. Cet écart avéré est significatif parce que les deux valeurs différentes de Ho ont été déterminées par les physiciens en empruntant des chemins scientifiques distincts.

Les astrophysiciens ont procédé par des mesures différenciées de l’éloignement d’objets célestes tels que, des galaxies ou étoiles céphéides, supernovæ, et autres, qui permettent de déduire la vitesse d’expansion. Ces méthodes de mesure exploitent les instruments actuellement disponibles les plus performant et exploitent aussi la compréhension acquise aujourd’hui de l’effet lentille gravitationnel. La valeur de H0 obtenue est qualifiée : attachée à l’univers local, c’est-à-dire à l’univers qui a autour d’au moins 5 milliards d’années d’épaisseur temporelle en arrière de nos instruments de détection.

Les cosmologistes ont obtenu leur valeur de H0 en prenant en compte la carte du fond diffus cosmologique la plus détaillée obtenue dernièrement par le satellite Planck, que l’on qualifie comme étant la première image de l’univers, celle-ci représentant l’univers 380.000ans après le Big-Bang. En faisant des suppositions concernant comment la poussée et l’attraction de l’énergie et de la matière dans l’univers ont changé le taux d’expansion du cosmos depuis que le fond diffus fut constitué, les scientifiques peuvent a priori ajuster la constante de Hubble jusqu’à aujourd’hui correspondant à l’univers local. Donc les deux évaluations de Ho devraient coïncider. Ceci n’étant pas le cas, un chemin d’évaluation devrait être erroné. Si ce désaccord persiste, il faut considérer qu’il y a en perspective une nouvelle physique à découvrir et une des hypothèses qui fait sens serait de considérer qu’un ingrédient a été oublié ou mal évalué contribuant à l’expansion de l’univers.

Dans l’article du 17/02, j’ai choisi comme titre : ‘Fragilité…’ au singulier parce que je considère que c’est la conception globale de notre univers qui est provisoire et simplement représentatif de ce que nous sommes actuellement en mesure de décrypter à travers le prisme de nos capacités d’inférer actuelles. Cette fragilité globale sera probablement comprise à partir de la reconnaissance d’une fragilité spécifique. Peut-être sommes-nous au seuil de cette reconnaissance.

Je cite quelques arguments développés dans l’article du 8/03 : « Les cosmologistes ont exploité l’image du fond diffus en privilégiant certaines hypothèses en considérant les grumeaux chauds et moins chauds régulièrement répartis dans la soupe primordiale fixée par la première image de l’univers. Ces considérations sont : les grumeaux ont comme ingrédients constitutifs : les particules familières comme les atomes et les photons, quelques substances extra (sic) et invisibles appelées matière noire et énergie noire. »

Pour retrouver une concordance entre les deux valeurs de Ho, l’hypothèse dominante est encore de présupposer un quatrième neutrino comptabilisé dans la balance énergétique initiale de l’univers qui fournirait au stade du tout début de l’univers un supplément de pression radiative et qui se dissiperait plus rapidement. Ce scénario signifierait un univers primordial en expansion plus rapide et plus significative que celle prédite par le modèle standard avec sa liste traditionnelle d’ingrédients. Ainsi la concordance dépend d’une hypothèse qui jusqu’à présent n’est pas vérifiable.

Une autre possibilité de concordance peut être imaginée avec l’hypothèse de l’énergie noire. En effet les modèles cosmologiques les plus courants prennent en compte une valeur constante de l’énergie noire. Par contre si l’énergie noire devient progressivement plus importante au cours du temps, alors, ceci expliquerait pourquoi l’univers a une expansion plus rapide aujourd’hui que ce que l’on considère en auscultant l’univers primordial. Mais ce scénario est critiqué car il est conjecturé que l’hypothèse d’une énergie sombre variable est ad hoc et n’est pas naturelle.

Je vous propose de considérer que le présent article a la valeur d’un rapport d’étape et probablement dans un futur proche des choses intéressantes vont être dévoilées.

Partager cet article
Repost0
6 mars 2017 1 06 /03 /mars /2017 08:06

Etat quantique : subterfuge ou réalité ?

En 2011, j’avais réservé un article qui rapportait qu’au cours d’une conférence 33 physiciens et philosophes avaient participé à un sondage pour exprimer leur préférence à propos des différentes interprétations actuelles de la mécanique quantique. Le résultat publié attribue : 42% à l’interprétation de Copenhague ; 24% à l’interprétation relative à la théorie de l’information ; 18% à l’interprétation des mondes multiples de Hugh Everett ; 9% à l’interprétation des collisions objectives (GRW) ; 6% à l’interprétation quantique Bayésienne ; 6% à la mécanique quantique relationnelle (C. Rovelli) ; 0% interprétation de Broglie-Bohm.

Ce sondage peut être commenté de plusieurs façons, pour mon compte je constate qu’après plus d’un siècle c’est toujours l’interprétation de l’école de Copenhague qui tient la corde bien que depuis d’autres interprétations ont réussi à convaincre en partie des physiciens. L’interprétation de Copenhague est la plus frustrante et la plus radicale pour ceux qui croient que la connaissance en physique ne peut être qu’une connaissance du réel (réalistes). D’après ‘Copenhague’, il y aurait une barrière infranchissable : « pour atteindre le monde tel qu’il est à l’échelle microscopique de l’infiniment petit parce que les êtres humains (donc les physiciens) sont conditionnés pour penser en terme du monde classique qui nous entoure. Le monde quantique dans sa réalité nous est par essence inaccessible. La théorie quantique nous fournit des outils très effectifs mais pas plus que cela. Quand nous observons le monde quantique, nous le forçons à être conforme à nos préconceptions qui ne peuvent que refléter notre conditionnement par le monde classique… (cf. : exposé de N. Bohr, à Côme en 1927) »

Sur le site Phys.org, il a été publié le 21/02/2017 un article : ‘Test proposé qui pourrait offrir l’évidence la plus forte que l’état quantique est réel’, qui commente l’article d’un physicien théoricien de l’université d’Oxford : Georges C. Knee. Article original publié dans le ‘New Journal of Physics’.

En introduction il est dit : « Les physiciens s’approchent de plus en plus de la réponse à la question la plus basique de la théorie quantique : est-ce que l’état quantique représente la réalité ou tout simplement notre connaissance de la réalité ? » G. Knee nous dit qu’il a créé un algorithme permettant de définir les expériences optimales qui fourniraient les évidences les plus fortes entre : l’état quantique est un état ontique (un état de la réalité) et pas un état épistémique (un état de connaissance). Ce sujet est un sujet de controverse depuis le début de la mécanique quantique et cette controverse fut avec force engagée par N. Bohr, étant en faveur de l’interprétation ontique (sic), versus Einstein, étant en faveur de l’interprétation épistémique. Selon Knee, l’évidence la plus contemporaine penche pour la thèse de la réalité de l’état quantique. Ceci conduit à l’acceptation de la réalité de la superposition des états quantiques. Si ces états sont ontiques, cela veut dire qu’une particule occupe réellement deux états à la fois, et non pas que cela nous apparaisse ainsi à cause de notre capacité limitée de préparer les particules selon le point de vue épistémique. Capacité limitée, cela veut dire qu’il y a un recouvrement entre la distribution des états quantiques contrairement au point de vue ontique. Recouvrement, cela se concrétise avec le fait que la particule existe dans l’état de la zone de recouvrement, et nous ne pouvons pas dire la différence entre les deux possibilités à cause du recouvrement. Ceci est donc le point de vue épistémique qui évacue quelques-unes des étrangetés de la superposition en expliquant que l’aspect non différentiable des deux états est un recouvrement (une limitation humaine (sic)) et non pas une situation réelle.

L’hypothèse de travail de Knee c’est qu’avec son algorithme il va être possible de réduire l’erreur qui induit l’interprétation du recouvrement et donc c’est la thèse de la réalité des deux états occupés réellement, et en même temps, par une particule qui se révélera être la bonne hypothèse.

Le 26/09/2015, j’ai proposé l’article : ‘Non, on ne pense pas quantique. Pas encore !’. Pas encore : signifie évidemment qu’il sera possible de penser quantique quand on aura dépassé les postulats pragmatiques, empiriques, de l’école de Copenhague. C’est-à-dire quand on aura décrypté la part de la phénoménologie qui est réellement en jeu à l’échelle quantique et qui n’a pas pu l’être jusqu’à présent. J’ai toujours considéré que les postulats de Copenhague étaient provisoires, bien que cela commence à sérieusement durer. On doit considérer que la tentative de Knee est une tentative intéressante bien que je n’adhère pas à son cheminement. En effet, avec cette tentative, Knee réalise des glissements sémantiques qui me semblent préjudiciables, en tous les cas des sources de confusion. Einstein a toujours affirmé que la mécanique quantique de Copenhague était incomplète parce que incapable de décrire la réalité du monde quantique (voire l’introduction à l’article EPR). Avec son hypothèse des variables cachées, il désignait que c’était le formalisme de celle-ci qu’il fallait modifier, enrichir. Donc on n’est pas plein cadre dans une problématique épistémique. L’école de Copenhague, tout au contraire, dit qu’il faut renoncer à vouloir considérer le monde quantique dans sa réalité (voir sur ce sujet article du 19/08/2015). La connaissance que nous en avons, grâce à l’observation et conséquemment la capacité de prédiction (statistique) que nous pouvons inférer, constituent un savoir complet. Nous sommes en rapport avec le monde quantique, tel qu’il nous apparaît, sans que nous puissions accéder, dévoiler, à tel qu’il est.

Malgré ces préventions signalées, la proposition de Knee est intéressante parce qu’il introduit dans le point de vue épistémique une explication complémentaire qui est qu’une limitation humaine serait en jeu. Selon moi, ce qui est en jeu c’est effectivement une détermination humaine et celle-ci pourra être dépassée lorsque l’on découvrira quelle est sa nature. A partir de sa découverte on pourra penser quantique parce que l’on pourra intellectuellement l’intégrer, et donc la dépasser, pour le moins la contourner, sans que nous puissions pour autant l’effacer. Dans l’article du 21/09/2016, j’ai réitéré l’expérience qui permettrait de déceler la détermination humaine en question, fondée sur l’idée que l’espace et le temps, l’espace-temps, sont une invention, une fondation de l’intelligence humaine qui s’est engagée il y a au moins 2 millions d’années. (En complément, voir l’article du 15/10/2016 ; celui du 21/07/2015 : ‘La seconde naissance de l’homme’)

Ensuite, les travaux récompensés de C. Bender : (voir article du 05/11/2016 : ‘Merci Carl Bender’), ont, à mon sens, confirmé qu’une extension du rôle attribué à notre conception déterminée de l’espace et du temps, de l’espace-temps, permet de rendre compte de l’état d’énergie discontinu en mécanique quantique et en corollaire la superposition d’états d’énergie.

 

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens