Overblog
Suivre ce blog Administration + Créer mon blog
21 juillet 2017 5 21 /07 /juillet /2017 05:46

Flirte-t-on déjà avec le point aveugle ?

Ce titre nous indique que nous sommes confrontés à une situation qui pourrait être une illustration de mon hypothèse du point aveugle. Le 11/07 le site Phys.org a publié un article : ‘Atlas experiment takes its first glimpse of the Higgs boson in its favourite decay.’ ; ‘L’expérience Atlas laisse voir une première entrevue du boson de Higgs par son canal de désintégration favori.

Dans les détecteurs, nous avons déjà recensé des échantillons du H se désintégrant en deux photons, en leptons tau, et en W et Z. Mais ceci ne représente que 30% des canaux de désintégration du H. A priori le canal de désintégration le plus significatif est en quark b et anti-b, estimé à 58%, mais à cause de l’extrêmement courte durée de vie de H, pas encore estimée, il ne se laisse pas observer par ce canal. Cela constitue une lacune importante pour l’étude des propriétés du H si on en reste là.

Après avoir produit 1 million de H se désintégrant en bb (évidemment c’est une estimation), pourquoi les chercheurs n’en n’ont pas encore observé ? La réponse repose sur le fait que dans le détecteur Atlas il y a une abondance de quarks b produits par d’autres interactions (10 millions pour un H → bb) ce qui rend difficile de prélever les b et anti-b provenant de la source H qui ne se laisse pas voir, pas de trace, trop furtif ! Le bruit de fond en bb est très important mais aussi on ne peut distinguer spatialement pas plus que temporellement un point d’origine des b et anti-b qui auraient comme source le H.

Aujourd’hui en analysant les run 1 et les run 2 les chercheurs ont trouvé une certaine évidence de cette voie de désintégration mais avec un σ de 3.6, pas mieux, ce qui est inférieur à 5.

Je propose que l’on prenne date de ce constat et s’il y a accumulation de ce genre de constats dans d’autres domaines, il faudra bien inférer sur ce que cela signifie. Je rappelle que pour la détection des ondes gravitationnelles on est limité actuellement par la contrainte de l’amplitude minimale de 10-18m. du miroir récepteur de l’interféromètre de la secousse spatio-temporelle provoquée par l’onde gravitationnelle.

Ci-dessous, est joint l’article original.

ATLAS experiment takes its first glimpse of

the Higgs boson in its favourite decay

11 July 2017

ATLAS event display of a Higgs boson decaying to two bquarks.

Credit: ATLAS Collaboration/CERN

Previously, the Higgs boson has been observed

decaying to photons, tau-leptons, and W and Z

bosons. However, these impressive achievements

represent only 30 percent of Higgs boson decays.

The Higgs boson's favoured decay to a pair of bquarks

(H?bb) was predicted to happen around 58

percent of the time, thus driving the short lifetime of

the Higgs boson, and thus remained elusive.

Observing this decay would fill in one of the big

missing pieces of our knowledge of the Higgs

sector and confirm that the Higgs mechanism is

responsible for the masses of quarks; additionally,

it might also provide hints of new physics beyond

our current theories. All in all, it is a vital missing

piece of the Higgs boson puzzle.

But after over 1 million H?bb decays in the ATLAS

Experiment alone, why haven't researchers seen it

yet? This seems especially strange considering

that less frequent Higgs boson decays have been

observed.

The answer lies in the abundance of b-quarks

created in the ATLAS detector due to strong

interactions. We create pairs of b-quarks 10 million

times more frequently than we create a H?bb decay,

which makes picking them out against that large

background an extremely challenging task. We

therefore look for H?bb decays when they are

produced in association with another particle—in this

case, a vector boson (W or Z). The more distinctive

decays of vector bosons provide a way to reduce

the large background. This leads to a much lower

production rate – we expect to have created only

30,000 H?bb decays this way, but it provides an

opportunity to spot this elusive decay.

Nevertheless, even in this condition, the

background processes that mimic the H?bb signal

are still large, complex and difficult to model. The

ATLAS collaborators made a major effort to isolate

the small H?bb signal from the large background.

After selecting the collisions of interest, they were

left with the expected number of around 300 H?bb

events compared to 70,000 background events.

Ultimately, they were hoping to see an excess of

collision events over our background prediction (a

bump) that appears at the mass of the Higgs

boson.

After analysing all the data ATLAS collected in

2015 and 2016, the researchers have finally

achieved the level of precision to confirm evidence

for H?bb with an observed significance of 3.6 ?

when combining the Run 1 and Run 2 datasets. As

shown in the figure, a bump is observed that is

highly consistent with expectations, confirming

many key aspects of the Higgs bosons behaviour.

Next to the bump, there is a decay of a Z boson

(mass of 91 GeV) to a b-quark pair, produced in a

similar way as the Higgs boson, but more

abundantly. It serves as a powerful validation of the

analysis.

Spotting H?bb is just the beginning. Studies of this

new decay will open a whole new window onto the

Higgs, and may also provide hints of new physics

beyond our current theories. Stay tuned to this

channel.

More information: Evidence for the H?bb decay

with the ATLAS detector:

atlas.web.cern.ch/Atlas/GROUPS … ATLASCONF-

2017-041/

Partager cet article

Repost0
19 juillet 2017 3 19 /07 /juillet /2017 11:12

Votre, Notre Cerveau est une Machine du Temps.

Avec ce titre je me réfère à un livre récent en anglais de Dean Buonomano neurobiologiste et psychologue : spécialiste des neurosciences du temps. Le titre original est ‘Your Brain Is a Time Machine ; The neuroscience and Physics of Time’, édit. W.W. Norton and Company. Livre à lire, bien sûr.

Le titre laisse concevoir deux possibilités, le cerveau est une machine qui produit le temps ou une machine qui est sensible au temps. La présentation insiste sur le fait que l’auteur développe sa théorie de comment on dit le temps et le perçoit. « Le cerveau humain étant un système complexe qui non seulement dicte le temps mais le crée ; il construit notre sens du flux de la chronologie et rend possible « la circulation du temps mental » (mental time travel) - les simulations des évènements du futur et du passé. Ces fonctions sont essentielles non seulement pour notre vie quotidienne mais pour l’évolution de la race humaine : sans l’habilité d’anticiper le futur, l’humanité n’aurait jamais façonné des outils ou inventé l’agriculture. » Je retiendrais plus particulièrement l’expression : « La quatrième dimension est essentielle à notre existence et, bien sûr, fondamentale à ce qui fait de nous des humains (sic). »

Il est donc facile de comprendre pourquoi je suis enthousiasmé en découvrant ce livre car selon moi, depuis plus de 10 ans, je professe que l’être humain est le fondateur du temps, l’espace-temps est le propre de l’homme, c’est-à-dire que l’être humain a pour origine et il est à l’origine de la première intelligence qui a réussi à se situer dans un espace-temps autrement que d’une façon instinctive. Dans ce cas nous sommes presque renvoyés au problème “de la poule et de l’œuf”. Mais n’hésitons pas à considérer que c’est une intelligence humaine naissante (surgissement de l’être dans la Nature qui commence à surplomber cette Nature) qui a assis sa faculté d’émergence (j’utilise ce terme volontairement pour indiquer le rapport qu’il y a avec l’utilisation actuelle et fréquente de ce terme par les physiciens qui veulent faire preuve d’innovation), et de développement en fabricant et capturant les concepts d’espace et de temps. Voir mon article du 27/08/2014 : ‘Un authentique Big Bang’ qui commence ainsi : ‘Puisque ma conviction est que l’espace et le temps sont fondés par l’être humain, il me faut assumer cette conviction et étayer les conséquences qui en résultent, même les plus iconoclastes.’ Voir aussi l’article du 05/11/2014 : ‘L’espace et le temps ne sont pas donnés dans la nature, la lumière l’est.’ Voir aussi d’autres articles qui vont dans le sens de l’affirmation de la fondation de l’espace-temps par le sujet pensant.

 

L’idée de la fondation de l’espace-temps grâce à l’émergence d’une intelligence naissante nous renvoie probablement à 2 millions d’années en arrière comme le supposent des paléoanthropologues et plus particulièrement Jean Guilaine qui m’a précisé : « Il me semble en effet que l’intégration psychique espace-temps chez l’homme (voire ses progrès) doit être abordée au départ, c’est-à-dire aux temps de l’hominisation voire au Paléolithique inférieur. Il est certain, du moins je pense, que cette notion est totalement bien maitrisée au Paléolithique moyen et supérieur… »

Le livre qui vient de sortir, s’appuie, selon l’auteur, sur des observations scientifiques propres aux neurosciences, à l’imagerie cérébrale, à des observations sur le comportement des animaux comme les grands singes afin de déterminer où se trouvent les frontières clivantes entre l’animalité et l’humanité. La plupart des conceptions qui sont miennes et convergentes avec Buonomano résultent d’une analyse tenace depuis plus de 10 ans sur les difficultés voire les contradictions, ainsi que la très grande hétérogénéité des discours et modèles, concernant la physique fondamentale et plus particulièrement sur la nature de l’espace-temps. En fait je véhiculais aussi en marchant et méditant dans la Nature une métaphysique préalable romancée depuis plusieurs décennies comme je le retrouve dans un extrait du livre que j’ai publié en 2000, « En dix escales vers l’Ouest[1] ». Ci-dessous page 187 dans le chapitre ‘Entrevues’ :

« Pensée tendue par le désir d'investir le devenir, pensée mobilisée par le désir de réaliser ses projections dans le devenir désigné par la flèche du temps. C'est en accédant à la conscience du temps en devenir que l'être humain a puisé l'énergie de son ultime naissance dans le monde et qu'il s'est différencié dès cet instant, de toutes les espèces vivantes au sein de la Nature.

            L'homme est devenu homme quand il est sorti de sa chair, quand son esprit attaché au corps s'est déployé dans la lumière du Temps-Monde infini en perpétuel devenir. Avant son ultime naissance, l'homme était un être conscient sans transcendance soumis à la loi de sa chair. Avant son ultime naissance, l'homme, avant qu'il ne devienne homme, avait une perception du cours de la vie ordonné par une flèche du temps irréversible, tronquée, écrasée sur le mur du présent, horizon indépassable de son intelligence. Il subissait le défilement continu du présent et subissait la réactualisation perpétuelle du passé intériorisé, son intelligence d'avant qu'il ne devienne homme était subordonnée à ces deux uniques ordres du temps.

Comment a-t-il pu passer du stade d'une conscience prisonnière d'un ordre intérieur déterminé par la chronobiologie de sa chair, au stade d'une conscience qui s'extériorise, qui transcende le présent incrusté dans le corps et découvre ainsi la plage infinie du temps à venir, plage accueillante invitant à la projection de ses désirs ? Quelle est la source, quelle est la nature de l'impulsion intérieure qui a conduit l'homme jusqu'au seuil de la perception d'un Temps-Monde en perpétuel devenir ? »

Aujourd’hui, ce que j’ai cogité depuis 2 décennies prend du relief grâce au développement des sciences humaines et de ses techniques, il est possible d’affirmer, comme le fait D. Buonomano dans le chapitre 11, au-delà d’un point de vue purement métaphysique, et donc avec preuves de plus en plus rigoureuses à l’appui : « Est-ce que l’habileté à se projeter mentalement dans le passé ou dans le futur est unique à l’Homo sapiens ? » ; « Seuls les humains, non seulement communiquent sur les évènements passés et font des plans pour le futur, mais sautent en arrière et en avant en parcourant un temps linéaire mentale pour rendre compte de relations temporelles complexes » Dès la fin du chapitre 1, l’auteur a annoncé la couleur : « Ceci est parce que, comme je le soutiens dans le prochain chapitre, le cerveau est une machine du temps : une machine qui non seulement dit le temps et prédit le futur, mais ce qui nous permet de nous projeter en avant (forward)  dans le temps. Il est extrêmement facile d’oublier le fait que sans l’habileté de voyager mentalement dans le futur, notre espèce n’aurait jamais pu façonner une pierre obsidienne en un outil ou compris qu’en plantant des semences aujourd’hui on peut assurer notre survie future. Notre capacité unique de comprendre le temps et de scruter dans le temps futur est, quoi qu’il en soit, à la fois un cadeau et un fléau. Durant le cours de notre évolution nous provenions de l’état où nous étions soumis à l’imprévisible et capricieuse nature jusqu’à atteindre l’état d’être en mesure de s’émanciper de la Mère Nature elle-même : en manipulant le présent pour assurer la survie dans le futur. Mais notre faculté clairvoyante nous conduit aussi à l’inévitable découverte que notre temps est fini et éphémère. Cadeau ou fléau, nous sommes confrontés au magnifique et déroutant mystère : qu’est-ce que le temps ? »

L’idée que l’espace-temps est un propre de l’homme est une idée qui ne peut que pesamment perturber les physiciens car dans ce cas l’espace-temps n’est pas donné dans la Nature, il est une construction de l’esprit, ainsi que le principe de causalité. Lorsque nous aurons accédé à ce cap de compréhension, on pourra dans ce cas expliquer l’intrication et toutes les bizarreries de la mécanique quantique avec avant tout la possibilité d’élucider les postulats de l’Ecole de Copenhague. Avec un tel nouveau paradigme on procédera à un bond magnifique de connaissance de la Nature et de ses lois et nous repousserons les barrières actuelles de la connaissance de l’univers, vers des nouvelles.

Le livre de D. Buonomano comprend 2 parties : ‘Temps du Cerveau’, (Brain Time) chapitres 1-6 et ‘La Nature Physique et Mentale du Temps’, (The Physical and Mental Nature of Time) chapitres 7-12. Les connaissances nouvelles pour nous sont dans la 2e partie, aussi je citerai des extraits les plus significatifs. Quand même, avec une grande surprise, je lis une citation de R. Feynman au début du chapitre 3 : « Peut-être il est tout aussi bien que nous soyons confrontés au fait que le temps est une des choses que probablement nous ne pouvons pas définir…Ce qui de toute façon importe réellement n’est pas comment on définit le temps, mais comment on le mesure. » Cette citation semblerait confirmer le propos dommageable attribué à Feynman : « Tais-toi et calcule !» Apres coup on peut mesurer combien une telle conception réductrice de la physique et de la tâche du physicien provoquent des dégâts dont on peut encore mesurer les conséquences aujourd’hui, de ces rapetissements de la pensée, sur ces deux sujets en question.

Dans le chapitre 10, il y a un paragraphe qui s’intitule : ‘Espace, Temps, et langage’. L’auteur indique des particularités exprimées dans certaines populations premières qui situent des mots désignant des séquences du temps (passé, futur), dans l’espace par rapport à eux-mêmes. Cette coopération avec des linguistes, je l’avais souhaitée depuis longtemps comme pertinente : voir article du 11/07/2012 : ‘Faire alliance avec les linguistes pour avancer.’, et le 10/10/2013 : ‘Comment nous sommes devenus avec/par le langage’

Page 196 : « Beaucoup de psychologues croient que la circulation du temps mental est uniquement une faculté cognitive humaine, et bien sûr, cette circulation du temps mental est un ingrédient clé de l’être humain. »

Page 202 : « Quelques évidences pour qu’il y ait une interdépendance entre langage, nombres, et circulation du temps mental provient d’études de tribus lointaines de cueilleurs-chasseurs de l’Amazonie. Leur langage n’a qu’un temps grammatical très rudimentaire pour désigner les simples : futur et passé. Ce peuple ne stocke pas la nourriture au-delà d’une journée, il ne parle pas du futur lointain et du passé lointain – il est focalisé premièrement sur le présent… Leur indifférence à l’égard du futur n’aurait pas été incitatif pour les indigènes survivant Inuit pour lesquelles une faculté de prévoyance significative et de préparation permet de survivre aux rudes hivers. » Voir article du 23/08/2016 : ‘Décrire comment les humains interagissent avec la Nature.’

Page 206 : « Ainsi la plupart de notre bagage neuronal, provient de celui des animaux qui vivent (cognitivement parlant) dans le présent immédiat… p.209 : « Qu’est-ce qui fait que les êtres humains seuls sont capables de circulation de temps mental ? Y a-t-il quelque chose de différent à propos des neurones des êtres humains ? Est-ce la taille de notre cerveau ? Ou peut-être les humains ont des aires du cerveau qui sont absentes chez les autres animaux ?... P.210 « Le cortex préfrontal, qui est localisé directement derrière le front, est une aire du cerveau très bien connectée – c’est-à-dire qu’elle est bien située pour écouter et influencer ce qui se produit dans beaucoup d’autres aires du cerveau. Tandis qu’en général le cortex préfrontal subit chez les primates une expansion, la taille relative du cortex préfrontal n’est pas proportionnellement plus grande chez les humains que chez les grands singes. Il y a toutefois l’évidence que le cortex préfrontal des humains est différent d’une autre façon – par exemple, les neurones dans le cortex préfrontal humain semblent recevoir plus de synapses. » ; «Les études en imagerie cérébrale des personnes saines suggèrent aussi que le cortex préfrontal contribue à notre capacité à concevoir un flux mental du temps…Tandis que le cortex préfrontal est important pour le flux mental du temps, il serait naïf de considérer que ce serait le lieu où il se produit… le flux mental du temps qui oriente vers le futur est le produit d’une tâche compliquée qui requiert une orchestration de fonctions cognitives très différentes…

A l’occasion de la découverte de ce livre on peut se rendre compte de la nécessité à mon sens impérative de développer une véritable coopération entre les physiciens, les paléoanthropologues et les neuroscientifiques. La publication d’un manifeste écrit par des scientifiques de ces trois domaines serait une occasion de préciser la prise de conscience de l’enrichissement mutuel que cela engagerait et de marquer les limites atteintes par ces trois corpus et plus particulièrement celui de la physique fondamentale car celle-ci achoppe plus spécifiquement depuis de nombreuses décennies sur l’espace-temps et sa nature.

Je termine en conseillant de revisiter deux articles : 03/02/2016 : ‘Là, où, pense Homo Sapiens’ et celui du 09/12/2015 : ‘L’espace-temps a une source… mais pas quantique

 

[1] Après coup je redécouvre mon questionnement si existentiel et si ancien concernant le Temps, puisque 4/10 des chapitres traitent sous des angles différents ce sujet : ‘Portraits du temps’ ; ‘Le temps du Rouge-Gorge’ ; ‘Eclats du temps’ et ‘Entrevues’

Partager cet article

Repost0
3 juillet 2017 1 03 /07 /juillet /2017 09:17

Comment la ruse quantique peut brouiller cause et effet 

Dans le journal Nature du 28/06/2017 a été publié un article fort intéressant : « How quantum trickery can scramble cause and effect », « Comment la ruse quantique peut brouiller la cause et l’effet ». Cet article original est proposé en copie dans son intégralité en fin de celui-ci.

Globalement le cœur de l’expérience s’appuie sur le fait qu’un dispositif expérimental permet avec des miroirs semi transparent qu’il y ait de la part de l’observateur une perte d’information spatio-temporelle sur l’objet quantique (ici des photons) qui parcourt ce dispositif. Cela correspond en grande partie au dispositif expérimental de mon projet d’expérience que je décris à nouveau dans l’article du 21/09/2016. Je cite une partie de l’article original, sa page 4, car il y a une conclusion d’étape qui confirme ce qui n’était jusqu’à présent qu’une de mes hypothèses premières, c’est donc une belle surprise :

Having demonstrated causal indeterminacy experimentally, the Vienna team wanted to go further. It's one thing to create a quantum superposition of causal states, in which it is simply not determined what caused what (that is, whether the gate order is AB or BA). But the researchers wondered whether it is possible to preserve causal ambiguity even if they spy on the photon as it travels through various gates.

At face value, this would seem to violate the idea that sustaining a superposition depends on not trying to measure it. But researchers are now realizing that in quantum mechanics, it's not exactly what you do that matters, but what you know.

Traduit par mes soins :

« Ayant démontré expérimentalement l’indétermination causal, l’équipe de Vienne veut aller plus loin. C’est une chose de créer une superposition quantique d’états causaux, dans laquelle il n’est simplement pas déterminé quoi cause quoi (ce qui veut dire, soit l’ordre de la porte AB ou BA). Mais les chercheurs se sont demandés s’il serait possible de préserver l’ambiguïté causal même s’ils espionnent le photon pendant qu’il se déplace à travers les différentes portes.

Au pied de la lettre, ceci semblerait violer l’idée que maintenir une superposition dépend de ne pas essayer de le détecter par la mesure. Mais maintenant les chercheurs réalisent qu’en mécanique quantique, ce n’est pas exactement ce que vous faites qui importe, mais ce que vous savez (sic). »

Donc à ce niveau nous atteignons un point crucial car « ce que vous savez » signifie que la ‘présence du sujet pensant’ contribue d’une façon déterminante à la phénoménologie du monde quantique spécifiquement observé par celui-ci. Pour cette raison, dans mon projet d’expérience j’accorde de l’importance à l’imagerie cérébrale pour tenter d’enregistrer en temps réel le processus de la réception cérébrale de l’observateur et en décrypter sa spécificité. L’affirmation des chercheurs abondent largement dans le sens de mon hypothèse fondamentale car le savoir est relatif à l’aptitude du sujet pensant à accéder au savoir en question. C’est la raison pour laquelle je propose qu’il y ait dans mon projet 3 échantillons d’observateurs ayant a priori des aptitudes différenciées pour nous décrire ce que in fine ils observent.

Je poursuis la citation de l’article original avec sa traduction qui suit :

« Last year, Walther and his colleagues devised a way to measure the photon as it passes through the two gates without immediately changing what they know about it6. They encode the result of the measurement in the photon itself, but do not read it out at the time. Because the photon goes through the whole circuit before it is detected and the measurement is revealed, that information can't be used to reconstruct the gate order. It's as if you asked someone to keep a record of how they feel during a trip and then relay the information to you later — so that you can't deduce exactly when and where they were when they wrote it down.

As the Vienna researchers showed, this ignorance preserves the causal superposition. “We don't extract any information about the measurement result until the very end of the entire process, when the final readout takes place,” says Walther. “So the outcome of the measurement process, and the time when it was made, are hidden but still affect the final result.

“L’année passée, Walther et ses collègues imaginent un moyen de mesurer le photon quand il passe à travers les deux portes sans changer immédiatement ce qu’ils savent de ce résultat. Ils encodent le résultat dans le photon lui-même, mais ne le lisent pas à ce moment-là. Parce que le photon circule à travers tout le circuit avant qu’il ne soit détecté et que la mesure ne soit révélée, cette information ne peut pas être utilisée pour reconstruire l’ordre des portes. C’est comme si vous demandez à quelqu’un de garder la mémoire de comment il se sent pendant un voyage et vous fait parvenir cette information plus tard – ainsi vous ne pouvez pas déduire exactement quand et où il était quand il l’a écrit.

Comme les chercheurs Viennois l’ont montré, cette ignorance préserve la superposition causale. « Nous n’extrayons aucune information du résultat de la mesure avant la fin complète du processus, c’est-à-dire quand nous assurons la mesure, » dit Walther. « Ainsi le résultat du processus de la mesure, et le moment quand elle fut faite, sont cachés mais affectent encore le résultat final. »

En dehors du fait qu’ils obtiennent des résultats concrets dont leur interprétation coïncide avec ce que je propose en tant qu’hypothèse fondamentale à vérifier dans mon projet d’expérience, les chercheurs Viennois et du Perimeter Institute ont une perspective précise d’application en vue de concevoir des ordinateurs quantiques les plus performants possibles.

Toutefois dans le dernier paragraphe de l’article : Unité dans l’Univers, on retrouve une volonté de tenter d’élucider la problématique de la causalité pour le moins dans le domaine quantique. Questionnement, qui semblerait pour ces chercheurs, ne pas avoir de raison d’être à l’échelle classique puisque cette problématique a une réponse nette et définitive, grâce à la relativité générale. Puisque leur souci est l’unification de la physique, s’il y avait deux régimes distincts de la chaîne de causalité, comment concevoir le raccordement unificateur de l’Univers ou plutôt concrètement de la physique de l’Univers ? Evidemment ce questionnement est approprié puisque ce hiatus nous accompagne depuis belle lurette.

Je propose quelques citations originales qui sont à mes yeux sources d’un questionnement essentiel, qui le restera encore un certain temps, mais nous avons de bonnes raisons d’être optimistes. Ensuite, je traduis ces citations et les commente à l’occasion.

« The bigger goal, however, is theoretical. Quantum causality might supply a point of entry to some of the hardest questions in physics — such as where quantum mechanics comes from.

Quantum theory has always looked a little ad hoc. The Schrödinger equation works marvelously to predict the outcomes of quantum experiments, but researchers are still arguing about what it means, because it's not clear what the physics behind it is...

“The framework of causal models provides a new perspective on these questions,” says Katja Ried... “If quantum theory is a theory about how nature processes and distributes information, then asking in which ways events can influence each other may reveal the rules of this processing.”

 “Most of the attempts to understand quantum mechanics involve trying to save some aspects of the old classical picture, such as particle trajectories,” says Brukner. But history shows us that what is generally needed in such cases is something more, he says — something that goes beyond the old ideas, such as a new way of thinking about causality itself. “When you have a radical theory, to understand it you usually need something even more radical.”

 « Néanmoins, le but le plus grand est théorique. La causalité quantique devrait nous fournir un point d’entrée à quelques-unes des questions les plus difficiles en physique – telles que d’où vient la mécanique quantique. » Ma réponse à cette interrogation est claire, certes iconoclaste, mais les chercheurs de Vienne ont tutoyé la logique de ma proposition, ils n’ont pas franchi ce Rubicon : « La Nature n’est pas structurée par la chaîne de causalité que nous lui prêtons. Le principe de causalité est une construction de l’esprit et non pas une loi de la Nature : voir article du 10/11/2015. »

« La théorie quantique a toujours semblé un peu ad hoc. L’équation de Schrödinger fonctionne merveilleusement bien pour prédire les résultats des expériences quantiques, mais les chercheurs se demandent toujours ce que cela signifie, parce que ce n’est pas clair, quelle est la physique qu’il y a derrière. » Cela est vrai, mais je pense que c’est une situation encore provisoire, parce que nous ne pensons pas encore quantique mais avec la mise en évidence de nouveaux paradigmes, des connexions cérébrales nouvelles s’établiront. La preuve, on peut considérer que l’article de Nature est pour moi un bon pas en avant avec la compréhension suivante (qui doit être considérée comme une découverte) : « it's not exactly what you do that matters, but what you know”. Voir article du 26/09/2015.

« La plupart des tentatives pour comprendre la mécanique quantique implique d’essayer de sauver quelques aspects de la vieille physique, tels que les trajectoires des particules » nous dit Bruckner. Mais l’histoire nous montre que ce qui est généralement nécessaire, dans de tels cas, c’est quelque chose en plus – quelque chose qui va au-delà des idées anciennes, par exemple une nouvelle voie de penser à propos de la causalité elle-même. « Quand vous avez une théorie radicale, pour la comprendre vous avez usuellement besoin de quelque chose de bien plus radical. »

Je ne peux qu’approuver les propos de Bruckner et lui répondre que mon article du 10/11/2015 suggère une voie qui doit être exploitée et que mon projet d’expérience contient des résultats potentiels qui peuvent éclairer le paysage de la mécanique quantique, ceci couplé évidemment avec l’hypothèse du sujet pensant fondateur de l’espace-temps car espace-temps et chaîne de causalité sont intimement corrélés.

Pour souligner l’intérêt que j’attribue à l’article dans ‘Nature’, j’ajoute quelques citations qui font sens et qui se trouvent à la page 2 :

“Causality lies at the interface between quantum mechanics and general relativity,”. Pour aborder amplement cette problématique, je propose d’investir aussi sur une autre interface comme je l’ai indiqué dans l’article du 18/03/2015 : ‘Décrypter la physique comme science de l’interface de l’être humain et de la Nature ! »

“No reason can be adduced to explain that particular outcome… Measurements of entangled particles show, however, that the observed correlation between the spins can't be explained on the basis of pre-existing properties. But these correlations don't actually violate relativity because they can't be used to communicate faster than light. Quite how the relationship arises is hard to explain in any intuitive cause-and-effect way.” A mon sens l’explication qu’il faut prospecter est celle de l’inexistence d’espace-temps quand il y a intrication, car non fondé par le « sujet pensant » à cause de ‘TpS’ et depuis 2011, j’ai posté plusieurs articles à ce sujet. Peut-être que la conjecture EPR = ER, nous dit quelque chose de semblable.

 

How quantum trickery can scramble cause and effect

Logic-defying experiments in quantum causality can twist the notion of time itself.

Albert Einstein is heading out for his daily stroll and has to pass through two doorways. First he walks through the green door, and then through the red one. Or wait — did he go through the red first and then the green? It must have been one or the other. The events had have to happened in a sequence, right?

Not if Einstein were riding on one of the photons ricocheting through Philip Walther's lab at the University of Vienna. Walther's group has shown that it is impossible to say in which order these photons pass through a pair of gates as they zip around the lab. It's not that this information gets lost or jumbled — it simply doesn't exist. In Walther's experiments, there is no well-defined order of events.

This finding1 in 2015 made the quantum world seem even stranger than scientists had thought. Walther's experiments mash up causality: the idea that one thing leads to another. It is as if the physicists have scrambled the concept of time itself, so that it seems to run in two directions at once.

In everyday language, that sounds nonsensical. But within the mathematical formalism of quantum theory, ambiguity about causation emerges in a perfectly logical and consistent way. And by creating systems that lack a clear flow of cause and effect2, researchers now think they can tap into a rich realm of possibilities. Some suggest that they could boost the already phenomenal potential of quantum computing. “A quantum computer free from the constraints of a predefined causal structure might solve some problems faster than conventional quantum computers,” says quantum theorist Giulio Chiribella of the University of Hong Kong.

What's more, thinking about the 'causal structure' of quantum mechanics — which events precede or succeed others — might prove to be more productive, and ultimately more intuitive, than couching it in the typical mind-bending language that describes photons as being both waves and particles, or events as blurred by a haze of uncertainty.

And because causation is really about how objects influence one another across time and space, this new approach could provide the first steps towards uniting the two cornerstone theories of physics and resolving one of the most profound scientific challenges today. “Causality lies at the interface between quantum mechanics and general relativity,” says Walther's collaborator Časlav Brukner, a theorist at the Institute for Quantum Optics and Quantum Information in Vienna, “and so it could help us to think about how one could merge the two conceptually.”

Tangles in time

Causation has been a key issue in quantum mechanics since the mid-1930s, when Einstein challenged the apparent randomness that Niels Bohr and Werner Heisenberg had installed at the heart of the theory. Bohr and Heisenberg's Copenhagen interpretation insisted that the outcome of a quantum measurement — such as checking the orientation of a photon's plane of polarization — is determined at random, and only in the instant that the measurement is made. No reason can be adduced to explain that particular outcome. But in 1935, Einstein and his young colleagues Boris Podolsky and Nathan Rosen (now collectively denoted EPR) described a thought experiment that pushed Bohr's interpretation to a seemingly impossible conclusion.

The EPR experiment involves two particles, A and B, that have been prepared with interdependent, or 'entangled', properties. For example, if A has an upward-pointing 'spin' (crudely, a quantum property that can be pictured a little bit like the orientation of a bar magnet), then B must be down, and vice versa.

Both pairs of orientations are possible. But researchers can discover the actual orientation only when they make a measurement on one of the particles. According to the Copenhagen interpretation, that measurement doesn't just reveal the particle's state; it actually fixes it in that instant. That means it also instantly fixes the state of the particle's entangled partner — however far away that partner is. But Einstein considered this apparent instant action at a distance impossible, because it would require faster-than-light interaction across space, which is forbidden by his special theory of relativity. Einstein was convinced that this invalidated the Copenhagen interpretation, and that particles A and B must already have well-defined spins before anybody looks at them.

Measurements of entangled particles show, however, that the observed correlation between the spins can't be explained on the basis of pre-existing properties. But these correlations don't actually violate relativity because they can't be used to communicate faster than light. Quite how the relationship arises is hard to explain in any intuitive cause-and-effect way.

But what the Copenhagen interpretation does at least seem to retain is a time-ordering logic: a measurement can't induce an effect until after it has been made. For event A to have any effect on event B, A has to happen first. The trouble is that this logic has unravelled over the past decade, as researchers have realized that it is possible to imagine quantum scenarios in which one simply can't say which of two related events happens first.

Classically, this situation sounds impossible. True, we might not actually know whether A or B happened first — but one of them surely did. Quantum indeterminacy, however, isn't a lack of knowledge; it's a fundamental prohibition on pronouncing on any 'true state of affairs' before a measurement is made.

Ambiguous action

Brukner's group in Vienna, Chiribella's team and others have been pioneering efforts to explore this ambiguous causality in quantum mechanics3, 4. They have devised ways to create related events A and B such that no one can say whether A preceded and led to (in a sense 'caused') B, or vice versa. This arrangement enables information to be shared between A and B in ways that are ruled out if there is a definite causal order. In other words, an indeterminate causal order lets researchers do things with quantum systems that are otherwise impossible.

The trick they use involves creating a special type of quantum 'superposition'. Superpositions of quantum states are well known: a spin, for example, can be placed in a superposition of up and down states. And the two spins in the EPR experiment are in a superposition — in that case involving two particles. It's often said that a quantum object in a superposition exists in two states at once, but more properly it simply cannot be said in advance what the outcome of a measurement would be. The two observable states can be used as the binary states (1 and 0) of quantum bits, or qubits, which are the basic elements of quantum computers.

The researchers extend this concept by creating a causal superposition. In this case, the two states represent sequences of events: a particle goes first through gate A and then through gate B (so that A's output state determines B's input), or vice versa.

In 2009, Chiribella and his co-workers came up with a theoretical way to do an experiment like this using a single qubit as a switch that controls the causal order of events experienced by a particle that acts as second qubit3. When the control-switch qubit is in state 0, the particle goes through gate A first, and then through gate B. When the control qubit is in state 1, the order of the second qubit is BA. But if that qubit is in a superposition of 0 and 1, the second qubit experiences a causal superposition of both sequences — meaning there is no defined order to the particle's traversal of the gates (see 'Trippy journeys').

Nik Spencer/Nature

Three years later, Chiribella proposed an explicit experimental procedure for enacting this idea5; Walther, Brukner and their colleagues subsequently worked out how to implement it in the lab1. The Vienna team uses a series of 'waveplates' (crystals that change a photon's polarization) and partial mirrors that reflect light and also let some pass through. These devices act as the logic gates A and B to manipulate the polarization of a test photon. A control qubit determines whether the photon experiences AB or BA — or a causal superposition of both. But any attempt to find out whether the photon goes through gate A or gate B first will destroy the superposition of gate ordering.

Having demonstrated causal indeterminacy experimentally, the Vienna team wanted to go further. It's one thing to create a quantum superposition of causal states, in which it is simply not determined what caused what (that is, whether the gate order is AB or BA). But the researchers wondered whether it is possible to preserve causal ambiguity even if they spy on the photon as it travels through various gates.

At face value, this would seem to violate the idea that sustaining a superposition depends on not trying to measure it. But researchers are now realizing that in quantum mechanics, it's not exactly what you do that matters, but what you know.

Last year, Walther and his colleagues devised a way to measure the photon as it passes through the two gates without immediately changing what they know about it6. They encode the result of the measurement in the photon itself, but do not read it out at the time. Because the photon goes through the whole circuit before it is detected and the measurement is revealed, that information can't be used to reconstruct the gate order. It's as if you asked someone to keep a record of how they feel during a trip and then relay the information to you later — so that you can't deduce exactly when and where they were when they wrote it down.

As the Vienna researchers showed, this ignorance preserves the causal superposition. “We don't extract any information about the measurement result until the very end of the entire process, when the final readout takes place,” says Walther. “So the outcome of the measurement process, and the time when it was made, are hidden but still affect the final result.”

Other teams have also been creating experimental cases of causal ambiguity by using quantum optics. For example, a group at the University of Waterloo in Canada and the nearby Perimeter Institute for Theoretical Physics has created quantum circuits that manipulate photon states to produce a different causal mash-up. In effect, a photon passes through gates A and B in that order, but its state is determined by a mixture of two causal procedures: either the effect of B is determined by the effect of A, or the effects of A and B are individually determined by some other event acting on them both, in much the same way that a hot day can increase sunburn cases and ice-cream sales without the two phenomena being directly causally related. As with the Vienna experiments, the Waterloo group found that it's not possible to assign a single causal 'story' to the state the photons acquire7.

Some of these experiments are opening up new opportunities for transmitting information. A causal superposition in the order of signals travelling through two gates means that each can be considered to send information to the other simultaneously. “Crudely speaking, you get two operations for the price of one,” says Walther. This offers a potentially powerful shortcut for information processing.

“An indeterminate causal order lets researchers do things with quantum systems that are otherwise impossible.”

Although it has long been known that using quantum superposition and entanglement could exponentially increase the speed of computation, such tricks have previously been played only with classical causal structures. But the simultaneous nature of pathways in a quantum-causal superposition offers a further boost in speed. That potential was apparent when such superpositions were first proposed: quantum theorist Lucien Hardy at the Perimeter Institute8 and Chiribella and his co-workers3 independently suggested that quantum computers operating with an indefinite causal structure might be more powerful than ones in which causality is fixed.

Last year, Brukner and his co-workers showed9 that building such a shortcut into an information-processing protocol with many gates should give an exponential increase in the efficiency of communication between gates, which could be beneficial for computation. “We haven't reached the end yet of the possible speed-ups,” says Brukner. “Quantum mechanics allows way more.”

It's not terribly complicated to build the necessary quantum-circuit architectures, either — you just need quantum switches similar to those Walther has used. “I think this could find applications soon,” Brukner says.

Unity in the Universe

The bigger goal, however, is theoretical. Quantum causality might supply a point of entry to some of the hardest questions in physics — such as where quantum mechanics comes from.

Quantum theory has always looked a little ad hoc. The Schrödinger equation works marvellously to predict the outcomes of quantum experiments, but researchers are still arguing about what it means, because it's not clear what the physics behind it is. Over the past two decades, some physicists and mathematicians, including Hardy10 and Brukner11, have sought to clarify things by building 'quantum reconstructions': attempts to derive at least some characteristic properties of quantum-mechanical systems — such as entanglement and superpositions — from simple axioms about, say, what can and can't be done with the information encoded in the states (see Nature 501, 154–156; 2013).

“The framework of causal models provides a new perspective on these questions,” says Katja Ried, a physicist at the University of Innsbruck in Austria who previously worked with the University of Waterloo team on developing systems with causal ambiguity. “If quantum theory is a theory about how nature processes and distributes information, then asking in which ways events can influence each other may reveal the rules of this processing.”

And quantum causality might go even further by showing how one can start to fit quantum theory into the framework of general relativity, which accounts for gravitation. “The fact that causal structure plays such a central role in general relativity motivates us to investigate in which ways it can 'behave quantumly',” says Ried.

“Most of the attempts to understand quantum mechanics involve trying to save some aspects of the old classical picture, such as particle trajectories,” says Brukner. But history shows us that what is generally needed in such cases is something more, he says — something that goes beyond the old ideas, such as a new way of thinking about causality itself. “When you have a radical theory, to understand it you usually need something even more radical.”

Journal name:

Nature

Volume:

546,

Pages:

590–592

Date published:

(29 June 2017)

 

 

Partager cet article

Repost0
27 juin 2017 2 27 /06 /juin /2017 07:33

Quid du Big Bang ?

Il y a quelques jours ont été publiés quelques articles relatifs à un même sujet : « Big Bang : le modèle de Hartle-Hawking est-il faux ? », ou « No Universe without Big Bang ». Je les joins en fin du présent article.

Ces articles mettent l’accent sur la singularité que constitue le fait de vouloir attribuer une origine à l’univers tel que nous le concevons actuellement, grâce aux moyens de la relativité générale et de la mécanique quantique. Mais l’impossibilité de pouvoir fusionner ces deux corpus dans un seul et même corpus qui les sublimeraient rend pour le moment la tâche impossible. Et le fait d’être en mesure un jour de réaliser cette unification que l’on appellera : ‘Gravité Quantique’ ne garantira pas qu’on découvrira, pour autant, une théorie du Big Bang.

Rappelons le fil qui nous conduit à soutenir que l’on peut établir, pour la première fois depuis le début de l’humanité, une cosmogonie complète du XXIe siècle sur des bases correspondant à des critères scientifiques de calculabilité. Un élément essentiel de ce fil est la première image de l’univers que l’on date à 380000 ans après le Big Bang et cette image obtenue constitue notre référentiel incontournable (que l’on appelle image du rayonnement fossile, ou image du découplage matière/rayonnement, ou image de la première diffusion). La précision et la qualité obtenues de cette image nous autorisent à prédire, en partie, la physique qui a prévalue à sa formation et la physique postérieure à l’émergence de celle-ci. Le ‘en partie’ que j’introduis ici dans le texte prend depuis peu beaucoup d’ampleur. Ainsi les trois quasars primordiaux que l’on vient de découvrir et qui ont moins d’1 milliard d’années donnent du poids au terme : ‘en partie’. Dans la période de l’avant 380000 ans et remontant juste après le Big Bang les physiciens pensaient avoir, depuis 1975, compris toute la phénoménologie physique qui aurait prévalue à la formation de cette première image observée. Là encore, il faut dire : ‘les physiciens pensaient’ parce que dans le scénario le plus abouti ils ont besoin d’inventer l’existence de matière noire, que nous n’avons jamais observée (voir article du 26/06/2017, sur le site de Physicsworld. com : Dark-matter constraints tightened after LUX no-shows), et de neutrinos aux propriétés physiques que nous n’observons pas non plus. Ce dont il s’agit dans l’article concernant le modèle de Hartle-Hawking c’est de rendre compte, à la fois, grâce aux lois de la physique que nous connaissons, de la physique du Big Bang et des conditions de son surgissement (Sic). Sa validation (à défaut de ne pouvoir l’observer ou le reproduire) ne peut être retenue que si ses prédictions sont intimement compatibles avec le référentiel de la première image de l’univers.

Juste à ce niveau de la présentation, et pour prendre un recul intellectuel profitable, je rappelle ce que nous dit L. Smolin que j’ai cité dans l’article précédent : « Si on (embrasse la réalité du temps et) voit les lois mathématiques comme des outils plutôt que des miroirs mystiques de la nature » Ce rappel nous éclaire à la fois sur un questionnement épistémologique et philosophique. En effet, si d’un point de vue pragmatique, on privilégie le caractère ‘outil’ des mathématiques et si on obtient un résultat satisfaisant on pourra vanter la puissance et l’efficacité de l’outil et partant la puissance de l’intelligence de l’humanité créatrice de celui-ci. Si au contraire on croit que les mathématiques sont : « des miroirs mystiques de la nature », alors on dira que le résultat signifie que l’on aura ‘encapsuler’ la réalité vérace du début de l’univers, c’est-à-dire que l’on aura atteint la vérité de notre raison d’être dans ce monde. Pas moins !

  Je rappelle que la relativité générale décrit bien l’évolution matérielle de l’univers mais exclut la Présence, dans le cosmos, d’une intelligence qui pense ce cosmos. Il y aurait une différence dans le cadre de la mécanique quantique selon le statut que l’on attribue à l’observateur. Que ce soit de la part des physiciens qui attribuent la primauté de la puissance prédictive à la Relativité Générale ou à ceux qui l’attribuent à la mécanique quantique c’est-à-dire dans ce cas à la Théorie Quantique des Champs (TQC), il y a la conviction que notre univers en tout instant est descriptible par des lois physiques.

Je privilégie un extrait de l’article de L. Sacco (que je conseille de lire dans son intégralité) qui illustre correctement d’un point de vue chronologique la démarche suivie par J. Hartle et S. Hawking pour lever mathématiquement la singularité initiale.

« Avec son collègue James Hartle, Stephen Hawking a donc tenté de résoudre, de façon au moins approchée, l'équation de WD dans des cas simples à l'aide de l'intégrale de chemin de Feynman.

La stratégie semblait prometteuse car les équations de la relativité générale sont des analogues des équations de Yang-Mills à la base du modèle standard en physique des particules. Or, le prix Nobel Gerard 't Hooft avait fortement contribué à montrer que l'intégrale de Feynman était un outil exceptionnellement efficace et pratique pour faire des calculs de théorie quantique des champs avec les équations de Yang-Mills.

De fait, en transposant (sic) les techniques qui marchaient en physique des particules au traitement quantique de l'espace-temps en cosmologie, Hawking et Hartle ont émis une proposition en 1983 qui allait faire grand bruit. Ils ont ainsi avancé des arguments permettant de supprimer naturellement la singularité initiale, mais au prix de considérer que la nature de l'espace-temps pouvait profondément changer au voisinage de la naissance du Big Bang. Dans les équations, le temps, au lieu d'être décrit par des nombres réels, était décrit par une généralisation de ces nombres que les mathématiciens ont appelé « des nombres complexes » et qui sont à la base de la fameuse équation de Schrödinger, l'un des postulats fondamentaux de la mécanique quantique. »

On constate ici la conséquence de voir les mathématiques comme des miroirs mystiques de la nature car les travaux de Feynman (à partir de la décennie 1940) en physique des particules élémentaires deviennent ipso facto transposables pour décrire l’univers et le processus de son émergence. En fait cette réduction n’est possible que si on est adepte de la philosophie platonicienne qui clame que l’univers est comme un livre ouvert et ses pages contiennent un alphabet, celui des mathématiques (géométrie) et si on sait le décrypter on peut décrire l’univers. Le dieu fondateur de l’univers est un dieu mathématicien (géomètre). Mais son univers est indifférent à la réalité de l’homme. C’est là qu’il y a un hic, car avec la croyance que l’univers a un début, avec ce début il n’y a pas que l’émergence de la matière inerte qui soit en cause mais il y a aussi l’émergence de la vie intelligente, bien qu’elle soit datée très longtemps après. Mais voilà, nous sommes conçus de cette matière (poussières d’étoiles), rétroactivement nous devons comprendre le tropisme que de fait cela engendre.

On a beau essayer d’évacuer ce problème, il est en fait inexpugnable. Lorsqu’on décrit l’univers observable, établi, se déployant avec ce que l’on considère comme étant sa dynamique propre, la relativité générale est efficace parce que dans ces conditions l’être humain peut être mis à côté, à côté de ce qui est observé, de ce qui est observable. Ici la présence de l’être humain interfère a minima. Avec la volonté d’introduire le concept de Big Bang qui est à l’origine de tout, évidemment cette mise à côté est une approximation qui n’est plus possible, cette facilité n’est plus possible et la mise de côté est définitivement irréaliste.

Selon mon point de vue, il y a effectivement une singularité c’est celle correspondant à l’émergence d’une première intelligence sur la planète terre qui se situe d’une façon non instinctive sur celle-ci (peut-être que cela se situe il y a 2millions d’années). Cette première intelligence a fondé l’ancêtre de l’espace-temps, au moins son essence, et il n’y en a pas dans la nature qui soit donné pace que le monde n’a pas de limite, il est infini dans toutes ces dimensions. C’est l’être humain qui a des limites et la vertu de son existence c’est, sans cesse, les repousser. C’est là l’essence de la dynamique de son existence. Voir article du 26/08/2014 : « Pour un authentique Big bang » (Est-ce une coïncidence si le concept d’émergence fait florès dans les réflexions théoriques actuelles qui se veulent novatrices ?)

            De la part des physiciens, il y a une répugnance certaine à prendre en compte des savoirs qui n’obéissent pas aux contraintes d’une rationalité déductive qui puisse être classée objective. Ils considèrent que c’est un critère essentiel qui garantit le travail collectif et la capacité d’une vérification expérimentale. Toutefois étant donné les apories qui jalonnent depuis de nombreuses décennies la connaissance en physique, on lit de plus en plus des publications qui, proposant de lever ces apories, contiennent des arguments du type « nous avons la conviction ». Les problèmes à résoudre sont tellement ardus et tellement résistant à toutes les tentatives de résolution, que certains estiment que suivre le chemin de la conviction ou de l’intuition peut ouvrir la porte à des résolutions. 

            La connaissance en physique, en tant que telle, s’affirme sur des bases et des règles qui ont émergées avec la physique Galiléenne. Depuis elle a tellement fructifié qu’il n’est pas envisageable de remettre en cause l’édifice. Nous devons considérer que cette connaissance appartient à une école et cela ne peut pas être autrement. Mais il faut que l’on prenne conscience qu’elle n’est pas l’école de la connaissance universelle, elle doit se frotter à d’autres écoles de connaissances qui ont leur propre rationalité, leur propre règle d’inférence, et offre des connaissances dont il est souhaitable d’en comprendre la complémentarité. Il faut que la physique fondamentale s’associe à d’autres écoles comme celles de la paléoanthropologie et de l’imagerie cérébrale. Voir mon article précédent.

Il y a dans l’article de L. Sacco, à la fin de son article dans le paragraphe : L'effet tunnel et le temps imaginaire en cosmologie quantique une erreur importante :

 « Il se trouve que le temps imaginaire intervient d'une certaine façon dans la théorie de l'effet tunnel quantique et il est donc possible… ». Cela n’est plus vrai depuis la publication de l’article d’une équipe Australienne en juin 2015, voir mon article du 17/06/2015. L’usage du temps imaginaire était la conséquence de la croyance que cet effet était instantané, en fait c’était la conséquence que l’on ne savait pas mesurer des intervalles de temps de l’ordre de 10-18s et plus petit. Maintenant cela est possible, l’effet tunnel a une durée et le temps est devenu naturellement réel. En résumé les nombres imaginaires pointeraient les domaines de notre ignorance… provisoire.

Big Bang : le modèle de Hartle-Hawking est-il faux ? Par L. Sacco.  Site : Futura Science

« Le modèle de Hartle-Hawking est un modèle de cosmologie quantique très populaire mais il souffre de problèmes mathématiques. Trois physiciens, dont le célèbre Neil Turok, ont tenté de résoudre ces problèmes. Aujourd'hui, ils pensent avoir montré que le modèle de Hartle-Hawking conduit à des conséquences en contradiction avec les observations du rayonnement fossile. La théorie du Big Bang de Stephen Hawking pourrait donc être fausse.

Ce qu'il faut retenir

Les travaux de Stephen Hawking sur les singularités de l'espace-temps et la physique des trous noirs l'ont conduit à proposer en :

  • 1983 une théorie quantique du Big Bang avec son collègue James Hartle.
  • Le modèle sans frontière de Hartle-Hawking implique l'existence d'une géométrie quantique de l'espace-temps primitif où le temps devient espace et où la singularité cosmologique initiale, plutôt que d'être l'analogue du sommet d'un cône, ressemble à la surface lisse et sans singularité d'une sphère.
  • En essayant de rendre rigoureuse cette théorie, des chercheurs du Perimeter Institute, au Canada, sont arrivés à la conclusion qu'elle faisait des prédictions incompatibles avec les caractéristiques du rayonnement fossile, au moins dans sa formulation primitive.

L'année 2015 fut marquée par le centenaire de la formulation finale de la théorie de la relativité générale par Einstein. Cette année 2017, nous pouvons célébrer deux autres centenaires : celui de la formulation du premier modèle de cosmologie relativiste et celui de la découverte de l'effet laser, également par Einstein ; cette découverte a posé les bases de la mécanique des matrices de Heisenberg, un des piliers de la mécanique quantique.

En 1970, Roger Penrose et Stephen Hawking ont publié un théorème montrant qu'appliquée à la théorie du Big Bang, la théorie d'Einstein amenait inexorablement à la conclusion que notre univers devait être né d'une singularité de l’espace-temps. Toutefois, aucun de ces chercheurs n'était dupe : leur théorème montrait simplement l'effondrement du pouvoir prédictif de la théorie de la gravitation d'Einstein tant qu'on ne cherchait pas à la rendre quantique. Or, tout comme les électrons d'un atome étaient sauvés de l'effondrement inévitable sur le noyau en physique classique par les équations de la mécanique quantique, on devait s'attendre à ce que la singularité cosmologique soit, elle aussi, supprimée par ces équations appliquées à la nature et la dynamique de l'espace-temps. Mais, pour le montrer, il fallait aller au-delà de la théorie de la relativité générale.

Heureusement, une théorie quantique de la gravitation était déjà en cours d'élaboration pendant les années 1960. John Wheeler, l'un des pionniers de la physique des trous noirs, et Bryce DeWitt, l'époux de la physicienne et mathématicienne française Cécile DeWitt-Morette, étaient arrivés à découvrir une équation à la base de la cosmologie quantique, la fameuse équation de Wheeler-DeWitt (WD).

La théorie de la relativité générale d'Albert Einstein (1915) n'est pas compatible avec la physique quantique (qui décrit le comportement des atomes et des particules), l'autre grand fondement de la physique. Faut-il donc aller plus loin, trouver la théorie « qui unifie tout » ? Les réponses d'Aurélien Barrau. © Bibliothèque publique d'information

La cosmologie quantique et les solutions de l'équation de Wheeler-DeWitt

Cette équation est malheureusement fort difficile à résoudre, sauf si elle est appliquée à des modèles cosmologiques très simplifiés. De grandes classes de solutions ont été trouvées dans le cadre de la théorie de la gravitation quantique à boucles. Au début des années 1980, Stephen Hawking, fort des succès qu'il avait rencontrés en appliquant les travaux du prix Nobel Richard Feynman en théorie quantique des champs au cas de l'évaporation des trous noirs, a cherché, lui aussi, à utiliser cette équation pour comprendre le début de l'univers. Avec son collègue James Hartle, Stephen Hawking a dont tenté de résoudre, de façon au moins approchée, l'équation de WD dans des cas simples à l'aide de l'intégrale de chemin de Feynman.

La stratégie semblait prometteuse car les équations de la relativité générale sont des analogues des équations de Yang-Mills à la base du modèle standard en physique des particules. Or, le prix Nobel Gerard 't Hooft avait fortement contribué à montrer que l'intégrale de Feynman était un outil exceptionnellement efficace et pratique pour faire des calculs de théorie quantique des champs avec les équations de Yang-Mills.

De fait, en transposant les techniques qui marchaient en physique des particules au traitement quantique de l'espace-temps en cosmologie,

Hawking et Hartle ont émis une proposition en 1983 qui allait faire grand bruit. Ils ont ainsi avancé des arguments permettant de supprimer naturellement la singularité initiale, mais au prix de considérer que la nature de l'espace-temps pouvait profondément changer au voisinage de la naissance du Big Bang. Dans les équations, le temps, au lieu d'être décrit par des nombres réels, était décrit par une généralisation de ces nombres que les mathématiciens ont appelé « des nombres complexes » et qui sont à la base de la fameuse équation de Schrödinger, l'un des postulats fondamentaux de la mécanique quantique.

Plus précisément, le temps devenait alors « imaginaire pur », dans le jargon des mathématiciens, ce qui revenait à dire que l'espace-temps à 4 dimensions devenait de l'espace à 4 dimensions. Au lieu de « débuter », par un point de densité infini et avec une courbure également infinie de l'espace-temps, le cosmos aurait alors émergé d'une géométrie quantique floue, comme le sont les trajectoires des particules dans un atome. Une image de cette géométrie serait alors celle de la surface d'une sphère sans frontière ni bord. Il est possible de se déplacer sur cette surface sans rencontrer d'obstacle, ce qui n'est pas le cas sur celle d'un cône, puisque son sommet est précisément une singularité de la géométrie, ou encore sur la surface d'un cylindre qui possède deux bords.

L'effet tunnel et le temps imaginaire en cosmologie quantique

La proposition sans frontière (No boundary proposal) avec temps imaginaire de Hartle-Hawking allait fasciner par son élégance et parce qu'elle proposait une solution au problème de la naissance du temps. Une variante de cette cosmologie quantique a été proposée par le physicien russe Alexander Vilenkin, également pionnier de la théorie de l'inflation éternelle. Vilenkin a développé une idée en germe dans la théorie de l'atome primitif de Lemaître, conçu comme une sorte de noyau subissant une désintégration radioactive par effet tunnel.

Il se trouve que le temps imaginaire intervient d'une certaine façon dans la théorie de l'effet tunnel quantique et il est donc possible, comme l'ont fait Hartle et Hawking, d'y voir plus qu'une astuce de calcul mais bien un changement dans la nature de l'espace-temps. La théorie de Vilenkin suggère donc que l'univers a fait une sorte de saut par effet tunnel quantique d'un état qui n'est ni espace ni temps (qui peut être abusivement appelé « le néant » mais qui suppose tout de même l'existence préalable des lois de la physique) directement dans l'espace-temps primordial. »

 

No Universe without Big Bang

June 15, 2017

Credit: J.-L. Lehners (Max Planck Institute for Gravitational Physics)

According to Einstein's theory of relativity, the curvature of spacetime was infinite at the big bang. In fact, at this point all mathematical tools fail, and the theory breaks down. However, there remained the notion that perhaps the beginning of the universe could be treated in a simpler manner, and that the infinities of the big bang might be avoided. This has indeed been the hope expressed since the 1980s by the well-known cosmologists James Hartle and Stephen Hawking with their "no-boundary proposal", and by Alexander Vilenkin with his "tunneling proposal". Now scientists at the Max Planck Institute for Gravitational Physics (Albert Einstein Institute/AEI) in Potsdam and at the Perimeter Institute in Canada have been able to use better mathematical methods to show that these ideas cannot work. The big bang, in its complicated glory, retains all its mystery.

One of the principal goals of cosmology is to understand the beginning of our universe. Data from the Planck satellite mission shows that 13.8 billion years ago the universe consisted of a hot and dense soup of particles. Since then the universe has been expanding. This is the main tenet of the hot big bang theory, but the theory fails to describe the very first stages themselves, as the conditions were too extreme. Indeed, as we approach the big bang, the energy density and the curvature grow until we reach the point where they become infinite.

As an alternative, the "no-boundary" and "tunneling" proposals assume that the tiny early universe arose by quantum tunneling from nothing, and subsequently grew into the large universe that we see. The curvature of spacetime would have been large, but finite in this beginning stage, and the geometry would have been smooth - without boundary (see Fig. 1, left panel). This initial configuration would replace the standard big bang. However, for a long time the true consequences of this hypothesis remained unclear. Now, with the help of better mathematical methods, Jean-Luc Lehners, group leader at the AEI, and his colleagues Job Feldbrugge and Neil Turok at Perimeter Institute, managed to define the 35 year old theories in a precise manner for the first time, and to calculate their implications. The result of these investigations is that these alternatives to the big bang are no true alternatives. As a result of Heisenberg's uncertainty relation, these models do not only imply that smooth universes can tunnel out of nothing, but also irregular universes. In fact, the more irregular and crumpled they are, the more likely (see Fig. 1, right panel). "Hence the "no-boundary proposal" does not imply a large universe like the one we live in, but rather tiny curved universes that would collapse immediately", says Jean-Luc Lehners, who leads the "theoretical cosmology" group at the AEI.

Hence one cannot circumvent the big bang so easily. Lehners and his colleagues are now trying to figure out what mechanism could have kept those large quantum fluctuations in check under the most extreme circumstances, allowing our large universe to unfold.

https://cf3e497594.site.internapcdn.net/tmpl/v5/img/1x1.gif 

 

 

Partager cet article

Repost0
20 juin 2017 2 20 /06 /juin /2017 16:44

Il faudra un jour que la pensée en physique franchisse le Rubicond.

 

Jusqu’à présent l’effet Zénon est clairement observé et identifié mais n’est pas fondamentalement expliqué. Les physiciens se satisfont d’une description factuelle, sans que ne soit creusé, ne soit interrogé, le rôle spécifique de l’observateur. Voir article du 21/12/2011.

Jusqu’à présent ce que nous dit D. Mermin : « Les mesures (quantiques) ne ‘causent’ pas les choses qui se produisent dans le monde réel, quel qu’il soit ; elles causent les choses qui se produisent dans nos têtes. L’action fantôme à distance est aussi une illusion… », n’a pas suscité la moindre tentative de comprendre comment cela se produirait dans nos têtes. Voir article du 27/05/2014.

Jusqu’à présent ce que nous déclare A. Barrau et d’autres : « Mais il ne faut pas oublier… que nos manières d’appréhender cet « autre part » n’en demeurent pas moins humaines et créées… Nous choisissons et inventons les rapports au(x) monde(s) que nous jugeons pertinents. Ils ne sont pas donnés, ils sont construits. », continue d’être un commentaire gratuit, sans conséquence, puisqu’aucune nouvelle manière, autre que l’habituelle, n’a été jusqu’à présent suggérée. Pourquoi Barrau est-il resté au milieu du gué d’une réflexion pourtant pertinente ? Pourquoi est-ce avec la casquette de philosophe qu’il a avancé ce propos ? Voir articles du 12/04/2016 et du 23/04/2016.

Jusqu’à présent l’intrication entre des objets quantiques est absolument reconnue par les physiciens, les ingénieurs exploitent cette propriété, en repoussant sans discontinuité les limites de son exploitation, mais jusqu’à présent dans le cadre de la croyance réaliste traditionnelle les physiciens ne savent pas fondamentalement expliquer ce qui est en jeu. Voir article du 22/11/2014 et les autres.

Jusqu’à présent L. Smolin, affirme que : « L’univers réel a des propriétés qui ne sont pas représentables par un quelconque objet mathématique. Une de celles-ci est quil y a toujours un moment présent. Les objets mathématiques, étant intemporels, n’ont pas de moments présents, n’ont pas de futurs ni de passés. Toutefois, si on embrasse la réalité du temps et voit les lois mathématiques comme des outils plutôt que des miroirs mystiques de la nature, d’autres faits têtus, inexplicables, concernant le monde deviennent explicables… », mais il n’a pas pu aller au-delà de ce constat car il n’a pas pu franchir le Rubicond c’est-à-dire prendre le contre-pied de la métaphysique d’Einstein. Voir article du 02/02/2013.

Jusqu’à présent N. Gisin annonce dans un article au titre évocateur : « La physique a tué le libre arbitre et le flux du temps. Nous devons revenir en arrière » puis « Finalement, parce que la physique – et la science en général – est l’activité humaine ayant pour but de décrire et de comprendre comment la Nature fonctionne. Pour cette raison nous devons décrire aussi comment l’être humain interagit avec la nature, comment on la questionne. » Dans cet article, il a écrit en incise « désolé Einstein », il a donc fait les premiers pas en vue de franchir le Rubicond sans plus. Voir article du 03/06/2016

De plus en plus fréquemment des illustrations représentant l’univers et ses structures essentiels avec leur évolution dans le temps, depuis l’origine appelé Big Bang, sont accompagnées de la figure du Penseur de Rodin situé dans le temps actuel soit 13 milliards 800 millions d’années depuis ce Big Bang. Nous connaissons tous la posture de ce Penseur mais comment comprendre la présence de ce Penseur dans cette illustration ?

Est-il le contemplateur de Galilée hérité de Platon pour qui, l’intelligible ne s’apprend pas du visible, il appartient à l’âme qui doit le tirer, par la réminiscence, de son fonds. La science galiléenne étant une science d’un monde sans l’homme, d’un monde préétabli, préordonné, par des fondements physico-mathématiques, se passant de la pensée, bref La vérité de l’univers étant indifférente à la réalité de l’homme. Dans ce cas le penseur de Rodin est inapproprié, pour le moins superflu.

Est-ce le penseur Einsteinien qui doit être un acteur préalablement actif pour assurer les conditions de l’accueil de la réalité indubitable de l’univers ? Bref ici le penseur de Rodin est en partie approprié parce qu’il reçoit la réalité du monde qui vient à lui parce qu’il a assuré les conditions de cet accueil. Mais une fois établi le flux est à sens unique.

Est-ce, tout autrement, le penseur qui, selon mon point de vue, doit franchir le Rubicond ? Et partant doit considérer que la connaissance du monde n’est que sa connaissance du monde – et non point universel – façonnée selon ses capacités actuelles d’acquérir cette connaissance et ne peut pas être déclarée connaissance du réel car dans ce cas ce quasi platonisme – qui est franchement majoritaire chez les physiciens et les mathématiciens, consciemment ou non – s’oppose au flux biunivoque (flux évoqué par N. Gisin : « comment l’être humain interagit avec la nature, comment on le questionne » voir mon article du 23/08/2016.) qui doit être considéré comme un paradigme de l’évolution de l’anthrôpos. Pour illustrer mon propos, je me réfère à ce que nous dit la science paléoanthropologique toute récente, en effet : dans un article qui relatait récemment la découverte au Maroc de « l’Homo sapiens » le plus ancien (315 000 ans), l’un des découvreurs des restes de 5 individus nous dit : « Leur visage n’était pas différent de celui de n’importe qui dans le métro. Leur boîte crânienne était aussi volumineuse mais moins globulaire que la nôtre, et leur cervelet moins développé. L’évolution ne s’arrête pas, nous évoluons encore et toute la différence, entre les premiers sapiens et nous, tient probablement dans l’organisation interne du cerveau, sa connectivité. Malheureusement, la génétique ne sera d’aucun secours pour en savoir plus : il fait trop chaud au Maroc pour espérer récupérer de l’ADN ancien sur ces fossiles. »

Notre connaissance authentique de la nature physique du monde dans sa globalité sera atteinte lorsque notre cerveau, par l’acquisition de tout ce qui fait connaissances, assurera toutes ses connectivités possibles. Ici, il faut penser que c’est une dynamique parfaitement biunivoque qui est en jeu. L’aboutissement de ce processus est certainement imprédictible, puisqu’il nous renvoie dans l’infini spatio-temporel : le moteur de notre volonté de conquête.

Ce processus de croissance des connectivités possibles, qui dirige pour l’essentiel notre évolution, subit probablement une croissance exponentielle qui doit présentement nous rendre humble à l’égard du statut de nos connaissances actuelles, qui devraient être à mon sens non seulement considérées comme des approximations de ce qui seraient, mais, pour permettre le bon recul intellectuel, devraient être pensées comme des apparaîtres construits illustratifs de nos capacités cognitives actuelles, représentants de l’état provisoire et daté de notre évolution.

Ci-dessous, je joins la traduction d’un article avec son original en copie, car il fait réfléchir et puis il sera probablement repris ultérieurement en référence.

Est-ce que la vie est plus probable que les trous noirs d’être une adaptation pour la duplication de l’univers ? Article du 15 juin par Sarah Cox de la Brunel Université de Londres.

La vie intelligente est plus probable, que ne le sont les trous noirs, d’être une adaptation conçue par la sélection naturelle cosmologique. C’est ce que spécule un évolutionniste de l’Université Brunel. Michael Price qui adopte un point de vue adaptationniste à propos de la théorie de la sélection naturelle cosmologique introduite par Lee Smolin au début des années 1990. En effet celui-ci suggère que les trous noirs sont une adaptation conçue par la sélection cosmologique naturelle et que la vie est un sous-produit de la sélection pour les trous noirs. L’autoréplication au moyen des trous noirs et la sélection favorisent des univers qui contiennent plus de trous noirs.

Price théorise qu’en considérant notre connaissance, à propos du comment la sélection naturelle opère au niveau biologique, la vie intelligente est actuellement plus vraisemblable que les trous noirs d’être un mécanisme par lequel les univers se répliquent eux-mêmes – un concept connu en tant que sélection naturelle cosmologique avec intelligence (a concept known as cosmological natural selection (CNS) with intelligence). (A mon sens il faut comprendre cette phrase : CNS grâce à l’intelligence)

Price note que la sélection naturelle opérant au niveau biologique est le processus connu le plus fort dans l’univers pour créer un ordre complexe et pour faire diminuer le processus de l’entropie croissante (dégénération et désintégration), et cela devrait opérer aussi bien au niveau cosmologique. Essentiellement, la vie est ordonnée avec bien plus de complexité et elle est vraisemblablement moins certaine de survenir par chance qu’un trou noir et donc plus vraisemblablement d’être une adaptation de la duplication d’univers. Ce point de vue est contrasté de celui de Smolin qui suggère que les trous noirs résultent de l’adaptation et la vie est un sous-produit.

« Les organismes vivants sont les moins entropiques, c’est-à-dire les complexités les plus ordonnées et les entités improbables connues pour exister » nous explique Price.

La sélection biologique naturelle (Biological natural selection (BNS)) est donc le processus anti-entropique le plus fort connu parce qu’il crée des organismes. La sélection biologique naturelle dote ces organismes avec des traits (caractères) nommés des adaptations qui ultimement rendent possible les réplications génétiques. On reconnaît un trait comme une adaptation basée sur sa complexité improbable, et cette complexité est le signe (la marque) de la sélection naturelle.

Si nous acceptons, comme l’argumente Smolin, que nous vivons dans un multivers où les modèles d’univers se reproduisent compétitivement selon un processus de sélection, alors la sélection biologique naturelle peut être un guide fiable auquel nous pourrions nous attendre de la sélection naturelle cosmologique.

  1. implication, je suggère qu’ensemble la vie intelligente et les trous noirs sont des candidats plausibles pour être des adaptations conçus par CNS mais la probabilité d’être une telle adaptation est plus grande pour la vie que pour les trous noirs ou bien sûr, pour tout autre objet connu dans l’univers, parce que la vie est la chose la plus complexe et improbable dont nous avons connaissance.

Je suggère aussi que plus généralement, CNS pourrait être l’ultime cause première de l’ordre cosmologique, juste comme BNS est l’ultime cause première de l’ordre biologique. En d’autres mots, BNS et CNS pourraient être ensemble ultimement responsables de plus d’ordre que nous observons dans l’univers. Sans cet ordre il n’y aurait pas d’entropie parce que rien ne se désintègrerait dans un état d’ordre inférieur et en conséquence pas de flèche du temps.

En somme, le processus de la sélection pourrait être bien plus fondamental pour expliquer la nature de notre univers tel qu’il est généralement supposé.

Je rappelle pour mémoire, durant ces deux dernières décennies on a identifié à coup sûr trois catégories de trous noirs : ceux d’une masse de quelques dizaines de masses solaires et on cherche à savoir la densité de présence de ceux-ci par unité de volume d’univers soit en binaire soit en unitaire ; ceux qualifiés massifs (millions de masses solaires), hypermassifs (milliards de masses solaires) qui sont au cœur des galaxies matures ; ceux que l’on découvre maintenant, hypermassifs et de moins d’un milliard d’années depuis le Big Bang. Enfin on cherche à savoir si des trous noirs primordiaux existent dans notre univers et quelle serait leur masse aussi quelle serait leur densité de répartition dans l’univers.

Is life more likely than black holes to be an adaptation for universe replication?

June 15, 2017 by Sarah Cox, Brunel University London

  1. life is more likely than black holes are to be an adaptation designed by cosmological natural selection, an evolutionist from Brunel University London speculates.

Writing in the journal Complexity, Dr Michael Price takes an adaptationist view on the theory of cosmological natural selection introduced by theoretical physicist Professor Lee Smolin in the early 1990s.

Smolin suggests that black holes are an adaptation designed by cosmological natural selection and that life is a by-product of selection for black holes. Universes self-replicate through black holes, and selection favours universes that contain more black holes.

Dr Price theorises that, based on our knowledge about how natural selection operates at the biological level, intelligent life is actually more likely than black holes to be a mechanism by which universes replicate themselves – a concept known as cosmological natural selection (CNS) with intelligence.

Price notes that natural selection operating at the biological level is the strongest known process in the universe for creating complex order and for slowing down the process of increasing entropy (degeneration and decay), and it may operate at the cosmological level as well.

Essentially, life is much more complexly ordered and less likely to arise by chance than a black hole, and thus more likely to be an adaptation for universe replication, he explains. This view contrasts with Smolin's suggestion that black holes are the adaptation and life is the by-product.

"Living organisms are the least entropic, that is, the most complexly ordered and improbable entities known to exist," Dr Price, Head of Brunel's Centre for Culture and Evolution, explains.

"Biological natural selection (BNS), then, is the strongest known anti-entropic process because it creates organisms. Biological natural selection endows those organisms with traits called adaptations that ultimately enable genetic replication. We recognise a trait as an adaptation based on its improbable complexity, and this complexity is the hallmark of natural selection.

"If we accept, as Professor Smolin argues, that we live in a multiverse where universe designs reproduce competitively according to a process of selection, then biological natural selection may be a reliable guide to what we should expect from cosmological natural selection.

"By implication, I suggest that both intelligent life and black holes are plausible candidates to be CNS-designed adaptations but the probability of being such an adaptation is higher for life than black holes or indeed, for any other known object in the universe, because life is the most complexly improbable thing we know of.

"I also suggest that more generally, CNS may be the ultimate primary cause of cosmological order, just as BNS is the ultimate primary cause of biological order. In other words, BNS and CNS may together be ultimately responsible for much of the order that we observe in the universe. Without this order there would be no entropy because nothing would decay to a less-ordered state and therefore no arrow of time.

"In sum, the process of selection may be far more fundamental to explaining the nature of our universe than is generally supposed."

Explore further: Did the universe evolve to make black holes?

More information: 'Entropy and selection: Life as an adaptation for universe replication' by Michael E. Price, Department of Life Sciences, Brunel University London, is published in Complexity: www.hindawi.com/journals/complexity/aip/4745379/

Provided by: Brunel University

 

 

Partager cet article

Repost0
30 mai 2017 2 30 /05 /mai /2017 09:43

Toujours à la recherche de la ‘Spooky action’, dommage.

Avec cet article, je me propose de vous informer du projet d’expérience qui n’est pas banal car pensé par des physiciens mais qui met en évidence une véritable inertie de cette pensée (parce qu’on n’a pas encore dépassé la réflexion qui exprime l’étonnement et le refus d’Einstein). Toutefois il est intéressant de connaître ce projet et par la suite le résultat qui sera obtenu. C’est dans le NewScientist que se trouve l’article de présentation que je mets en copie à la fin du présent. Son titre est : ‘Un test de la physique quantique classique pourrait révéler les limites de l’esprit humain’ (A classic quantum test could reveal the limits of the human mind).

C’est dans le cadre d’une opération d’intrication que ce test est programmé, il est centré sur la tentative de mettre en évidence le concept de ‘l’action fantôme’, qui était l’expression de l’étonnement et du refus d’Einstein d’admettre l’explication proposée par N. Bohr. Ici, la tentative relève de savoir si, au bout du compte, l’action fantôme serait peut-être une opération due à l’esprit humain (‘être dans la nature’) déconnecté de toutes déterminations de ‘l’être de la nature’. A priori je pourrai me satisfaire qu’il peut être enfin considéré que la ‘présence du sujet pensant’ jouerait un rôle en faveur d’une interprétation correcte et complète de propriété physique. Mais l’hypothèse cible que veulent vérifier les auteurs du projet d’expérience, n’est pas, selon mon hypothèse, la bonne, loin de là.

Je cite : « En 1964, J. Bell ouvre la voie pour tester si les particules intriquées s’influencent l’une à l’autre. Il conçoit une expérience qui implique une paire de particules intriquées et envoie une de celle-ci en A et l’autre en B. A chacun de ces lieux, il y a un instrument qui mesure, par exemple, le spin de la particule. La caractéristique des instruments est de mesurer le spin à +45 ou -45°, ceci est défini par des générateurs de nombre au hasard, de telle façon qu’il est impossible pour A de connaître la façon dont celle de B est établie, vice-versa, au moment de la mesure.

Les mesures sont réalisées pour un nombre important de paires intriquées. Si la physique quantique est correcte et qu’il y ait effectivement une action fantôme à distance, alors les résultats de ces mesures seront corrélés un plus grand nombre de fois que ceux que si Einstein avait raison. Toutes les expériences ont vérifié l’interprétation de Bohr.

Néanmoins, quelques physiciens ont argumenté que les nombres aléatoires générés ne seraient pas véritablement le fait du hasard. Il se pourrait qu’ils soient gouvernés par une physique sous-jacente que nous ne comprenons toujours pas et ce ‘super-déterminisme’ pourrait expliquer les corrélations observées.

Maintenant, Lucien Hardy de l’institut ‘Perimeter’ au Canada suggère que les mesures, entre A et B, pourraient être contrôlées par quelque chose qui pourrait être séparée du monde matériel : l’esprit humain.

Question de libre arbitre.

Pour tester cette idée, L. Hardy propose une expérience dans laquelle A et B sont définis à 100km l’un de l’autre. En chaque lieu, sont présent de l’ordre de 100 personnes équipées de casques EEG (électroencéphalographique) décryptant les réactions du cerveau. Les signaux émis sont utilisés pour changer le réglage des instruments de mesure en chacun des points A et B. L’idée est d’obtenir un très grand nombre de mesures en A et B et extraire la petite fraction dans laquelle les signaux EEG provoquent des changements de réglage en A et B après le départ des particules de leur point origine mais avant qu’ils arrivent et qu’ils soient mesurées.

Si le nombre de corrélations entre ces mesures ne correspond pas avec les prévisions de Bell, cela implique une violation de la théorie quantique, pointant que les mesures en A et B seraient contrôlées par un processus en dehors de la conception physique standard.

Si on constate une violation de la théorie quantique quand vous avez un système qui pourrait être considérée comme conscient, humain ou autres animaux, cela pourrait être passionnant. Je ne peux pas imaginer un résultat expérimental plus frappant que ça. »

Ensuite les trois derniers paragraphes, comme on peut le constater dans la version originale (ci-jointe) est consacré au libre arbitre de l’humain. Considérer que l’être humain disposerait d’une capacité d’agir, de concevoir, de penser, qui s’appuierait sur une faculté de libre arbitre absolue, n’a pas de valeur, parce que erronée. Que l’être humain veuille tendre vers cet absolu c’est certain, mais il n’est pas souhaitable de considérer que cela soit à l’œuvre car ce serait ignorer le poids des déterminations (l’article ‘Pas à pas’ en est une illustration) qui ne pourront se réduire qu’avec la découverte de nouvelles connaissances c’est-à-dire que le poids de ‘l’être de la nature’ aille diminuant.

J’ai voulu signaler l’existence de cet article parce que confrontés avec l’inexplicable de l’intrication, on commence à considérer que la ‘présence du sujet pensant’ pourrait offrir une explication. De plus, c’est la première fois que je lis une proposition d’évaluation d’une expérience prédéfinie (en dehors de la mienne en 2012, voir article précédent : ‘Pas à pas’) avec la contribution de l’imagerie cérébrale.

A classic quantum test could reveal the limits of the human mind

A quantum test could tell us what minds are made of

Dominic Lipinski/PA

By Anil Ananthaswamy

The boundary between mind and matter could be tested using a new twist on a well-known experiment in quantum physics.

Over the past two decades, a type of experiment known as a Bell test has confirmed the weirdness of quantum mechanics – specifically the “spooky action at a distance” that so bothered Einstein.

Now, a theorist proposes a Bell test experiment using something unprecedented: human consciousness. If such an experiment showed deviations from quantum mechanics, it could provide the first hints that our minds are potentially immaterial.

Advertisement

Spooky action at a distance was Einstein’s phrase for a quantum effect called entanglement. If two particles are entangled, then measuring the state of one particle seems to instantly influence the state of the other, even if they are light years apart.

But any signal passing between them would have to travel faster than the speed of light, breaking the cosmic speed limit. To Einstein, this implied that quantum theory was incomplete, and that there was a deeper theory that could explain the particles’ behaviour without resorting to weird instantaneous influence. Some physicists have been trying to find this deeper theory ever since.

Demonstrating Descartes

In 1964, physicist John Bell paved the way for testing whether the particles do in fact influence each other. He devised an experiment that involves creating a pair of entangled particles and sending one towards location A and the other to location B. At each point, there is a device that measures, say, the spin of the particle.

The setting on the device – for example, whether to measure the particle’s spin in the +45 or -45 degree direction – is chosen using random number generators, and in such a way that it’s impossible for A to know of B’s setting and vice-versa at the time of the measurement.

The measurements are done for numerous entangled pairs. If quantum physics is correct and there is indeed spooky action at a distance, then the results of these measurements would be correlated to a far greater extent than if Einstein was correct. All such experiments so far have supported quantum physics.

However, some physicists have argued that even the random number generators may not be truly random. They could be governed by some underlying physics that we don’t yet understand, and this so-called “super-determinism” could explain the observed correlations.

Now, Lucien Hardy at the Perimeter Institute in Canada suggests that the measurements at A and B can be controlled by something that could potentially be separate from the material world: the human mind.

“[French philosopher Rene] Descartes put forth this mind-matter duality, [where] the mind is outside of regular physics and intervenes on the physical world,” says Hardy.

Question of free will

To test this idea, Hardy proposed an experiment in which A and B are set 100 kilometres apart. At each end, about 100 humans are hooked up to EEG headsets that can read their brain activity. These signals are then used to switch the settings on the measuring device at each location.

The idea is to perform an extremely large number of measurements at A and B and extract the small fraction in which the EEG signals caused changes to the settings at A and B after the particles departed their original position but before they arrived and were measured..

If the amount of correlation between these measurements doesn’t tally with previous Bell tests, it implies a violation of quantum theory, hinting that the measurements at A and B are being controlled by processes outside the purview of standard physics.

“[If] you only saw a violation of quantum theory when you had systems that might be regarded as conscious, humans or other animals, that would certainly be exciting. I can’t imagine a more striking experimental result in physics than that,” Hardy says. “We’d want to debate as to what that meant.”

Such a finding would stir up debate about the existence of free will. It could be that even if physics dictated the material world, the human mind not being made of that same matter would mean that we could overcome physics with free will. “It wouldn’t settle the question, but it would certainly have a strong bearing on the issue of free will,” says Hardy.

Nicolas Gisin at the University of Geneva in Switzerland thinks Hardy’s proposal makes “plenty of sense”, but he’s sceptical of using unstructured EEG signals to switch settings on devices. That’s akin to using the brain as a random number generator, says Gisin. He would rather see an experiment where the conscious intent of humans is used to perform the switching – but that would be experimentally more challenging.

Either way, he wants to see the experiment done. “There is an enormous probability that nothing special will happen, and that quantum physics will not change,” says Gisin. “But if someone does the experiment and gets a surprising result, the reward is enormous. It would be the first time we as scientists can put our hands on this mind-body or problem of consciousness.”

Journal reference: arXiv, DOI: 1705.04620v1

 

Partager cet article

Repost0
27 mai 2017 6 27 /05 /mai /2017 14:27

Pas à pas

‘Pas à pas’, parce que le projet d’expérience que je propose et que j’ai précisé une ultime fois dans l’article du 21/09/2016 et confirmé dans celui 15/10/2016 rencontre une validité supplémentaire dans l’article que je présente ci-dessous.

‘Pas à pas’, parce que j’avais conscience que mon hypothèse de base qui m’a conduit à imaginer le projet d’expérience dès l’article du 2/11/2012 (expérience 1) avait un caractère inacceptable a priori pour la communauté scientifique et cela ne pouvait être que ‘pas à pas’ qu’il pouvait être entendu. Il me semble qu’il est pertinent maintenant de concevoir concrètement l’expérience que je propose et c’est aux experts de l’imagerie cérébrale d’affiner le protocole, de réaliser l’expérience et offrir les données qui nous permettront de cheminer vers la compréhension, la source, de ce fameux phénomène quantique débarrassé de son qualificatif bizarre.

Donc je fais référence à l’article qui vient d’être publié dans le NewScientist qui résume l’article, DOI : 10.7554/eLife.21761. Son titre : ‘Nos cerveaux préfèrent de l’information visuelle inventée au chose réelle’. (Nos cerveaux suppléent les ‘bits’ que nos yeux ne peuvent pas voir.) est en copie pour l’essentiel en fin du présent article. Le titre de l’article original DOI étant : ‘Humans treat unreliable filled-in percepts as more real than veridical ones’

« Voir ne devrait pas toujours être cru. Nous avons tous des points aveugles dans notre vision, mais nous ne les remarquons pas parce que nos cerveaux comblent le trou avec de l’information fabriquée.

Si le cerveau fonctionne de cette façon dans d’autres domaines, cela suggère que nous devrions être moins confiants de ce qui nous semble évident d’après nos sens. La perception ne nous fournit pas la vraie représentation du monde, elle est contaminée par ce que nous connaissons déjà (sic) »

« Le point aveugle est provoqué par un ‘patch’ à l’arrière de chacun des yeux où il n’y a pas de cellules sensibles à la lumière, juste un trou que nos neurones évacuent de l’œil sur le chemin vers le cerveau. Nous ne notons pas ces points aveugles parce que nos deux yeux peuvent les combler mutuellement. Quand notre vision est obscurcie sur un œil, le cerveau fabrique ce qui manque dans l’espace du trou en assumant que, quel que soit ce qui est dans les régions autour, le trou continue de représenter. »

Tour de l’esprit.

« Mais savons-nous inconsciemment que cette vision complétée est moins digne de confiance que l’information visuelle réelle ? Benedikt Ehinger de l’université d’Osnabrück et ses collègues obtiennent une réponse à cette question en demandant à 100 personnes de regarder une photo d’un cercle de bandes verticales, contenant un petit ‘patch’ de bandes horizontales. Le cercle était positionné de telle façon qu’avec un œil caché, le ‘patch’ des bandes horizontales tombe dans le point aveugle de l’autre œil. Comme résultat, le cercle apparaît pensé comme s’il n’y avait pas de ‘patch’ et comme si les bandes verticales étaient continues.

Ensuite à cela, il y avait un autre cercle avec des bandes verticales sans aucun ‘patch’ de bandes horizontales. On demandait aux personnes de choisir quel cercle semblait avoir des bandes continues. L’équipe d’Ehinger espérait que les personnes choisiraient plus souvent le cercle sans ‘patch’. Cela semblait plus logique de choisir celui où ils peuvent réellement voir toute l’information.

Biais cognitif

En fait, les personnes choisirent, le cercle qui avait : la vision complétée, à 65%. « Nous n’avions jamais prévu ceci » dit Ehinger. Quand les personnes tiennent des croyances fortes, ils sont propices à ignorer les évidences du contraire.

Il n’y a aucun bénéfice évident pour nos cerveaux d’ignorer une information extérieure, dit Ehinger. « J’ai parlé à beaucoup de personnes à ce propos, et tous m’ont dit que ça n’avait pas de sens. »

Comme dans les points aveugles de la vision, il y a d’autres domaines dans lesquels nos perceptions sont changées par nos expectatives cérébrales. Par exemple, si des chansons bien connues sont converties en format MIDI, ce qui élimine les voix, les gens peuvent couramment ‘entendre’ les mots qui ne sont pas réellement là. »

Pour rappel, j’ai été amené à proposer l’expérience précise de l’article du 21/09/2016 parce qu’il faut prendre en compte le poids des déterminations (dans l’article du NewScientist désignées : contaminations) qui habitent l’être humain. L’être humain, donc le physicien, n’est pas un penseur nu, il est habité par des déterminations profondes, formatrices, c’est à mes yeux, ce qu’il en est de la détermination spatio-temporelle. La libération, par rapport à ces déterminations, ne peut s’obtenir qu’après avoir atteint le stade de sa reconnaissance concrète sur le plan expérimental et ainsi évaluer les biais apportés par ces déterminations qui ensuite peuvent, peu ou prou, être intellectuellement contournées. Cela fait partie du processus de notre évolution potentielle en tant que ‘sujet pensant’. C’est ce que j’ai exprimé dans l’article du 26/09/2015 : ‘Non, on ne pense pas quantique. Pas encore !’. Aussi comme indiqué dans l’article ultime du 24/05 : ‘Emergence :…’ la propriété de l’intrication pourra être élucidée si la problématique de la fondation de l’espace-temps est cernée.

Our brains prefer invented visual information to the real thing’, in the NewScientist.

Our brains make up for the bits our individual eyes can’t see.

By Clare Wilson

Seeing shouldn’t always be believing. We all have blind spots in our vision, but we don’t notice them because our brains fill the gaps with made-up information. Now subtle tests show that we trust this “fake vision” more than the real thing.

If the brain works like this in other ways, it suggests we should be less trusting of the evidence from our senses, says Christoph Teufel of Cardiff University, who wasn’t involved in the study. “Perception is not providing us with a [true] representation of the world,” he says. “It is contaminated by what we already know.”

The blind spot is caused by a patch at the back of each eye where there are no light-sensitive cells, just a gap where neurons exit the eye on their way to the brain.

Advertisement

We normally don’t notice blind spots because our two eyes can fill in for each other. When vision is obscured in one eye, the brain makes up what’s in the missing area by assuming that whatever is in the regions around the spot continues inwards.

Trick of the mind

But do we subconsciously know that this filled-in vision is less trustworthy than real visual information? Benedikt Ehinger of the University of Osnabrück in Germany and his colleagues set out to answer this question by asking 100 people to look at a picture of a circle of vertical stripes, which contained a small patch of horizontal stripes.

The circle was positioned so that with one eye obscured, the patch of horizontal stripes fell within the other eye’s blind spot. As a result, the circle appeared as though there was no patch and the vertical stripes were continuous.

Next to this was another circle of vertical stripes without a patch of horizontal stripes. People were asked to choose which circle seemed most likely to have continuous stripes.

Ehinger’s team were expecting that people would choose the circle without a patch more often. “It would be more logical to choose the one where they can really see all the information,” he says.

Cognitive bias

In fact, people chose the circle that had a filled-in patch 65 per cent of the time. “We never expected this,” says Ehinger. “The brain trusts its own generated information more than what it sees outside in the world.”

This fits in with what we know about cognitive biases, says Ehinger. When people hold strong beliefs, they are likely to ignore any evidence to the contrary.

There is no obvious benefit to our brains ignoring external information, says Ehinger. “I’ve talked to many people about it, and they all say it doesn’t make sense,” he says.

As well as blind spots in vision, there are other ways in which our perceptions are changed by the brain’s expectations, says Teufel. For instance, if a well-known song is converted to MIDI format, which strips out the vocals, people can usually “hear” words that aren’t really there.

Journal reference

DOI: 10.7554/eLife.21761 

 

Partager cet article

Repost0
24 mai 2017 3 24 /05 /mai /2017 17:20

Emergence : pourquoi les physiciens recourent-ils à cette notion ?

Avec cet article je propose de réfléchir à la notion d’émergence qui fait florès actuellement en physique théorique et ainsi tenter de comprendre si cette notion constitue un subterfuge ou bien constitue une avancée de la compréhension de certaines propriétés physiques, jusqu’à présent, impossibles à élucider.

Je propose de prendre comme premier exemple de la survenue de la notion d’émergence celui relatif à la théorie de la gravité quantique à boucles telle qu’elle est présentement développée par Carlo Rovelli. Il écrit : « Il n’y a pas de temps dans la gravité quantique à boucles… Qu’est-ce donc enfin que le temps, et son « écoulement ?» « Le temps doit émerger (sic), comme l’espace, du champ gravitationnel quantique[1]. » Selon l’auteur, les raisons pour lesquelles l’espace et le temps ne résultent que d’un processus émergent, c’est qu’ils ne sont pas réels car selon lui le monde est fait de champs quantiques invariants. P 177, du livre cité : « Les particules sont des quantas de champs quantiques ; la lumière est formée des quantas d’un champ ; l’espace n’est qu’un champ, lui aussi quantique ; et le temps naît à partir des processus de ce même champ. Autrement dit, le monde est entièrement fait de champs quantiques. Ces champs ne vivent pas dans l’espace-temps ; ils vivent, pour ainsi dire, les uns sur les autres : des champs sur des champs. L’espace et le temps que nous percevons à grande échelle sont l’image floue et approchée d’un de ces champs quantiques : le champ gravitationnel. Ces champs qui vivent sur eux-mêmes, sans besoin d’un espace-temps pour leur servir de substrat, et capable d’engendrer eux-mêmes l’espace-temps, sont appelés champs quantiques covariants. »

Le deuxième exemple qui fait intervenir un processus d’émergence, nous le devons à Erik Verlinde, physicien théoricien Hollandais. Sa proposition théorique[2] d’émergence concerne la gravitation. Pour lui l’espace-temps est réel à l’échelle quantique et la gravitation telle qu’elle est décrite par la Relativité Générale est émergente, voici ce qu’il nous explique : « Le but de la gravité émergente est d’obtenir les équations qui gouvernent la gravité à partir de considérations quantique en utilisant des ingrédients de la théorie de l’information quantique. Une des idées principales est que différents éléments d’espace-temps sont englués grâce à l’intrication quantique. La gravité peut être obtenue à partir d’unités microscopiques qui façonnent l’espace-temps. Ces ‘molécules d’espace-temps’ sont des unités d’information quantique (qubits) qui sont entre elles intriquées, avec l’importance de l’intrication mesurée par l’entropie d’intrication. »

Quand on lui demande combien la gravité émergente affecterait le reste de la physique ? Voici ce qu’il en pense :

« Notre perception des composants fondamentaux de la nature changerait d’une manière drastique. Nous ne penserons plus en termes de particules élémentaires et de forces fondamentales mais en unités d’information quantique. Désormais, les forces de jauge responsables des interactions électrofaibles et fortes seront comprises comme étant émergentes, et cela constitue la voie par laquelle les forces fondamentales de la nature deviendront unifiées. Dans ce sens, toutes les lois courantes de la nature seront perçues comme émergentes. »

Le troisième exemple qui fait intervenir une théorie de l’émergence nous le trouvons dans les deux articles du récent numéro de ‘Pour la Science’ de mai 2017 qui a pour titre général ‘Trous noirs intriqués : une porte vers l’espace-temps quantique’. premier article de Clara Moskowitz, affirme d’entrée : « l’espace et le temps émergeraient de l’intrication quantique de minuscules bribes d’information : telle est l’audacieuse hypothèse explorée par le projet collaboratif intitulé It from Qubit. » Qubit est la contraction de bit quantique et représente la plus petite quantité d’information : c’est la version quantique du bit informatique. Malgré les apparences ce troisième exemple diffère de celui évoqué par E. Verlinde et inversement à ce que postule C. Rovelli, voir page 22 de ‘PlS’ :« l’espace-temps serait le constituant premier originairement composé de minuscules bouts d’information. Selon cette approche, ces petits éléments, en interagissant, créent l’espace-temps et font émerger ses propriétés, telles que la courbure – dont découle la gravité. » « De quoi exactement ces bits sont-ils faits et quel type d’information contiennent-ils ? s chercheurs l’ignorent. Mais curieusement cela ne semble pas les déranger. Ce qui compte, ce sont les relations entre les bits eux-mêmes. Toute la richesse vient de ces relations collectives. Ici, l’élément crucial, ce n’est pas les constituants, mais la manière dont ils s’organisent. »

A la lecture de ces quelques lignes, il est légitime d’exprimer un certain scepticisme à propos du recours à cette thèse de l’émergence. Celle-ci est actuellement proposée après des décennies infructueuses de mise en évidence d’une véritable théorie de la gravité quantique confirmée par l’observation et donc acceptée par la communauté scientifique. Est-ce que ce recours à l’émergence ne serait qu’un moyen détourné qui masquerait un renoncement à savoir reconnaître, identifier, exprimer, les propriétés de la nature à l’échelle quantique ? Ce qui se dit dans l’article à ce niveau c’est qu’après tout peu importe ce qui précède ce que l’on fait apparaître en accord avec le processus de l’émergence. En conséquence, avec cette marge de liberté que s’octroient les théoriciens en question, ce qu’ils font apparaître, in fine, par l’intermédiaire du processus d’émergence relève plutôt de l’intuition, de la conception, a priori des auteurs, et non pas le fruit d’un raisonnement scientifique rigoureux, habituel, qui puisse être compris et partagé, pas à pas, par les collègues physiciens. N’oublions pas que l’interaction en jeu c’est l’intrication dont nous connaissons définitivement sa bizarre phénoménologie sans comprendre quoi que ce soit de sa nature. Donc, il est évident qu’il faut garder une bonne distance intellectuelle à l’égard de ce qui est énoncé dans le cadre de cette thèse de l’émergence, ainsi je cite, p.23 : « Selon une idée fascinante (sic) proposée récemment, l’étoffe de l’espace-temps serait tissée par l’intrication quantique des éléments sous-jacents d’espace-temps, qu’elle qu’en soit la nature. » « La gravité et l’espace-temps pourraient n’être que le produit final, en trois dimensions, de l’intrication des qubits dans un espace n’ayant seulement que deux dimensions. » Certes les chercheurs (déjà +200) qui travaillent sur ce sujet n’ignorent pas l’étendue du chantier et ses arêtes, mais cette propension à mettre la charrue devant les bœufs peut nourrir un certain scepticisme. P.24 : « Une fois que les différents aspects de l’intrication seront mieux compris et maitrisés, les chercheurs comprendront peut-être comment l’espace-temps émerge de ce phénomène (sic). »

Le deuxième article de ‘PlS’ est écrit par J. Maldacena, il a pour titre : ‘l’intrication quantique est-elle un trou de ver ?’, par un raccourci fréquent on écrit EPR=ER, conjecture proposée Maldacena et L. Susskind en 2013. EPR fait référence à l’article fondateur de la propriété de l’intrication et ER fait référence à l’article fondateur du trou de ver. D’un point de vue théorique les trous de ver laissent apparaître des propriétés qui pour nous ne peuvent être que de l’ordre de la fiction. Ainsi un trou de ver permet sur le papier à un vaisseau spatial ou tout autre objet d’entrer par une extrémité et en sortir instantanément à son autre extrémité située dans un lieu et un temps différent. Les trous de ver à la Einstein-Rosen (ER) ne sont pas traversables, ils s’effondrent avant que l’on se présente devant. Selon les travaux de J. Maldacena et d’autres, des trous noirs objets quantiques par excellence pourraient être intriqués, plus précisément puisque : « vus de l’extérieur, les trous noirs ressemblent à des systèmes quantiques ordinaires, rien ne nous empêche (en théorie) de considérer deux trous noirs intriqués et très distants l’un de l’autre. Chacun a un grand nombre de micro-états quantiques possibles. Et l’on peut imaginer (sic) une intrication telle que chaque micro-état quantique du premier trou noir est corrélé avec le micro-état correspondant du second. A partir de là nous suggérons qu’une paire de trous noirs aux micro-états ainsi intriqués produirait un espace-temps dans lequel le trou de ver relierait l’intérieur des deux trous noirs. En d’autres termes, l’intrication quantique crée une connexion géométrique entre les deux trous noirs. » « Si l’équivalence entre trous de ver et l’intrication quantique se généralise (sic), la connexion spatiale pourrait impliquer de minuscules structures quantiques qui ne suivraient pas notre vision habituelle de la géométrie. Nous ne savons toujours pas décrire ces géométries microscopiques, mais l’intrication de ces structures pourrait, d’une manière ou d’une autre, donner naissance à l’espace-temps lui-même. C’est comme si l’intrication pouvait être considérée comme un fil reliant deux systèmes. Quand la quantité d’intrication augmente, nous avons beaucoup de fils, et ensemble ces fils pourraient tisser la trame de l’espace-temps. Dans cette représentation, les équations de la relativité d’Einstein régissent les connexions et les reconnexions de ces fils, tandis que la physique quantique serait l’essence de la construction de l’espace-temps. »

Je cite largement J. Maldacena parce que ses analyses et ses résultats scientifiques sont réputés. Ci-dessus on lit sa conviction que l’émergence de l’espace-temps résulte d’un processus qui se trame dans la nature et qu’il y aurait enfin matière à unifier relativité générale et mécanique quantique.

Dans plusieurs articles (notamment celui du 9/12/2015) j’ai proposé que l’intrication quantique entre deux objets devait s’expliquer, du point de vue de l’observateur, par l’absence d’espace-temps qui relie les objets car l’intrication se produit à l’origine dans un temps < TpS. Donc l’observateur ne peut fonder le temps et en corollaire l’espace, et en conséquence aucune différenciation des objets ne peut opérer. Etant donné l’interprétation la plus courante du trou de ver, j’accepte l’égalité EPR = ER, qui conforteraient ma conception de l’intrication et sa cause. Mais la conséquence est remarquable car selon mon scénario l’espace-temps témoigne de la présence du sujet pensant qui cogite à propos des lois de la nature et contrairement à ce que Maldacena nous dit, les ingrédients basiques de l’espace-temps ne sont pas dans la nature. Effectivement mon hypothèse est dérangeante pour la majorité des physiciens car ils sont toujours convaincus que les connaissances qu’ils mettent en évidence sont objectives et correspondent donc à un ‘voir’ et à un ‘connaître’ de ce qui est intrinsèque à la réalité : celle de la nature, c’est-à-dire ce qui est en dehors de nous : êtres humains. Il y a des positions dont le clivage est moins net avec les miennes, c’est le cas avec Mermin, avec Chalmers et les Qbists : voir article du 27/05/2014, mais le chemin de la convergence sera long parce que tortueux.

Toutefois, le fait que des physiciens absolument réalistes soient obligés de s’appuyer sur un concept d’émergence pour qu’à partir de celle-ci, ils soient capables de discerner des objets, des concepts, qui puissent s’insérer dans leur discours scientifique, devrait les interpeller sur la validité de leurs convictions de producteur d’un savoir universel. Ils devraient se demander pourquoi : ils ne lèvent le voile de la nature qu’à partir d’un certain stade en laissant dans une étonnante approximation voire dans l’épaisseur de l’ignorance des causes profondes et premières.

La notion d’émergence me convient, pas comme un recours face à la défaillance de la prédiction théorique, mais très explicitement je la conçois a priori lorsque je précise la conception rassemblée de ma métaphysique : « Au sein d’une éternité, parmi tous les possibles, l’anthrôpos ne cesse de creuser sa compréhension du monde… ». Dans cette formule le battement du temps est un symptôme, celui de la présence de l’anthrôpos et l’émergence est la conséquence de l’activité permanente du creusement vers la compréhension de la nature physique du monde.

 

[1] ‘Par-delà le visible’, p. 162, édit, O. Jacob, 01/2015

[2] Voir article du Cern-courier, May 2017

Partager cet article

Repost0
7 mai 2017 7 07 /05 /mai /2017 06:15

La science a besoin de raison pour produire de la confiance

 

Dans des articles principaux du 11/04/2017 et du 16/01/2016 et quelques autres, j’ai exprimé une sérieuse inquiétude à propos de ce que j’analyse comme étant une dérive redoutable de la pensée scientifique en tant que discipline ayant l’objectif d’accéder à des connaissances rigoureuses et partageables. Il y a maintenant quelques décennies que cette discipline prend des chemins qui fourvoient les fondements et les contraintes de celle-ci. Ce qui est impressionnant c’est que cela prend de l’ampleur avec l’impossibilité toujours actuelle de sortir des impasses théoriques aussi bien en cosmologie, en physique des particules élémentaires et plus particulièrement celle des neutrinos. Cette fuite en avant s’explique en partie à cause des moyens technologiques de plus en plus fabuleux dont l’humanité dispose et disposera ainsi que des moyens de calcul qui laissent croire que l’on peut voir originalement, par simulation, ce que l’on est incapable de penser. La communauté scientifique est dans l’incapacité de proposer de nouveaux paradigmes qui donneraient l’élan nécessaire pour dépasser les impasses actuelles. La nature ne nous dévoilera jamais ces paradigmes (naturellement) puisqu’ils ne sont que des productions de l’intelligence humaine engagée dans le dépassement perpétuel pour que la Nature nous dévoile ses lois et ses propriétés. C’est une praxis qui fut inhérente à l’histoire de l’émancipation de l’humanité, praxis qui continue de l’être pour son émancipation future, c’est-à-dire la nôtre.

C’est avec beaucoup d’intérêt et de satisfaction que j’ai pris connaissance d’un article du 05/04 dans la revue Nature : ‘Science needs reason to be trusted’, de Sabine Hossenfelder, qui nous dit avec beaucoup de lucidité et de sincérité, là où elle exerce son métier de physicienne, pourquoi nous nous rejoignons pour exprimer nos états d’alerte. Elle indique aussi – un point de vue que je partage – que les physiciens et spécialistes des sciences exactes ont tort de considérer que leur activité professionnelle les rend imperméables aux influences sociétales et à ses valeurs qui peuvent être versatiles. Sabine Hossenfelder exerce à l’institut des études avancées de Francfort.

Ci-joint le texte de l’article traduit par Michel, Alain, François, Daniel, dont j’assume la responsabilité de son assemblage.

« Je suis physicienne dans le domaine : théorie de la physique des particules, et je doute de la validité de la recherche dans ce domaine. Je sais que c’est déjà gênant mais il y a encore pire. Je crains que le public ait de bonnes raisons de ne pas faire confiance aux scientifiques et – triste mais vrai – moi-même je trouve également qu’il est de plus en plus difficile de leur faire confiance.

Au cours des dernières années la confiance en la science a été sévèrement mise en question par la crise de la reproductibilité. Ce problème a principalement touché les sciences de la vie où il arrive que de nombreuses découvertes validées par des pairs ne peuvent être reproduites de manière indépendante. Les tentatives pour remédier à cela se sont concentrées sur l’amélioration des dispositions actuelles relatives à la fiabilité statistique et la façon dont elles sont appliquées en pratique. Des changements de ce type ont été mis en œuvre pour améliorer l’objectivité scientifique ou – de manière plus brutale – empêcher les scientifiques de se mentir et de mentir aux autres. Ils ont été conçus pour rétablir la confiance.

La crise de la reproductibilité est un problème mais au moins c’est un problème qui a été identifié et qui est traité. Néanmoins, où je suis, dans un domaine de recherche qui peut, grosso modo être défini comme les fondements de la physique – cosmologie, physique au- delà du modèle standard, fondements de la mécanique quantique – je suis au contact direct d’un problème bien plus important.

  1. travaille dans l’élaboration des théories. Notre tâche, consiste en gros à trouver des nouvelles – et d’une certaine façon meilleures – explications à des observations déjà existantes et à en tirer ensuite des prédictions pour tester ces nouvelles propositions prédictives. Nous n’avons pas de crise de reproductibilité car au départ nous ne disposons pas de données – toutes les observations disponibles peuvent s’expliquer par des théories bien établies (à savoir : le modèle standard de la physique des particules élémentaires et le modèle standard de la cosmologie : LCDM).

Mais nous avons une crise d’une toute autre nature : nous produisons une énorme quantité de théories nouvelles et pourtant aucune d’entre elles n’est jamais confirmée expérimentalement. Appelons cela la crise de surproduction. Nous utilisons les méthodes reconnues dans notre discipline, constatons qu’elles ne marchent pas mais n’en tirons aucune conséquence. Comme une mouche frappant une vitre, nous nous répétons sans cesse, en attendant de nouveaux résultats

Quelques-uns de mes collègues ne seront pas d’accord pour reconnaître qu’il y a une crise. Ils vous diront que nous avons fait de grands progrès au cours des quelques dernières décades (en dépit du fait qu’il n’en est rien sorti) et en conséquence il est normal qu’il y ait un ralentissement du progrès de la connaissance comme lorsqu’un champ arrive à maturité. Ce n’est pas le 18e siècle et découvrir aujourd’hui sur le plan fondamental une nouvelle physique n’est pas aussi simple que cela a été. Cela se comprend. Mais mon problème ce n’est pas le chemin du progrès, per se, à la vitesse de l’escargot, c’est que les pratiques actuelles des développements théoriques contemporains montrent un défaut de la méthode scientifique.

Permettez-moi d’illustrer ce que je veux dire :

En décembre 2015 les ensembles CMS et Atlas du LHC ont présenté une évidence d’un écart par rapport au modèle standard de la physique avec, approximativement, une résonnance de masse à 750 GEV. L’excèdent est apparu dans le canal de désintégration avec deux photons et avait un faible niveau de signification statistique. Cela ne correspondait à rien de ce qui avait été jusqu’à présent prédit. En aout 2016, de nouvelles données ont révélé que l’excédent était simplement une fluctuation statistique. Mais avant que ceci soit mis en évidence, les physiciens des hautes énergies ont produit plus de 600 articles pour expliquer le signal supposé. Beaucoup de ces articles furent publiés dans les principaux journaux de ce domaine. Aucun d’entre eux n’a décrit la réalité.

Actuellement, la communauté des physiciens des particules est toujours sujette aux marottes et aux modes. Bien que ce cas soit extrême à la fois par le nombre de participants et par leur célérité, il y eut auparavant de nombreux cas similaires. Dans la physique des particules, se précipiter sur un sujet chaud dans l’espoir d’obtenir des citations est si commun qu’il a un nom : ‘la chasse à l’ambulance’, en référence (vraisemblablement apocryphe) à la pratique des avocats suivant les ambulances dans l’espoir de trouver de nouveaux clients.

On pourrait argumenter que même si toutes les explications de cette excroissance de 750 GEV étaient fausses, c’était cependant un bon exercice pour l’esprit, une sorte d’opération de forage pour atteindre un vrai résultat. Je ne suis pas convaincue que ceci soit du temps bien utilisé, mais d’une façon ou d’une autre, chasser l’ambulance n’est pas ce qui m’inquiète. Ce qui me préoccupe, c'est que cette quantité produite de documents est une démonstration frappante de l'inefficacité des critères de qualité actuels. Si seulement quelques mois suffisent pour produire plusieurs centaines d'’explications pour un accident statistique, alors à quoi ces explications seraient-elles bonnes ?

Et ce n'est pas seulement en physique théorique des hautes énergies. On le constate aussi en cosmologie, où les modèles d'inflation abondent. Les théoriciens introduisent un ou plusieurs nouveaux champs et potentiels qui régulent la dynamique de l'Univers avant qu’ils ne se désintègrent en matière courante. Les données d'observation actuelles ne permettent pas de distinguer ces différents modèles. Et même en disposant de nouvelles données, il restera encore beaucoup de modèles pour écrire des articles. Selon mon estimation, la littérature en contient actuellement plusieurs centaines.

Pour chaque choix de champs et potentiels d'inflation, on peut calculer des observables, puis passer aux champs et potentiels suivants. La probabilité que l'un de ces modèles décrive la réalité est infime - c'est un jeu de roulette sur une table infiniment grande. Mais selon les critères de qualité actuels, c'est une science de première qualité.

Ce syndrome de comportement se manifeste également en astrophysique, où les théoriciens évoquent des champs pour expliquer la constante cosmologique (qui est bien expliquée par le fait que c’est bien une constante) et suggèrent des «secteurs cachés» de plus en plus compliqués de particules qui pourraient être ou n’être pas de la matière noire.

Il n’est pas dans mon intention de rejeter indistinctement toute cette recherche comme inutile. Dans chaque cas, il y a de bonnes raisons pour que le sujet mérite d'être étudié et conduise à de nouvelles idées - raisons que je n’ai pas la place de développer ici. Mais en l'absence de mesures de bonne qualité, les idées qui s’imposent sont les plus fructueuses, même s'il n'y a aucune preuve que la fécondité d'une théorie soit en corrélation avec sa justesse. Permettez-moi de souligner que cela ne signifie pas nécessairement qu'individuellement les scientifiques modifient leur comportement pour satisfaire leurs pairs. Cela signifie seulement que les tactiques qui survivent sont celles qui se reproduisent.

Beaucoup de mes collègues croient que cette abondance de théories sera éventuellement réduite grâce aux données factuelles. Mais dans les processus de fondation de la physique, il a été extrêmement rare d’éliminer un modèle quel qu’il soit. La pratique admise est au contraire d’ajuster le modèle pour qu’il continue à être en accord avec le manque de preuves empiriques.

La prédominance d’hypothèses fertiles et facilement modifiables a des conséquences. Etant donné que les expériences prouvant les fondations des théories physiques sont devenues tellement couteuses et tellement longues à mettre sur pied, nous devons examiner soigneusement lesquelles d’entre elles sont aptes à révéler de nouveaux phénomènes. Dans cette évaluation les avis des théoriciens sur les modèles susceptibles d’être corrects, jouent un grand rôle. Bien sûr les expérimentateurs mettent en avant leur propres délais, mais c’est la théorie qui devrait éclairer leur mission. Quoi qu’il en soit ceci signifie que si les théoriciens sont perdus, les expériences deviennent moins aptes à produire de nouveaux résultats interprétables, en conséquence les théoriciens ne peuvent s’appuyer sur de nouvelles données et le cercle (vicieux) se referme.

Il n’est pas difficile de voir comment nous en sommes arrivé à cette situation. Nous sommes jugés sur le nombre de nos publications – ou au moins nous pensons être jugés ainsi – et l’exigence d’éléments qualitativement meilleurs pour assurer le développement des théories amputerait la production de celles-ci. Mais que la pression pour publier récompense la quantité au détriment de la qualité a souvent été dit dans le passé et je ne veux pas encore ajouter d’autres reproches sur les éléments mal conçus pour assurer un succès scientifique. Il est évident que de tels reproches n’ajouteraient rien.

Des complaintes sur la pression pour publier ne servent à rien car cette pression est seulement un symptôme et pas la maladie. Le problème sous-jacent est que la science comme toute autre activité collective humaine est soumise à la dynamique sociale. A la différence de la plupart des autres activités humaines collectives, les scientifiques devraient reconnaitre les menaces portant sur l'objectivité de leur jugement et trouver les moyens de les éviter. Mais ce n'est pas ce qui arrive.

Si les scientifiques sont sélectivement exposés aux informations émanant de pairs pensant la même chose, s'ils sont punis pour ne pas suffisamment attirer l'attention, s'ils font face à des obstacles pour quitter des domaines de recherche promis au déclin, ils ne peuvent être comptés comme étant objectifs. C'est la situation dans laquelle nous sommes actuellement et nous devons l'accepter.

Pour moi, notre incapacité -- ou peut-être même notre mauvaise volonté -- à limiter l'influence des biais sociaux et cognitifs au sein des communautés scientifiques est une sérieuse défaillance du système. Nous ne protégeons pas les valeurs de notre discipline. La seule réponse que je vois, sont des tentatives pour rendre les autres responsables : les agences de financement, les administrateurs de l'enseignement supérieur ou les décideurs politiques. Mais aucun de ces acteurs n'est intéressé à gaspiller de l'argent dans des recherches inutiles. Ils comptent sur nous, les scientifiques, pour leur dire comment la science fonctionne.

J'ai indiqué des exemples de ces manquements à l'autocorrection dans ma propre discipline. Il semble raisonnable de penser que la dynamique sociale est plus influente dans les domaines privés de données, ainsi les fondements de la physique représentent-ils peut être un cas extrême. Mais à la base, le problème affecte toutes les communautés scientifiques. L'an dernier, la campagne du Brexit et la campagne de la présidentielle américaine nous ont montré à quoi ressemblent les politiques post-factuelles -- un développement qui peut être complétement perturbant pour quiconque est doté d'un bagage scientifique. Ignorer les faits est vain. Mais, nous aussi, nous ignorons les faits : il n'y a aucune évidence que l'intelligence fournisse une immunité contre les biais sociaux et cognitifs, aussi cette présence doit être considérée comme défaut supposé. Et tout comme nous avons des règles pour éviter des biais systématiques dans l'analyse des données, nous devrions également avoir des lignes directrices pour éviter les biais systématiques découlant de la façon dont les cerveaux humains traitent l'information.

Cela signifie, par exemple, que nous ne devrions pas pénaliser les chercheurs qui travaillent dans des domaines « impopulaires », ni filtrer les informations en utilisant les recommandations d’amis, ni utiliser les techniques de marketing, et nous devrions agir contre la crainte de l’échec avec des incitations à changer de domaine, et donner plus d’importance aux connaissances qui ne sont pas encore largement partagées (Pour éviter le «biais d'information partagée»). Par-dessus tout, nous devrions commencer à prendre le problème au sérieux.

Pourquoi n'est-il pas pris au sérieux jusqu'à présent ? Parce que les scientifiques font confiance à la science. Cela a toujours fonctionné ainsi, et la plupart des scientifiques sont optimistes sur le fait que cela continuera - sans qu’ils aient à agir. Mais nous ne sommes plus au dix-huitième siècle. Les communautés scientifiques ont radicalement changé au cours des dernières décennies. Nous sommes plus nombreux, nous collaborons davantage et nous partageons plus d'informations que jamais. Tout cela est amplifié par les commentaires dans les réseaux sociaux, et il est naïf de croire que quand nos communautés changent nous n’aurions pas aussi à réévaluer nos méthodes.

Comment pouvons-nous blâmer le public d'être mal informé parce qu'ils vivent dans des bulles sociales si nous en sommes également coupables ? »

 

Partager cet article

Repost0
28 avril 2017 5 28 /04 /avril /2017 14:46

A propos de la mécanique quantique standard : recherche de déviations.

La mécanique quantique standard continue d’être auscultée pour tenter de découvrir des déviations par rapport à la conception standard qui s’est imposée depuis maintenant un siècle. L’article d’Alain Aspect du 16/12/2015 : « Closing the Door on Einstein and Bohr’s Quantum Debate » dans la revue de l’American Physical Society, a contribué à valider la complétude de cette conception standard. Malgré ceci, cela ne clôt pas pour autant la recherche de phénomènes, de propriétés, qui n’auraient pas encore été décelés. Récemment, il y en a au moins une qui était recherchée par une équipe de l’université de Vienne dont les conclusions ne permettent pas de dire qu’ils ont débusqué une propriété originale non standard.

Dans ce bref article, je souhaite faire connaître ce résultat négatif parce qu’en creux cela conforte un certain nombre de mes hypothèses. Je me réfère donc à l’article original dans Phys.Org du 21/04/2017 : «The search for deviations from standard quantum mechanics » : « La recherche de déviations de la mécanique quantique standard »

En résumé, il est relaté que s’il est pensé au moins une propriété nouvelle éventuelle, non prescrite par le formalisme mathématique standard, alors il faut en premier lieu exploiter un formalisme mathématique nouveau. La première étape de la tentative des chercheurs de l’université de Vienne a consisté à sélectionner un formalisme mathématique différent de celui exploité par la description standard. Ils proposent donc de substituer aux nombres complexes habituels des nombres hypercomplexes. Ceux-ci correspondent à une généralisation des nombres complexes (par exemple les nombres hypercomplexes sont utilisés en physique quantique pour calculer la probabilité d'un événement en tenant compte du spin de la particule. En négligeant le spin, les nombres complexes « normaux » suffisent.)

Dans une première étape il faut donc s’assurer qu’avec les nombres hypercomplexes on retrouve tous les résultats confirmés dans le cadre de la mécanique quantique standard. Une fois que cette étape est franchie il s’agit d’évaluer théoriquement ce qui pourrait être prédit au-delà du cadre standard. Justement dans le nouveau cadre certaines opérations ne commutent pas alors qu’avec les nombres complexes il y a commutation. Expérimentalement cela signifierait que dans un interféromètre au-delà du miroir semi transparent un chemin spécifié, parcouru par le photon, plutôt que l’autre, non spécifié, n’est pas indifférent (non commutation) à ce qui serait observable in fine dans l’interféromètre.

La différenciation des deux chemins possibles du photon dans l’interféromètre est assurée par l’introduction, dans un, d’un dispositif qui accélère la lumière (avec un méta-matériel) et dans l’autre, un matériel classique qui ralentit la lumière. Evidemment ces caractérisations des chemins ne sont pas exploitables par l’observateur pour qu’il puisse savoir si le photon est passé par un chemin plutôt qu’un autre. L’observateur est maintenu dans l’ignorance spatio-temporelle du chemin effectivement suivi par le photon et c’est essentiel. Ce que les physiciens observent expérimentalement c’est que la règle de non commutation déduite de l’introduction des nombres hypercomplexes ne se vérifie pas avec ce dispositif expérimental particulier.

En fait ce que les chercheurs, auteurs de ce travail, pensent a priori c’est que ce qui est observé serait tributaire des propriétés intrinsèques (modifiées) de objets quantiques. L’idée qui est mienne c’est que ce que l’on observe in fine dans l’interféromètre dépend uniquement si l’observateur a une information spatio-temporelle ou pas sur le chemin effectivement suivi par le photon. Dans un cas, ce qui est observé, ce sont des impacts d’objets ponctuels dans l’autre cas, ce sont des franges d’interférences (qui résultent de l’aspect ondulatoire).

Selon mon hypothèse fondamentale, l’espace, le temps, et en l’occurrence l’espace-temps sont fondés par l’être humain, c’est-à-dire que ce sont des propres de l’homme. Les apparaître différents à l’observateur : onde/objet ponctuel, sont déterminés par sa connaissance ou pas d’une information spatio-temporelle à propos du chemin suivi par l’objet (ici, un photon). La mécanique quantique nous confronte au fait que l’être humain est un être façonné par les lois classiques de la nature. C’est donc en fonction de ce bagage hérité au cours de son évolution qu’il décrypte progressivement les lois de la nature. Le monde de l’infiniment petit ne nous étant pas accessible directement, aucune conception réaliste de ce monde ne peut être établie contrairement à ce qu’avait voulu instaurer Einstein avec ténacité. Comme le rappelle l’article d’Alain Aspect c’est la version de l’école de Copenhague qui est juste et pas celle des réalistes.

Ce que nous observons n’est qu’un apparaître et nous enregistrons un savoir qui est conditionné par nos capacités cérébrales déterminées par le fait que nous sommes des sujets pensants, observateurs, moulés par une intelligence et des références du monde classique. J’ai eu plusieurs fois l’occasion d’indiquer que c’est un stade provisoire de notre faculté de décrypter le monde physique : voir article du 26/09/2015 ‘Non, on ne pense pas quantique. Pas encore !’. Ce stade provisoire pourra être franchi, lorsque nous atteindrons une compréhension nouvelle de nos facultés cérébrales d’investigations comme je l’ai proposé dans les articles du 21/09/2016 et du 10/10/2016.

Partager cet article

Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens