Overblog
Suivre ce blog Administration + Créer mon blog
20 juin 2017 2 20 /06 /juin /2017 16:44

Il faudra un jour que la pensée en physique franchisse le Rubicond.

 

Jusqu’à présent l’effet Zénon est clairement observé et identifié mais n’est pas fondamentalement expliqué. Les physiciens se satisfont d’une description factuelle, sans que ne soit creusé, ne soit interrogé, le rôle spécifique de l’observateur. Voir article du 21/12/2011.

Jusqu’à présent ce que nous dit D. Mermin : « Les mesures (quantiques) ne ‘causent’ pas les choses qui se produisent dans le monde réel, quel qu’il soit ; elles causent les choses qui se produisent dans nos têtes. L’action fantôme à distance est aussi une illusion… », n’a pas suscité la moindre tentative de comprendre comment cela se produirait dans nos têtes. Voir article du 27/05/2014.

Jusqu’à présent ce que nous déclare A. Barrau et d’autres : « Mais il ne faut pas oublier… que nos manières d’appréhender cet « autre part » n’en demeurent pas moins humaines et créées… Nous choisissons et inventons les rapports au(x) monde(s) que nous jugeons pertinents. Ils ne sont pas donnés, ils sont construits. », continue d’être un commentaire gratuit, sans conséquence, puisqu’aucune nouvelle manière, autre que l’habituelle, n’a été jusqu’à présent suggérée. Pourquoi Barrau est-il resté au milieu du gué d’une réflexion pourtant pertinente ? Pourquoi est-ce avec la casquette de philosophe qu’il a avancé ce propos ? Voir articles du 12/04/2016 et du 23/04/2016.

Jusqu’à présent l’intrication entre des objets quantiques est absolument reconnue par les physiciens, les ingénieurs exploitent cette propriété, en repoussant sans discontinuité les limites de son exploitation, mais jusqu’à présent dans le cadre de la croyance réaliste traditionnelle les physiciens ne savent pas fondamentalement expliquer ce qui est en jeu. Voir article du 22/11/2014 et les autres.

Jusqu’à présent L. Smolin, affirme que : « L’univers réel a des propriétés qui ne sont pas représentables par un quelconque objet mathématique. Une de celles-ci est quil y a toujours un moment présent. Les objets mathématiques, étant intemporels, n’ont pas de moments présents, n’ont pas de futurs ni de passés. Toutefois, si on embrasse la réalité du temps et voit les lois mathématiques comme des outils plutôt que des miroirs mystiques de la nature, d’autres faits têtus, inexplicables, concernant le monde deviennent explicables… », mais il n’a pas pu aller au-delà de ce constat car il n’a pas pu franchir le Rubicond c’est-à-dire prendre le contre-pied de la métaphysique d’Einstein. Voir article du 02/02/2013.

Jusqu’à présent N. Gisin annonce dans un article au titre évocateur : « La physique a tué le libre arbitre et le flux du temps. Nous devons revenir en arrière » puis « Finalement, parce que la physique – et la science en général – est l’activité humaine ayant pour but de décrire et de comprendre comment la Nature fonctionne. Pour cette raison nous devons décrire aussi comment l’être humain interagit avec la nature, comment on la questionne. » Dans cet article, il a écrit en incise « désolé Einstein », il a donc fait les premiers pas en vue de franchir le Rubicond sans plus. Voir article du 03/06/2016

De plus en plus fréquemment des illustrations représentant l’univers et ses structures essentiels avec leur évolution dans le temps, depuis l’origine appelé Big Bang, sont accompagnées de la figure du Penseur de Rodin situé dans le temps actuel soit 13 milliards 800 millions d’années depuis ce Big Bang. Nous connaissons tous la posture de ce Penseur mais comment comprendre la présence de ce Penseur dans cette illustration ?

Est-il le contemplateur de Galilée hérité de Platon pour qui, l’intelligible ne s’apprend pas du visible, il appartient à l’âme qui doit le tirer, par la réminiscence, de son fonds. La science galiléenne étant une science d’un monde sans l’homme, d’un monde préétabli, préordonné, par des fondements physico-mathématiques, se passant de la pensée, bref La vérité de l’univers étant indifférente à la réalité de l’homme. Dans ce cas le penseur de Rodin est inapproprié, pour le moins superflu.

Est-ce le penseur Einsteinien qui doit être un acteur préalablement actif pour assurer les conditions de l’accueil de la réalité indubitable de l’univers ? Bref ici le penseur de Rodin est en partie approprié parce qu’il reçoit la réalité du monde qui vient à lui parce qu’il a assuré les conditions de cet accueil. Mais une fois établi le flux est à sens unique.

Est-ce, tout autrement, le penseur qui, selon mon point de vue, doit franchir le Rubicond ? Et partant doit considérer que la connaissance du monde n’est que sa connaissance du monde – et non point universel – façonnée selon ses capacités actuelles d’acquérir cette connaissance et ne peut pas être déclarée connaissance du réel car dans ce cas ce quasi platonisme – qui est franchement majoritaire chez les physiciens et les mathématiciens, consciemment ou non – s’oppose au flux biunivoque (flux évoqué par N. Gisin : « comment l’être humain interagit avec la nature, comment on le questionne » voir mon article du 23/08/2016.) qui doit être considéré comme un paradigme de l’évolution de l’anthrôpos. Pour illustrer mon propos, je me réfère à ce que nous dit la science paléoanthropologique toute récente, en effet : dans un article qui relatait récemment la découverte au Maroc de « l’Homo sapiens » le plus ancien (315 000 ans), l’un des découvreurs des restes de 5 individus nous dit : « Leur visage n’était pas différent de celui de n’importe qui dans le métro. Leur boîte crânienne était aussi volumineuse mais moins globulaire que la nôtre, et leur cervelet moins développé. L’évolution ne s’arrête pas, nous évoluons encore et toute la différence, entre les premiers sapiens et nous, tient probablement dans l’organisation interne du cerveau, sa connectivité. Malheureusement, la génétique ne sera d’aucun secours pour en savoir plus : il fait trop chaud au Maroc pour espérer récupérer de l’ADN ancien sur ces fossiles. »

Notre connaissance authentique de la nature physique du monde dans sa globalité sera atteinte lorsque notre cerveau, par l’acquisition de tout ce qui fait connaissances, assurera toutes ses connectivités possibles. Ici, il faut penser que c’est une dynamique parfaitement biunivoque qui est en jeu. L’aboutissement de ce processus est certainement imprédictible, puisqu’il nous renvoie dans l’infini spatio-temporel : le moteur de notre volonté de conquête.

Ce processus de croissance des connectivités possibles, qui dirige pour l’essentiel notre évolution, subit probablement une croissance exponentielle qui doit présentement nous rendre humble à l’égard du statut de nos connaissances actuelles, qui devraient être à mon sens non seulement considérées comme des approximations de ce qui seraient, mais, pour permettre le bon recul intellectuel, devraient être pensées comme des apparaîtres construits illustratifs de nos capacités cognitives actuelles, représentants de l’état provisoire et daté de notre évolution.

Ci-dessous, je joins la traduction d’un article avec son original en copie, car il fait réfléchir et puis il sera probablement repris ultérieurement en référence.

Est-ce que la vie est plus probable que les trous noirs d’être une adaptation pour la duplication de l’univers ? Article du 15 juin par Sarah Cox de la Brunel Université de Londres.

La vie intelligente est plus probable, que ne le sont les trous noirs, d’être une adaptation conçue par la sélection naturelle cosmologique. C’est ce que spécule un évolutionniste de l’Université Brunel. Michael Price qui adopte un point de vue adaptationniste à propos de la théorie de la sélection naturelle cosmologique introduite par Lee Smolin au début des années 1990. En effet celui-ci suggère que les trous noirs sont une adaptation conçue par la sélection cosmologique naturelle et que la vie est un sous-produit de la sélection pour les trous noirs. L’autoréplication au moyen des trous noirs et la sélection favorisent des univers qui contiennent plus de trous noirs.

Price théorise qu’en considérant notre connaissance, à propos du comment la sélection naturelle opère au niveau biologique, la vie intelligente est actuellement plus vraisemblable que les trous noirs d’être un mécanisme par lequel les univers se répliquent eux-mêmes – un concept connu en tant que sélection naturelle cosmologique avec intelligence (a concept known as cosmological natural selection (CNS) with intelligence). (A mon sens il faut comprendre cette phrase : CNS grâce à l’intelligence)

Price note que la sélection naturelle opérant au niveau biologique est le processus connu le plus fort dans l’univers pour créer un ordre complexe et pour faire diminuer le processus de l’entropie croissante (dégénération et désintégration), et cela devrait opérer aussi bien au niveau cosmologique. Essentiellement, la vie est ordonnée avec bien plus de complexité et elle est vraisemblablement moins certaine de survenir par chance qu’un trou noir et donc plus vraisemblablement d’être une adaptation de la duplication d’univers. Ce point de vue est contrasté de celui de Smolin qui suggère que les trous noirs résultent de l’adaptation et la vie est un sous-produit.

« Les organismes vivants sont les moins entropiques, c’est-à-dire les complexités les plus ordonnées et les entités improbables connues pour exister » nous explique Price.

La sélection biologique naturelle (Biological natural selection (BNS)) est donc le processus anti-entropique le plus fort connu parce qu’il crée des organismes. La sélection biologique naturelle dote ces organismes avec des traits (caractères) nommés des adaptations qui ultimement rendent possible les réplications génétiques. On reconnaît un trait comme une adaptation basée sur sa complexité improbable, et cette complexité est le signe (la marque) de la sélection naturelle.

Si nous acceptons, comme l’argumente Smolin, que nous vivons dans un multivers où les modèles d’univers se reproduisent compétitivement selon un processus de sélection, alors la sélection biologique naturelle peut être un guide fiable auquel nous pourrions nous attendre de la sélection naturelle cosmologique.

  1. implication, je suggère qu’ensemble la vie intelligente et les trous noirs sont des candidats plausibles pour être des adaptations conçus par CNS mais la probabilité d’être une telle adaptation est plus grande pour la vie que pour les trous noirs ou bien sûr, pour tout autre objet connu dans l’univers, parce que la vie est la chose la plus complexe et improbable dont nous avons connaissance.

Je suggère aussi que plus généralement, CNS pourrait être l’ultime cause première de l’ordre cosmologique, juste comme BNS est l’ultime cause première de l’ordre biologique. En d’autres mots, BNS et CNS pourraient être ensemble ultimement responsables de plus d’ordre que nous observons dans l’univers. Sans cet ordre il n’y aurait pas d’entropie parce que rien ne se désintègrerait dans un état d’ordre inférieur et en conséquence pas de flèche du temps.

En somme, le processus de la sélection pourrait être bien plus fondamental pour expliquer la nature de notre univers tel qu’il est généralement supposé.

Je rappelle pour mémoire, durant ces deux dernières décennies on a identifié à coup sûr trois catégories de trous noirs : ceux d’une masse de quelques dizaines de masses solaires et on cherche à savoir la densité de présence de ceux-ci par unité de volume d’univers soit en binaire soit en unitaire ; ceux qualifiés massifs (millions de masses solaires), hypermassifs (milliards de masses solaires) qui sont au cœur des galaxies matures ; ceux que l’on découvre maintenant, hypermassifs et de moins d’un milliard d’années depuis le Big Bang. Enfin on cherche à savoir si des trous noirs primordiaux existent dans notre univers et quelle serait leur masse aussi quelle serait leur densité de répartition dans l’univers.

Is life more likely than black holes to be an adaptation for universe replication?

June 15, 2017 by Sarah Cox, Brunel University London

  1. life is more likely than black holes are to be an adaptation designed by cosmological natural selection, an evolutionist from Brunel University London speculates.

Writing in the journal Complexity, Dr Michael Price takes an adaptationist view on the theory of cosmological natural selection introduced by theoretical physicist Professor Lee Smolin in the early 1990s.

Smolin suggests that black holes are an adaptation designed by cosmological natural selection and that life is a by-product of selection for black holes. Universes self-replicate through black holes, and selection favours universes that contain more black holes.

Dr Price theorises that, based on our knowledge about how natural selection operates at the biological level, intelligent life is actually more likely than black holes to be a mechanism by which universes replicate themselves – a concept known as cosmological natural selection (CNS) with intelligence.

Price notes that natural selection operating at the biological level is the strongest known process in the universe for creating complex order and for slowing down the process of increasing entropy (degeneration and decay), and it may operate at the cosmological level as well.

Essentially, life is much more complexly ordered and less likely to arise by chance than a black hole, and thus more likely to be an adaptation for universe replication, he explains. This view contrasts with Smolin's suggestion that black holes are the adaptation and life is the by-product.

"Living organisms are the least entropic, that is, the most complexly ordered and improbable entities known to exist," Dr Price, Head of Brunel's Centre for Culture and Evolution, explains.

"Biological natural selection (BNS), then, is the strongest known anti-entropic process because it creates organisms. Biological natural selection endows those organisms with traits called adaptations that ultimately enable genetic replication. We recognise a trait as an adaptation based on its improbable complexity, and this complexity is the hallmark of natural selection.

"If we accept, as Professor Smolin argues, that we live in a multiverse where universe designs reproduce competitively according to a process of selection, then biological natural selection may be a reliable guide to what we should expect from cosmological natural selection.

"By implication, I suggest that both intelligent life and black holes are plausible candidates to be CNS-designed adaptations but the probability of being such an adaptation is higher for life than black holes or indeed, for any other known object in the universe, because life is the most complexly improbable thing we know of.

"I also suggest that more generally, CNS may be the ultimate primary cause of cosmological order, just as BNS is the ultimate primary cause of biological order. In other words, BNS and CNS may together be ultimately responsible for much of the order that we observe in the universe. Without this order there would be no entropy because nothing would decay to a less-ordered state and therefore no arrow of time.

"In sum, the process of selection may be far more fundamental to explaining the nature of our universe than is generally supposed."

Explore further: Did the universe evolve to make black holes?

More information: 'Entropy and selection: Life as an adaptation for universe replication' by Michael E. Price, Department of Life Sciences, Brunel University London, is published in Complexity: www.hindawi.com/journals/complexity/aip/4745379/

Provided by: Brunel University

 

 

Partager cet article

Repost0
30 mai 2017 2 30 /05 /mai /2017 09:43

Toujours à la recherche de la ‘Spooky action’, dommage.

Avec cet article, je me propose de vous informer du projet d’expérience qui n’est pas banal car pensé par des physiciens mais qui met en évidence une véritable inertie de cette pensée (parce qu’on n’a pas encore dépassé la réflexion qui exprime l’étonnement et le refus d’Einstein). Toutefois il est intéressant de connaître ce projet et par la suite le résultat qui sera obtenu. C’est dans le NewScientist que se trouve l’article de présentation que je mets en copie à la fin du présent. Son titre est : ‘Un test de la physique quantique classique pourrait révéler les limites de l’esprit humain’ (A classic quantum test could reveal the limits of the human mind).

C’est dans le cadre d’une opération d’intrication que ce test est programmé, il est centré sur la tentative de mettre en évidence le concept de ‘l’action fantôme’, qui était l’expression de l’étonnement et du refus d’Einstein d’admettre l’explication proposée par N. Bohr. Ici, la tentative relève de savoir si, au bout du compte, l’action fantôme serait peut-être une opération due à l’esprit humain (‘être dans la nature’) déconnecté de toutes déterminations de ‘l’être de la nature’. A priori je pourrai me satisfaire qu’il peut être enfin considéré que la ‘présence du sujet pensant’ jouerait un rôle en faveur d’une interprétation correcte et complète de propriété physique. Mais l’hypothèse cible que veulent vérifier les auteurs du projet d’expérience, n’est pas, selon mon hypothèse, la bonne, loin de là.

Je cite : « En 1964, J. Bell ouvre la voie pour tester si les particules intriquées s’influencent l’une à l’autre. Il conçoit une expérience qui implique une paire de particules intriquées et envoie une de celle-ci en A et l’autre en B. A chacun de ces lieux, il y a un instrument qui mesure, par exemple, le spin de la particule. La caractéristique des instruments est de mesurer le spin à +45 ou -45°, ceci est défini par des générateurs de nombre au hasard, de telle façon qu’il est impossible pour A de connaître la façon dont celle de B est établie, vice-versa, au moment de la mesure.

Les mesures sont réalisées pour un nombre important de paires intriquées. Si la physique quantique est correcte et qu’il y ait effectivement une action fantôme à distance, alors les résultats de ces mesures seront corrélés un plus grand nombre de fois que ceux que si Einstein avait raison. Toutes les expériences ont vérifié l’interprétation de Bohr.

Néanmoins, quelques physiciens ont argumenté que les nombres aléatoires générés ne seraient pas véritablement le fait du hasard. Il se pourrait qu’ils soient gouvernés par une physique sous-jacente que nous ne comprenons toujours pas et ce ‘super-déterminisme’ pourrait expliquer les corrélations observées.

Maintenant, Lucien Hardy de l’institut ‘Perimeter’ au Canada suggère que les mesures, entre A et B, pourraient être contrôlées par quelque chose qui pourrait être séparée du monde matériel : l’esprit humain.

Question de libre arbitre.

Pour tester cette idée, L. Hardy propose une expérience dans laquelle A et B sont définis à 100km l’un de l’autre. En chaque lieu, sont présent de l’ordre de 100 personnes équipées de casques EEG (électroencéphalographique) décryptant les réactions du cerveau. Les signaux émis sont utilisés pour changer le réglage des instruments de mesure en chacun des points A et B. L’idée est d’obtenir un très grand nombre de mesures en A et B et extraire la petite fraction dans laquelle les signaux EEG provoquent des changements de réglage en A et B après le départ des particules de leur point origine mais avant qu’ils arrivent et qu’ils soient mesurées.

Si le nombre de corrélations entre ces mesures ne correspond pas avec les prévisions de Bell, cela implique une violation de la théorie quantique, pointant que les mesures en A et B seraient contrôlées par un processus en dehors de la conception physique standard.

Si on constate une violation de la théorie quantique quand vous avez un système qui pourrait être considérée comme conscient, humain ou autres animaux, cela pourrait être passionnant. Je ne peux pas imaginer un résultat expérimental plus frappant que ça. »

Ensuite les trois derniers paragraphes, comme on peut le constater dans la version originale (ci-jointe) est consacré au libre arbitre de l’humain. Considérer que l’être humain disposerait d’une capacité d’agir, de concevoir, de penser, qui s’appuierait sur une faculté de libre arbitre absolue, n’a pas de valeur, parce que erronée. Que l’être humain veuille tendre vers cet absolu c’est certain, mais il n’est pas souhaitable de considérer que cela soit à l’œuvre car ce serait ignorer le poids des déterminations (l’article ‘Pas à pas’ en est une illustration) qui ne pourront se réduire qu’avec la découverte de nouvelles connaissances c’est-à-dire que le poids de ‘l’être de la nature’ aille diminuant.

J’ai voulu signaler l’existence de cet article parce que confrontés avec l’inexplicable de l’intrication, on commence à considérer que la ‘présence du sujet pensant’ pourrait offrir une explication. De plus, c’est la première fois que je lis une proposition d’évaluation d’une expérience prédéfinie (en dehors de la mienne en 2012, voir article précédent : ‘Pas à pas’) avec la contribution de l’imagerie cérébrale.

A classic quantum test could reveal the limits of the human mind

A quantum test could tell us what minds are made of

Dominic Lipinski/PA

By Anil Ananthaswamy

The boundary between mind and matter could be tested using a new twist on a well-known experiment in quantum physics.

Over the past two decades, a type of experiment known as a Bell test has confirmed the weirdness of quantum mechanics – specifically the “spooky action at a distance” that so bothered Einstein.

Now, a theorist proposes a Bell test experiment using something unprecedented: human consciousness. If such an experiment showed deviations from quantum mechanics, it could provide the first hints that our minds are potentially immaterial.

Advertisement

Spooky action at a distance was Einstein’s phrase for a quantum effect called entanglement. If two particles are entangled, then measuring the state of one particle seems to instantly influence the state of the other, even if they are light years apart.

But any signal passing between them would have to travel faster than the speed of light, breaking the cosmic speed limit. To Einstein, this implied that quantum theory was incomplete, and that there was a deeper theory that could explain the particles’ behaviour without resorting to weird instantaneous influence. Some physicists have been trying to find this deeper theory ever since.

Demonstrating Descartes

In 1964, physicist John Bell paved the way for testing whether the particles do in fact influence each other. He devised an experiment that involves creating a pair of entangled particles and sending one towards location A and the other to location B. At each point, there is a device that measures, say, the spin of the particle.

The setting on the device – for example, whether to measure the particle’s spin in the +45 or -45 degree direction – is chosen using random number generators, and in such a way that it’s impossible for A to know of B’s setting and vice-versa at the time of the measurement.

The measurements are done for numerous entangled pairs. If quantum physics is correct and there is indeed spooky action at a distance, then the results of these measurements would be correlated to a far greater extent than if Einstein was correct. All such experiments so far have supported quantum physics.

However, some physicists have argued that even the random number generators may not be truly random. They could be governed by some underlying physics that we don’t yet understand, and this so-called “super-determinism” could explain the observed correlations.

Now, Lucien Hardy at the Perimeter Institute in Canada suggests that the measurements at A and B can be controlled by something that could potentially be separate from the material world: the human mind.

“[French philosopher Rene] Descartes put forth this mind-matter duality, [where] the mind is outside of regular physics and intervenes on the physical world,” says Hardy.

Question of free will

To test this idea, Hardy proposed an experiment in which A and B are set 100 kilometres apart. At each end, about 100 humans are hooked up to EEG headsets that can read their brain activity. These signals are then used to switch the settings on the measuring device at each location.

The idea is to perform an extremely large number of measurements at A and B and extract the small fraction in which the EEG signals caused changes to the settings at A and B after the particles departed their original position but before they arrived and were measured..

If the amount of correlation between these measurements doesn’t tally with previous Bell tests, it implies a violation of quantum theory, hinting that the measurements at A and B are being controlled by processes outside the purview of standard physics.

“[If] you only saw a violation of quantum theory when you had systems that might be regarded as conscious, humans or other animals, that would certainly be exciting. I can’t imagine a more striking experimental result in physics than that,” Hardy says. “We’d want to debate as to what that meant.”

Such a finding would stir up debate about the existence of free will. It could be that even if physics dictated the material world, the human mind not being made of that same matter would mean that we could overcome physics with free will. “It wouldn’t settle the question, but it would certainly have a strong bearing on the issue of free will,” says Hardy.

Nicolas Gisin at the University of Geneva in Switzerland thinks Hardy’s proposal makes “plenty of sense”, but he’s sceptical of using unstructured EEG signals to switch settings on devices. That’s akin to using the brain as a random number generator, says Gisin. He would rather see an experiment where the conscious intent of humans is used to perform the switching – but that would be experimentally more challenging.

Either way, he wants to see the experiment done. “There is an enormous probability that nothing special will happen, and that quantum physics will not change,” says Gisin. “But if someone does the experiment and gets a surprising result, the reward is enormous. It would be the first time we as scientists can put our hands on this mind-body or problem of consciousness.”

Journal reference: arXiv, DOI: 1705.04620v1

 

Partager cet article

Repost0
27 mai 2017 6 27 /05 /mai /2017 14:27

Pas à pas

‘Pas à pas’, parce que le projet d’expérience que je propose et que j’ai précisé une ultime fois dans l’article du 21/09/2016 et confirmé dans celui 15/10/2016 rencontre une validité supplémentaire dans l’article que je présente ci-dessous.

‘Pas à pas’, parce que j’avais conscience que mon hypothèse de base qui m’a conduit à imaginer le projet d’expérience dès l’article du 2/11/2012 (expérience 1) avait un caractère inacceptable a priori pour la communauté scientifique et cela ne pouvait être que ‘pas à pas’ qu’il pouvait être entendu. Il me semble qu’il est pertinent maintenant de concevoir concrètement l’expérience que je propose et c’est aux experts de l’imagerie cérébrale d’affiner le protocole, de réaliser l’expérience et offrir les données qui nous permettront de cheminer vers la compréhension, la source, de ce fameux phénomène quantique débarrassé de son qualificatif bizarre.

Donc je fais référence à l’article qui vient d’être publié dans le NewScientist qui résume l’article, DOI : 10.7554/eLife.21761. Son titre : ‘Nos cerveaux préfèrent de l’information visuelle inventée au chose réelle’. (Nos cerveaux suppléent les ‘bits’ que nos yeux ne peuvent pas voir.) est en copie pour l’essentiel en fin du présent article. Le titre de l’article original DOI étant : ‘Humans treat unreliable filled-in percepts as more real than veridical ones’

« Voir ne devrait pas toujours être cru. Nous avons tous des points aveugles dans notre vision, mais nous ne les remarquons pas parce que nos cerveaux comblent le trou avec de l’information fabriquée.

Si le cerveau fonctionne de cette façon dans d’autres domaines, cela suggère que nous devrions être moins confiants de ce qui nous semble évident d’après nos sens. La perception ne nous fournit pas la vraie représentation du monde, elle est contaminée par ce que nous connaissons déjà (sic) »

« Le point aveugle est provoqué par un ‘patch’ à l’arrière de chacun des yeux où il n’y a pas de cellules sensibles à la lumière, juste un trou que nos neurones évacuent de l’œil sur le chemin vers le cerveau. Nous ne notons pas ces points aveugles parce que nos deux yeux peuvent les combler mutuellement. Quand notre vision est obscurcie sur un œil, le cerveau fabrique ce qui manque dans l’espace du trou en assumant que, quel que soit ce qui est dans les régions autour, le trou continue de représenter. »

Tour de l’esprit.

« Mais savons-nous inconsciemment que cette vision complétée est moins digne de confiance que l’information visuelle réelle ? Benedikt Ehinger de l’université d’Osnabrück et ses collègues obtiennent une réponse à cette question en demandant à 100 personnes de regarder une photo d’un cercle de bandes verticales, contenant un petit ‘patch’ de bandes horizontales. Le cercle était positionné de telle façon qu’avec un œil caché, le ‘patch’ des bandes horizontales tombe dans le point aveugle de l’autre œil. Comme résultat, le cercle apparaît pensé comme s’il n’y avait pas de ‘patch’ et comme si les bandes verticales étaient continues.

Ensuite à cela, il y avait un autre cercle avec des bandes verticales sans aucun ‘patch’ de bandes horizontales. On demandait aux personnes de choisir quel cercle semblait avoir des bandes continues. L’équipe d’Ehinger espérait que les personnes choisiraient plus souvent le cercle sans ‘patch’. Cela semblait plus logique de choisir celui où ils peuvent réellement voir toute l’information.

Biais cognitif

En fait, les personnes choisirent, le cercle qui avait : la vision complétée, à 65%. « Nous n’avions jamais prévu ceci » dit Ehinger. Quand les personnes tiennent des croyances fortes, ils sont propices à ignorer les évidences du contraire.

Il n’y a aucun bénéfice évident pour nos cerveaux d’ignorer une information extérieure, dit Ehinger. « J’ai parlé à beaucoup de personnes à ce propos, et tous m’ont dit que ça n’avait pas de sens. »

Comme dans les points aveugles de la vision, il y a d’autres domaines dans lesquels nos perceptions sont changées par nos expectatives cérébrales. Par exemple, si des chansons bien connues sont converties en format MIDI, ce qui élimine les voix, les gens peuvent couramment ‘entendre’ les mots qui ne sont pas réellement là. »

Pour rappel, j’ai été amené à proposer l’expérience précise de l’article du 21/09/2016 parce qu’il faut prendre en compte le poids des déterminations (dans l’article du NewScientist désignées : contaminations) qui habitent l’être humain. L’être humain, donc le physicien, n’est pas un penseur nu, il est habité par des déterminations profondes, formatrices, c’est à mes yeux, ce qu’il en est de la détermination spatio-temporelle. La libération, par rapport à ces déterminations, ne peut s’obtenir qu’après avoir atteint le stade de sa reconnaissance concrète sur le plan expérimental et ainsi évaluer les biais apportés par ces déterminations qui ensuite peuvent, peu ou prou, être intellectuellement contournées. Cela fait partie du processus de notre évolution potentielle en tant que ‘sujet pensant’. C’est ce que j’ai exprimé dans l’article du 26/09/2015 : ‘Non, on ne pense pas quantique. Pas encore !’. Aussi comme indiqué dans l’article ultime du 24/05 : ‘Emergence :…’ la propriété de l’intrication pourra être élucidée si la problématique de la fondation de l’espace-temps est cernée.

Our brains prefer invented visual information to the real thing’, in the NewScientist.

Our brains make up for the bits our individual eyes can’t see.

By Clare Wilson

Seeing shouldn’t always be believing. We all have blind spots in our vision, but we don’t notice them because our brains fill the gaps with made-up information. Now subtle tests show that we trust this “fake vision” more than the real thing.

If the brain works like this in other ways, it suggests we should be less trusting of the evidence from our senses, says Christoph Teufel of Cardiff University, who wasn’t involved in the study. “Perception is not providing us with a [true] representation of the world,” he says. “It is contaminated by what we already know.”

The blind spot is caused by a patch at the back of each eye where there are no light-sensitive cells, just a gap where neurons exit the eye on their way to the brain.

Advertisement

We normally don’t notice blind spots because our two eyes can fill in for each other. When vision is obscured in one eye, the brain makes up what’s in the missing area by assuming that whatever is in the regions around the spot continues inwards.

Trick of the mind

But do we subconsciously know that this filled-in vision is less trustworthy than real visual information? Benedikt Ehinger of the University of Osnabrück in Germany and his colleagues set out to answer this question by asking 100 people to look at a picture of a circle of vertical stripes, which contained a small patch of horizontal stripes.

The circle was positioned so that with one eye obscured, the patch of horizontal stripes fell within the other eye’s blind spot. As a result, the circle appeared as though there was no patch and the vertical stripes were continuous.

Next to this was another circle of vertical stripes without a patch of horizontal stripes. People were asked to choose which circle seemed most likely to have continuous stripes.

Ehinger’s team were expecting that people would choose the circle without a patch more often. “It would be more logical to choose the one where they can really see all the information,” he says.

Cognitive bias

In fact, people chose the circle that had a filled-in patch 65 per cent of the time. “We never expected this,” says Ehinger. “The brain trusts its own generated information more than what it sees outside in the world.”

This fits in with what we know about cognitive biases, says Ehinger. When people hold strong beliefs, they are likely to ignore any evidence to the contrary.

There is no obvious benefit to our brains ignoring external information, says Ehinger. “I’ve talked to many people about it, and they all say it doesn’t make sense,” he says.

As well as blind spots in vision, there are other ways in which our perceptions are changed by the brain’s expectations, says Teufel. For instance, if a well-known song is converted to MIDI format, which strips out the vocals, people can usually “hear” words that aren’t really there.

Journal reference

DOI: 10.7554/eLife.21761 

 

Partager cet article

Repost0
24 mai 2017 3 24 /05 /mai /2017 17:20

Emergence : pourquoi les physiciens recourent-ils à cette notion ?

Avec cet article je propose de réfléchir à la notion d’émergence qui fait florès actuellement en physique théorique et ainsi tenter de comprendre si cette notion constitue un subterfuge ou bien constitue une avancée de la compréhension de certaines propriétés physiques, jusqu’à présent, impossibles à élucider.

Je propose de prendre comme premier exemple de la survenue de la notion d’émergence celui relatif à la théorie de la gravité quantique à boucles telle qu’elle est présentement développée par Carlo Rovelli. Il écrit : « Il n’y a pas de temps dans la gravité quantique à boucles… Qu’est-ce donc enfin que le temps, et son « écoulement ?» « Le temps doit émerger (sic), comme l’espace, du champ gravitationnel quantique[1]. » Selon l’auteur, les raisons pour lesquelles l’espace et le temps ne résultent que d’un processus émergent, c’est qu’ils ne sont pas réels car selon lui le monde est fait de champs quantiques invariants. P 177, du livre cité : « Les particules sont des quantas de champs quantiques ; la lumière est formée des quantas d’un champ ; l’espace n’est qu’un champ, lui aussi quantique ; et le temps naît à partir des processus de ce même champ. Autrement dit, le monde est entièrement fait de champs quantiques. Ces champs ne vivent pas dans l’espace-temps ; ils vivent, pour ainsi dire, les uns sur les autres : des champs sur des champs. L’espace et le temps que nous percevons à grande échelle sont l’image floue et approchée d’un de ces champs quantiques : le champ gravitationnel. Ces champs qui vivent sur eux-mêmes, sans besoin d’un espace-temps pour leur servir de substrat, et capable d’engendrer eux-mêmes l’espace-temps, sont appelés champs quantiques covariants. »

Le deuxième exemple qui fait intervenir un processus d’émergence, nous le devons à Erik Verlinde, physicien théoricien Hollandais. Sa proposition théorique[2] d’émergence concerne la gravitation. Pour lui l’espace-temps est réel à l’échelle quantique et la gravitation telle qu’elle est décrite par la Relativité Générale est émergente, voici ce qu’il nous explique : « Le but de la gravité émergente est d’obtenir les équations qui gouvernent la gravité à partir de considérations quantique en utilisant des ingrédients de la théorie de l’information quantique. Une des idées principales est que différents éléments d’espace-temps sont englués grâce à l’intrication quantique. La gravité peut être obtenue à partir d’unités microscopiques qui façonnent l’espace-temps. Ces ‘molécules d’espace-temps’ sont des unités d’information quantique (qubits) qui sont entre elles intriquées, avec l’importance de l’intrication mesurée par l’entropie d’intrication. »

Quand on lui demande combien la gravité émergente affecterait le reste de la physique ? Voici ce qu’il en pense :

« Notre perception des composants fondamentaux de la nature changerait d’une manière drastique. Nous ne penserons plus en termes de particules élémentaires et de forces fondamentales mais en unités d’information quantique. Désormais, les forces de jauge responsables des interactions électrofaibles et fortes seront comprises comme étant émergentes, et cela constitue la voie par laquelle les forces fondamentales de la nature deviendront unifiées. Dans ce sens, toutes les lois courantes de la nature seront perçues comme émergentes. »

Le troisième exemple qui fait intervenir une théorie de l’émergence nous le trouvons dans les deux articles du récent numéro de ‘Pour la Science’ de mai 2017 qui a pour titre général ‘Trous noirs intriqués : une porte vers l’espace-temps quantique’. premier article de Clara Moskowitz, affirme d’entrée : « l’espace et le temps émergeraient de l’intrication quantique de minuscules bribes d’information : telle est l’audacieuse hypothèse explorée par le projet collaboratif intitulé It from Qubit. » Qubit est la contraction de bit quantique et représente la plus petite quantité d’information : c’est la version quantique du bit informatique. Malgré les apparences ce troisième exemple diffère de celui évoqué par E. Verlinde et inversement à ce que postule C. Rovelli, voir page 22 de ‘PlS’ :« l’espace-temps serait le constituant premier originairement composé de minuscules bouts d’information. Selon cette approche, ces petits éléments, en interagissant, créent l’espace-temps et font émerger ses propriétés, telles que la courbure – dont découle la gravité. » « De quoi exactement ces bits sont-ils faits et quel type d’information contiennent-ils ? s chercheurs l’ignorent. Mais curieusement cela ne semble pas les déranger. Ce qui compte, ce sont les relations entre les bits eux-mêmes. Toute la richesse vient de ces relations collectives. Ici, l’élément crucial, ce n’est pas les constituants, mais la manière dont ils s’organisent. »

A la lecture de ces quelques lignes, il est légitime d’exprimer un certain scepticisme à propos du recours à cette thèse de l’émergence. Celle-ci est actuellement proposée après des décennies infructueuses de mise en évidence d’une véritable théorie de la gravité quantique confirmée par l’observation et donc acceptée par la communauté scientifique. Est-ce que ce recours à l’émergence ne serait qu’un moyen détourné qui masquerait un renoncement à savoir reconnaître, identifier, exprimer, les propriétés de la nature à l’échelle quantique ? Ce qui se dit dans l’article à ce niveau c’est qu’après tout peu importe ce qui précède ce que l’on fait apparaître en accord avec le processus de l’émergence. En conséquence, avec cette marge de liberté que s’octroient les théoriciens en question, ce qu’ils font apparaître, in fine, par l’intermédiaire du processus d’émergence relève plutôt de l’intuition, de la conception, a priori des auteurs, et non pas le fruit d’un raisonnement scientifique rigoureux, habituel, qui puisse être compris et partagé, pas à pas, par les collègues physiciens. N’oublions pas que l’interaction en jeu c’est l’intrication dont nous connaissons définitivement sa bizarre phénoménologie sans comprendre quoi que ce soit de sa nature. Donc, il est évident qu’il faut garder une bonne distance intellectuelle à l’égard de ce qui est énoncé dans le cadre de cette thèse de l’émergence, ainsi je cite, p.23 : « Selon une idée fascinante (sic) proposée récemment, l’étoffe de l’espace-temps serait tissée par l’intrication quantique des éléments sous-jacents d’espace-temps, qu’elle qu’en soit la nature. » « La gravité et l’espace-temps pourraient n’être que le produit final, en trois dimensions, de l’intrication des qubits dans un espace n’ayant seulement que deux dimensions. » Certes les chercheurs (déjà +200) qui travaillent sur ce sujet n’ignorent pas l’étendue du chantier et ses arêtes, mais cette propension à mettre la charrue devant les bœufs peut nourrir un certain scepticisme. P.24 : « Une fois que les différents aspects de l’intrication seront mieux compris et maitrisés, les chercheurs comprendront peut-être comment l’espace-temps émerge de ce phénomène (sic). »

Le deuxième article de ‘PlS’ est écrit par J. Maldacena, il a pour titre : ‘l’intrication quantique est-elle un trou de ver ?’, par un raccourci fréquent on écrit EPR=ER, conjecture proposée Maldacena et L. Susskind en 2013. EPR fait référence à l’article fondateur de la propriété de l’intrication et ER fait référence à l’article fondateur du trou de ver. D’un point de vue théorique les trous de ver laissent apparaître des propriétés qui pour nous ne peuvent être que de l’ordre de la fiction. Ainsi un trou de ver permet sur le papier à un vaisseau spatial ou tout autre objet d’entrer par une extrémité et en sortir instantanément à son autre extrémité située dans un lieu et un temps différent. Les trous de ver à la Einstein-Rosen (ER) ne sont pas traversables, ils s’effondrent avant que l’on se présente devant. Selon les travaux de J. Maldacena et d’autres, des trous noirs objets quantiques par excellence pourraient être intriqués, plus précisément puisque : « vus de l’extérieur, les trous noirs ressemblent à des systèmes quantiques ordinaires, rien ne nous empêche (en théorie) de considérer deux trous noirs intriqués et très distants l’un de l’autre. Chacun a un grand nombre de micro-états quantiques possibles. Et l’on peut imaginer (sic) une intrication telle que chaque micro-état quantique du premier trou noir est corrélé avec le micro-état correspondant du second. A partir de là nous suggérons qu’une paire de trous noirs aux micro-états ainsi intriqués produirait un espace-temps dans lequel le trou de ver relierait l’intérieur des deux trous noirs. En d’autres termes, l’intrication quantique crée une connexion géométrique entre les deux trous noirs. » « Si l’équivalence entre trous de ver et l’intrication quantique se généralise (sic), la connexion spatiale pourrait impliquer de minuscules structures quantiques qui ne suivraient pas notre vision habituelle de la géométrie. Nous ne savons toujours pas décrire ces géométries microscopiques, mais l’intrication de ces structures pourrait, d’une manière ou d’une autre, donner naissance à l’espace-temps lui-même. C’est comme si l’intrication pouvait être considérée comme un fil reliant deux systèmes. Quand la quantité d’intrication augmente, nous avons beaucoup de fils, et ensemble ces fils pourraient tisser la trame de l’espace-temps. Dans cette représentation, les équations de la relativité d’Einstein régissent les connexions et les reconnexions de ces fils, tandis que la physique quantique serait l’essence de la construction de l’espace-temps. »

Je cite largement J. Maldacena parce que ses analyses et ses résultats scientifiques sont réputés. Ci-dessus on lit sa conviction que l’émergence de l’espace-temps résulte d’un processus qui se trame dans la nature et qu’il y aurait enfin matière à unifier relativité générale et mécanique quantique.

Dans plusieurs articles (notamment celui du 9/12/2015) j’ai proposé que l’intrication quantique entre deux objets devait s’expliquer, du point de vue de l’observateur, par l’absence d’espace-temps qui relie les objets car l’intrication se produit à l’origine dans un temps < TpS. Donc l’observateur ne peut fonder le temps et en corollaire l’espace, et en conséquence aucune différenciation des objets ne peut opérer. Etant donné l’interprétation la plus courante du trou de ver, j’accepte l’égalité EPR = ER, qui conforteraient ma conception de l’intrication et sa cause. Mais la conséquence est remarquable car selon mon scénario l’espace-temps témoigne de la présence du sujet pensant qui cogite à propos des lois de la nature et contrairement à ce que Maldacena nous dit, les ingrédients basiques de l’espace-temps ne sont pas dans la nature. Effectivement mon hypothèse est dérangeante pour la majorité des physiciens car ils sont toujours convaincus que les connaissances qu’ils mettent en évidence sont objectives et correspondent donc à un ‘voir’ et à un ‘connaître’ de ce qui est intrinsèque à la réalité : celle de la nature, c’est-à-dire ce qui est en dehors de nous : êtres humains. Il y a des positions dont le clivage est moins net avec les miennes, c’est le cas avec Mermin, avec Chalmers et les Qbists : voir article du 27/05/2014, mais le chemin de la convergence sera long parce que tortueux.

Toutefois, le fait que des physiciens absolument réalistes soient obligés de s’appuyer sur un concept d’émergence pour qu’à partir de celle-ci, ils soient capables de discerner des objets, des concepts, qui puissent s’insérer dans leur discours scientifique, devrait les interpeller sur la validité de leurs convictions de producteur d’un savoir universel. Ils devraient se demander pourquoi : ils ne lèvent le voile de la nature qu’à partir d’un certain stade en laissant dans une étonnante approximation voire dans l’épaisseur de l’ignorance des causes profondes et premières.

La notion d’émergence me convient, pas comme un recours face à la défaillance de la prédiction théorique, mais très explicitement je la conçois a priori lorsque je précise la conception rassemblée de ma métaphysique : « Au sein d’une éternité, parmi tous les possibles, l’anthrôpos ne cesse de creuser sa compréhension du monde… ». Dans cette formule le battement du temps est un symptôme, celui de la présence de l’anthrôpos et l’émergence est la conséquence de l’activité permanente du creusement vers la compréhension de la nature physique du monde.

 

[1] ‘Par-delà le visible’, p. 162, édit, O. Jacob, 01/2015

[2] Voir article du Cern-courier, May 2017

Partager cet article

Repost0
7 mai 2017 7 07 /05 /mai /2017 06:15

La science a besoin de raison pour produire de la confiance

 

Dans des articles principaux du 11/04/2017 et du 16/01/2016 et quelques autres, j’ai exprimé une sérieuse inquiétude à propos de ce que j’analyse comme étant une dérive redoutable de la pensée scientifique en tant que discipline ayant l’objectif d’accéder à des connaissances rigoureuses et partageables. Il y a maintenant quelques décennies que cette discipline prend des chemins qui fourvoient les fondements et les contraintes de celle-ci. Ce qui est impressionnant c’est que cela prend de l’ampleur avec l’impossibilité toujours actuelle de sortir des impasses théoriques aussi bien en cosmologie, en physique des particules élémentaires et plus particulièrement celle des neutrinos. Cette fuite en avant s’explique en partie à cause des moyens technologiques de plus en plus fabuleux dont l’humanité dispose et disposera ainsi que des moyens de calcul qui laissent croire que l’on peut voir originalement, par simulation, ce que l’on est incapable de penser. La communauté scientifique est dans l’incapacité de proposer de nouveaux paradigmes qui donneraient l’élan nécessaire pour dépasser les impasses actuelles. La nature ne nous dévoilera jamais ces paradigmes (naturellement) puisqu’ils ne sont que des productions de l’intelligence humaine engagée dans le dépassement perpétuel pour que la Nature nous dévoile ses lois et ses propriétés. C’est une praxis qui fut inhérente à l’histoire de l’émancipation de l’humanité, praxis qui continue de l’être pour son émancipation future, c’est-à-dire la nôtre.

C’est avec beaucoup d’intérêt et de satisfaction que j’ai pris connaissance d’un article du 05/04 dans la revue Nature : ‘Science needs reason to be trusted’, de Sabine Hossenfelder, qui nous dit avec beaucoup de lucidité et de sincérité, là où elle exerce son métier de physicienne, pourquoi nous nous rejoignons pour exprimer nos états d’alerte. Elle indique aussi – un point de vue que je partage – que les physiciens et spécialistes des sciences exactes ont tort de considérer que leur activité professionnelle les rend imperméables aux influences sociétales et à ses valeurs qui peuvent être versatiles. Sabine Hossenfelder exerce à l’institut des études avancées de Francfort.

Ci-joint le texte de l’article traduit par Michel, Alain, François, Daniel, dont j’assume la responsabilité de son assemblage.

« Je suis physicienne dans le domaine : théorie de la physique des particules, et je doute de la validité de la recherche dans ce domaine. Je sais que c’est déjà gênant mais il y a encore pire. Je crains que le public ait de bonnes raisons de ne pas faire confiance aux scientifiques et – triste mais vrai – moi-même je trouve également qu’il est de plus en plus difficile de leur faire confiance.

Au cours des dernières années la confiance en la science a été sévèrement mise en question par la crise de la reproductibilité. Ce problème a principalement touché les sciences de la vie où il arrive que de nombreuses découvertes validées par des pairs ne peuvent être reproduites de manière indépendante. Les tentatives pour remédier à cela se sont concentrées sur l’amélioration des dispositions actuelles relatives à la fiabilité statistique et la façon dont elles sont appliquées en pratique. Des changements de ce type ont été mis en œuvre pour améliorer l’objectivité scientifique ou – de manière plus brutale – empêcher les scientifiques de se mentir et de mentir aux autres. Ils ont été conçus pour rétablir la confiance.

La crise de la reproductibilité est un problème mais au moins c’est un problème qui a été identifié et qui est traité. Néanmoins, où je suis, dans un domaine de recherche qui peut, grosso modo être défini comme les fondements de la physique – cosmologie, physique au- delà du modèle standard, fondements de la mécanique quantique – je suis au contact direct d’un problème bien plus important.

  1. travaille dans l’élaboration des théories. Notre tâche, consiste en gros à trouver des nouvelles – et d’une certaine façon meilleures – explications à des observations déjà existantes et à en tirer ensuite des prédictions pour tester ces nouvelles propositions prédictives. Nous n’avons pas de crise de reproductibilité car au départ nous ne disposons pas de données – toutes les observations disponibles peuvent s’expliquer par des théories bien établies (à savoir : le modèle standard de la physique des particules élémentaires et le modèle standard de la cosmologie : LCDM).

Mais nous avons une crise d’une toute autre nature : nous produisons une énorme quantité de théories nouvelles et pourtant aucune d’entre elles n’est jamais confirmée expérimentalement. Appelons cela la crise de surproduction. Nous utilisons les méthodes reconnues dans notre discipline, constatons qu’elles ne marchent pas mais n’en tirons aucune conséquence. Comme une mouche frappant une vitre, nous nous répétons sans cesse, en attendant de nouveaux résultats

Quelques-uns de mes collègues ne seront pas d’accord pour reconnaître qu’il y a une crise. Ils vous diront que nous avons fait de grands progrès au cours des quelques dernières décades (en dépit du fait qu’il n’en est rien sorti) et en conséquence il est normal qu’il y ait un ralentissement du progrès de la connaissance comme lorsqu’un champ arrive à maturité. Ce n’est pas le 18e siècle et découvrir aujourd’hui sur le plan fondamental une nouvelle physique n’est pas aussi simple que cela a été. Cela se comprend. Mais mon problème ce n’est pas le chemin du progrès, per se, à la vitesse de l’escargot, c’est que les pratiques actuelles des développements théoriques contemporains montrent un défaut de la méthode scientifique.

Permettez-moi d’illustrer ce que je veux dire :

En décembre 2015 les ensembles CMS et Atlas du LHC ont présenté une évidence d’un écart par rapport au modèle standard de la physique avec, approximativement, une résonnance de masse à 750 GEV. L’excèdent est apparu dans le canal de désintégration avec deux photons et avait un faible niveau de signification statistique. Cela ne correspondait à rien de ce qui avait été jusqu’à présent prédit. En aout 2016, de nouvelles données ont révélé que l’excédent était simplement une fluctuation statistique. Mais avant que ceci soit mis en évidence, les physiciens des hautes énergies ont produit plus de 600 articles pour expliquer le signal supposé. Beaucoup de ces articles furent publiés dans les principaux journaux de ce domaine. Aucun d’entre eux n’a décrit la réalité.

Actuellement, la communauté des physiciens des particules est toujours sujette aux marottes et aux modes. Bien que ce cas soit extrême à la fois par le nombre de participants et par leur célérité, il y eut auparavant de nombreux cas similaires. Dans la physique des particules, se précipiter sur un sujet chaud dans l’espoir d’obtenir des citations est si commun qu’il a un nom : ‘la chasse à l’ambulance’, en référence (vraisemblablement apocryphe) à la pratique des avocats suivant les ambulances dans l’espoir de trouver de nouveaux clients.

On pourrait argumenter que même si toutes les explications de cette excroissance de 750 GEV étaient fausses, c’était cependant un bon exercice pour l’esprit, une sorte d’opération de forage pour atteindre un vrai résultat. Je ne suis pas convaincue que ceci soit du temps bien utilisé, mais d’une façon ou d’une autre, chasser l’ambulance n’est pas ce qui m’inquiète. Ce qui me préoccupe, c'est que cette quantité produite de documents est une démonstration frappante de l'inefficacité des critères de qualité actuels. Si seulement quelques mois suffisent pour produire plusieurs centaines d'’explications pour un accident statistique, alors à quoi ces explications seraient-elles bonnes ?

Et ce n'est pas seulement en physique théorique des hautes énergies. On le constate aussi en cosmologie, où les modèles d'inflation abondent. Les théoriciens introduisent un ou plusieurs nouveaux champs et potentiels qui régulent la dynamique de l'Univers avant qu’ils ne se désintègrent en matière courante. Les données d'observation actuelles ne permettent pas de distinguer ces différents modèles. Et même en disposant de nouvelles données, il restera encore beaucoup de modèles pour écrire des articles. Selon mon estimation, la littérature en contient actuellement plusieurs centaines.

Pour chaque choix de champs et potentiels d'inflation, on peut calculer des observables, puis passer aux champs et potentiels suivants. La probabilité que l'un de ces modèles décrive la réalité est infime - c'est un jeu de roulette sur une table infiniment grande. Mais selon les critères de qualité actuels, c'est une science de première qualité.

Ce syndrome de comportement se manifeste également en astrophysique, où les théoriciens évoquent des champs pour expliquer la constante cosmologique (qui est bien expliquée par le fait que c’est bien une constante) et suggèrent des «secteurs cachés» de plus en plus compliqués de particules qui pourraient être ou n’être pas de la matière noire.

Il n’est pas dans mon intention de rejeter indistinctement toute cette recherche comme inutile. Dans chaque cas, il y a de bonnes raisons pour que le sujet mérite d'être étudié et conduise à de nouvelles idées - raisons que je n’ai pas la place de développer ici. Mais en l'absence de mesures de bonne qualité, les idées qui s’imposent sont les plus fructueuses, même s'il n'y a aucune preuve que la fécondité d'une théorie soit en corrélation avec sa justesse. Permettez-moi de souligner que cela ne signifie pas nécessairement qu'individuellement les scientifiques modifient leur comportement pour satisfaire leurs pairs. Cela signifie seulement que les tactiques qui survivent sont celles qui se reproduisent.

Beaucoup de mes collègues croient que cette abondance de théories sera éventuellement réduite grâce aux données factuelles. Mais dans les processus de fondation de la physique, il a été extrêmement rare d’éliminer un modèle quel qu’il soit. La pratique admise est au contraire d’ajuster le modèle pour qu’il continue à être en accord avec le manque de preuves empiriques.

La prédominance d’hypothèses fertiles et facilement modifiables a des conséquences. Etant donné que les expériences prouvant les fondations des théories physiques sont devenues tellement couteuses et tellement longues à mettre sur pied, nous devons examiner soigneusement lesquelles d’entre elles sont aptes à révéler de nouveaux phénomènes. Dans cette évaluation les avis des théoriciens sur les modèles susceptibles d’être corrects, jouent un grand rôle. Bien sûr les expérimentateurs mettent en avant leur propres délais, mais c’est la théorie qui devrait éclairer leur mission. Quoi qu’il en soit ceci signifie que si les théoriciens sont perdus, les expériences deviennent moins aptes à produire de nouveaux résultats interprétables, en conséquence les théoriciens ne peuvent s’appuyer sur de nouvelles données et le cercle (vicieux) se referme.

Il n’est pas difficile de voir comment nous en sommes arrivé à cette situation. Nous sommes jugés sur le nombre de nos publications – ou au moins nous pensons être jugés ainsi – et l’exigence d’éléments qualitativement meilleurs pour assurer le développement des théories amputerait la production de celles-ci. Mais que la pression pour publier récompense la quantité au détriment de la qualité a souvent été dit dans le passé et je ne veux pas encore ajouter d’autres reproches sur les éléments mal conçus pour assurer un succès scientifique. Il est évident que de tels reproches n’ajouteraient rien.

Des complaintes sur la pression pour publier ne servent à rien car cette pression est seulement un symptôme et pas la maladie. Le problème sous-jacent est que la science comme toute autre activité collective humaine est soumise à la dynamique sociale. A la différence de la plupart des autres activités humaines collectives, les scientifiques devraient reconnaitre les menaces portant sur l'objectivité de leur jugement et trouver les moyens de les éviter. Mais ce n'est pas ce qui arrive.

Si les scientifiques sont sélectivement exposés aux informations émanant de pairs pensant la même chose, s'ils sont punis pour ne pas suffisamment attirer l'attention, s'ils font face à des obstacles pour quitter des domaines de recherche promis au déclin, ils ne peuvent être comptés comme étant objectifs. C'est la situation dans laquelle nous sommes actuellement et nous devons l'accepter.

Pour moi, notre incapacité -- ou peut-être même notre mauvaise volonté -- à limiter l'influence des biais sociaux et cognitifs au sein des communautés scientifiques est une sérieuse défaillance du système. Nous ne protégeons pas les valeurs de notre discipline. La seule réponse que je vois, sont des tentatives pour rendre les autres responsables : les agences de financement, les administrateurs de l'enseignement supérieur ou les décideurs politiques. Mais aucun de ces acteurs n'est intéressé à gaspiller de l'argent dans des recherches inutiles. Ils comptent sur nous, les scientifiques, pour leur dire comment la science fonctionne.

J'ai indiqué des exemples de ces manquements à l'autocorrection dans ma propre discipline. Il semble raisonnable de penser que la dynamique sociale est plus influente dans les domaines privés de données, ainsi les fondements de la physique représentent-ils peut être un cas extrême. Mais à la base, le problème affecte toutes les communautés scientifiques. L'an dernier, la campagne du Brexit et la campagne de la présidentielle américaine nous ont montré à quoi ressemblent les politiques post-factuelles -- un développement qui peut être complétement perturbant pour quiconque est doté d'un bagage scientifique. Ignorer les faits est vain. Mais, nous aussi, nous ignorons les faits : il n'y a aucune évidence que l'intelligence fournisse une immunité contre les biais sociaux et cognitifs, aussi cette présence doit être considérée comme défaut supposé. Et tout comme nous avons des règles pour éviter des biais systématiques dans l'analyse des données, nous devrions également avoir des lignes directrices pour éviter les biais systématiques découlant de la façon dont les cerveaux humains traitent l'information.

Cela signifie, par exemple, que nous ne devrions pas pénaliser les chercheurs qui travaillent dans des domaines « impopulaires », ni filtrer les informations en utilisant les recommandations d’amis, ni utiliser les techniques de marketing, et nous devrions agir contre la crainte de l’échec avec des incitations à changer de domaine, et donner plus d’importance aux connaissances qui ne sont pas encore largement partagées (Pour éviter le «biais d'information partagée»). Par-dessus tout, nous devrions commencer à prendre le problème au sérieux.

Pourquoi n'est-il pas pris au sérieux jusqu'à présent ? Parce que les scientifiques font confiance à la science. Cela a toujours fonctionné ainsi, et la plupart des scientifiques sont optimistes sur le fait que cela continuera - sans qu’ils aient à agir. Mais nous ne sommes plus au dix-huitième siècle. Les communautés scientifiques ont radicalement changé au cours des dernières décennies. Nous sommes plus nombreux, nous collaborons davantage et nous partageons plus d'informations que jamais. Tout cela est amplifié par les commentaires dans les réseaux sociaux, et il est naïf de croire que quand nos communautés changent nous n’aurions pas aussi à réévaluer nos méthodes.

Comment pouvons-nous blâmer le public d'être mal informé parce qu'ils vivent dans des bulles sociales si nous en sommes également coupables ? »

 

Partager cet article

Repost0
28 avril 2017 5 28 /04 /avril /2017 14:46

A propos de la mécanique quantique standard : recherche de déviations.

La mécanique quantique standard continue d’être auscultée pour tenter de découvrir des déviations par rapport à la conception standard qui s’est imposée depuis maintenant un siècle. L’article d’Alain Aspect du 16/12/2015 : « Closing the Door on Einstein and Bohr’s Quantum Debate » dans la revue de l’American Physical Society, a contribué à valider la complétude de cette conception standard. Malgré ceci, cela ne clôt pas pour autant la recherche de phénomènes, de propriétés, qui n’auraient pas encore été décelés. Récemment, il y en a au moins une qui était recherchée par une équipe de l’université de Vienne dont les conclusions ne permettent pas de dire qu’ils ont débusqué une propriété originale non standard.

Dans ce bref article, je souhaite faire connaître ce résultat négatif parce qu’en creux cela conforte un certain nombre de mes hypothèses. Je me réfère donc à l’article original dans Phys.Org du 21/04/2017 : «The search for deviations from standard quantum mechanics » : « La recherche de déviations de la mécanique quantique standard »

En résumé, il est relaté que s’il est pensé au moins une propriété nouvelle éventuelle, non prescrite par le formalisme mathématique standard, alors il faut en premier lieu exploiter un formalisme mathématique nouveau. La première étape de la tentative des chercheurs de l’université de Vienne a consisté à sélectionner un formalisme mathématique différent de celui exploité par la description standard. Ils proposent donc de substituer aux nombres complexes habituels des nombres hypercomplexes. Ceux-ci correspondent à une généralisation des nombres complexes (par exemple les nombres hypercomplexes sont utilisés en physique quantique pour calculer la probabilité d'un événement en tenant compte du spin de la particule. En négligeant le spin, les nombres complexes « normaux » suffisent.)

Dans une première étape il faut donc s’assurer qu’avec les nombres hypercomplexes on retrouve tous les résultats confirmés dans le cadre de la mécanique quantique standard. Une fois que cette étape est franchie il s’agit d’évaluer théoriquement ce qui pourrait être prédit au-delà du cadre standard. Justement dans le nouveau cadre certaines opérations ne commutent pas alors qu’avec les nombres complexes il y a commutation. Expérimentalement cela signifierait que dans un interféromètre au-delà du miroir semi transparent un chemin spécifié, parcouru par le photon, plutôt que l’autre, non spécifié, n’est pas indifférent (non commutation) à ce qui serait observable in fine dans l’interféromètre.

La différenciation des deux chemins possibles du photon dans l’interféromètre est assurée par l’introduction, dans un, d’un dispositif qui accélère la lumière (avec un méta-matériel) et dans l’autre, un matériel classique qui ralentit la lumière. Evidemment ces caractérisations des chemins ne sont pas exploitables par l’observateur pour qu’il puisse savoir si le photon est passé par un chemin plutôt qu’un autre. L’observateur est maintenu dans l’ignorance spatio-temporelle du chemin effectivement suivi par le photon et c’est essentiel. Ce que les physiciens observent expérimentalement c’est que la règle de non commutation déduite de l’introduction des nombres hypercomplexes ne se vérifie pas avec ce dispositif expérimental particulier.

En fait ce que les chercheurs, auteurs de ce travail, pensent a priori c’est que ce qui est observé serait tributaire des propriétés intrinsèques (modifiées) de objets quantiques. L’idée qui est mienne c’est que ce que l’on observe in fine dans l’interféromètre dépend uniquement si l’observateur a une information spatio-temporelle ou pas sur le chemin effectivement suivi par le photon. Dans un cas, ce qui est observé, ce sont des impacts d’objets ponctuels dans l’autre cas, ce sont des franges d’interférences (qui résultent de l’aspect ondulatoire).

Selon mon hypothèse fondamentale, l’espace, le temps, et en l’occurrence l’espace-temps sont fondés par l’être humain, c’est-à-dire que ce sont des propres de l’homme. Les apparaître différents à l’observateur : onde/objet ponctuel, sont déterminés par sa connaissance ou pas d’une information spatio-temporelle à propos du chemin suivi par l’objet (ici, un photon). La mécanique quantique nous confronte au fait que l’être humain est un être façonné par les lois classiques de la nature. C’est donc en fonction de ce bagage hérité au cours de son évolution qu’il décrypte progressivement les lois de la nature. Le monde de l’infiniment petit ne nous étant pas accessible directement, aucune conception réaliste de ce monde ne peut être établie contrairement à ce qu’avait voulu instaurer Einstein avec ténacité. Comme le rappelle l’article d’Alain Aspect c’est la version de l’école de Copenhague qui est juste et pas celle des réalistes.

Ce que nous observons n’est qu’un apparaître et nous enregistrons un savoir qui est conditionné par nos capacités cérébrales déterminées par le fait que nous sommes des sujets pensants, observateurs, moulés par une intelligence et des références du monde classique. J’ai eu plusieurs fois l’occasion d’indiquer que c’est un stade provisoire de notre faculté de décrypter le monde physique : voir article du 26/09/2015 ‘Non, on ne pense pas quantique. Pas encore !’. Ce stade provisoire pourra être franchi, lorsque nous atteindrons une compréhension nouvelle de nos facultés cérébrales d’investigations comme je l’ai proposé dans les articles du 21/09/2016 et du 10/10/2016.

Partager cet article

Repost0
11 avril 2017 2 11 /04 /avril /2017 12:11

La recherche doit-elle voir toujours plus grand ?

Dans le numéro de 'La Recherche', du mois de Mars, sont proposés plusieurs articles sous la rubrique : « Big science », La recherche doit-elle voir toujours plus grand ? A propos de ce thème générique, je considèrerai les sujets qui recouvrent essentiellement le domaine de la physique.

  • Grands instruments, grandes équipes et/ou gros budgets caractérisent une nouvelle manière de faire de la science. De plus en plus répandue dons tous les champs de recherche, elle est à l'origine de plusieurs découvertes marquantes de ces dernières années. Mais les interrogations, les doutes, les oppositions que ce modèle suscite, dans la communauté scientifique et au-delà, soulignent à quel point il est crucial de bien mûrir un projet de grande envergure afin d'en faire un succès. » Ce paragraphe introductif, que l'on peut lire page 81, présente justement la problématique qu'engendre le développement et l'exploitation de ce qui se réfère à la Big science ». A juste raison sont présentés les succès significatifs qui sont dus à son recours. Mais sont aussi mis en exergue les projets dont on peut craindre qu'ils ne soient que des fuites en avant. Fuites en avant quand les projets (d’expériences et/ou d’observations) ne sont pas suffisamment précédés par un minimum de prédictions théoriques qui cernent un spectre d’hypothèses hiérarchisées permettant de valider ou invalider quelques-unes de celles-ci.

Exemple, p.86 : « Mais la big science a aussi ses détracteurs ou, tout au moins, ses sceptiques. Simon White, directeur de recherche à l'institut Max-Planck d'astrophysique, à Garching, en Allemagne, a ainsi exprimé de multiples doutes quant aux grands projets de recherche sur l'énergie noire, cette forme d'énergie hypothétique nécessaire, par exemple, pour expliquer l'accélération de l'expansion de l'univers. Il redoute surtout l'impact possiblement néfaste de ces projets sur la recherche en astrophysique. Entre autres, que leur bénéfice réel soit mol évalué et, par conséquent, conduise à engloutir les crédits de recherche dans la construction d'instruments très coûteux mais apportant finalement des avancées limitées. »

L'aspect financier n'est pas secondaire, mais à mon sens cet aspect n'exprime pas l'inconvénient essentiel. Pour illustrer mon propos, je prends pour exemple le cours réalisé par Françoise Combes au Collège de France 2016-2017, intitulé :'Energie noire et modèles d'univers'. Ce cours n'a pas pu être autrement que très impressionniste car notre compréhension des choses est encore trop vague, franchement fluctuante, insuffisamment confirmée sur le plan observationnel, et récemment des nouvelles mesures affaiblissent sérieusement la thèse de l'accélération de l'expansion de l'univers dont l'énergie noire en serait la cause. Bref, on a pu constater que F. Combes se trouvait sur le fil du rasoir au cours des séances successives qui ont été conclues par celle du 06/02 avec le titre : 'Perspectives avec Euclid, WFIRST, LSST, SKA'. Ces acronymes désignent des télescopes spatiaux ou terrestres, qui vont entrer en activité dans la prochaine décennie, censés lever le voile de la validité ou pas de l'hypothèse de l’énergie noire. A ce niveau, on entend l'inquiétude de Simon White à propos de ces perspectives qui représentent au total des engagements financiers de l'ordre de 4 ou 5 milliards d'euros ou dollars.

Pour mon compte se trouve illustré, avec ces perspectives annoncées, ma préoccupation relative à une fuite en avant. En effet, ce cours n'a pas pu indiquer une quelconque avancée théorique, si ce n'est la présentation d'une panoplie extrêmement large d’hypothèses sans qu'aucune hiérarchie parmi celles-ci ne puisse être affirmée. Il faut de plus prendre en compte qu’il y a déjà en action deux voire trois dispositifs d'observations et de mesures qui visent à détecter l'action d'une énergie noire dans l'univers : SDSS, DES, BOSS, autres acronymes désignant les dispositifs actuellement en activité. Aucune conclusion ne peut être extraite de ces présentes observations. De plus, un article qu’il n’est pas possible de sous-estimer, publié par des théoriciens, le 3 avril, nous indique que l’énergie noire pourrait n’être qu’une illusion. L'irrésistible propension à définir de nouveaux appareils d’observation, et à effectivement les construire, est justifiée par la progression remarquable des technologies. Ce qui permet de disposer de caméras et de télescopes de plus en plus sensibles et qui, de plus, ramassent par unité de temps des quantités d'informations de plus en plus importantes. L'impressionnant développement de la capacité de traitement informatique de ces gigantesques quantités d'informations recueillies autorisent à considérer que l'aire de la méga science, sans pensée préalable, ne peut que prospérer.

Pourtant, pour notre réflexion nous disposons d'un redoutable exemple illustrant le fait qu'une méga technologie couplée à une méga capacité de calcul ne conduit pas systématiquement à de méga avancées scientifiques, loin s’en faut. On ne peut pas glisser sous le tapis l’inquiétante déconvenue internationale provoquée par l'absence de résultats significatifs au CERN depuis trois bonnes années, alors que toutes les conditions optimales de productions de résultats ont été réunies pendant l'année 2016 grâce au fonctionnement idéal du LHC, aucune publication originale, significative, n'a été produite. Bref aucune nouveauté originale n’a pu être discriminée dans les détecteurs. Mais nous ne pouvons pas exclure qu’une ou plusieurs nouveautés ont été générées, sans que nous puissions les voir parce que non précédées par un minimum de regard théorique.

C’est dans l'article d'entrée en responsabilité de Fabiola Gianetti, en tant que Directrice Générale du CERN le 01/01/2016, que d'une façon explicite j'ai lu l'expression de la croyance qu'il suffisait de se reposer sur le développement de Ia puissance technologique pour que tous les espoirs soient permis. L'expression de cette croyance est contenue dans cette phrase : « Si une nouvelle physique est là, nous pouvons la découvrir, mais c'est entre les mains de la nature. » J'ai dit quel était le dépit que m'inspirait cette appréciation erronée dans l'article du 16/01/2016 : « Et si notre pensée était mal placée ! ». L'histoire des découvertes scientifiques nous indique que l'homme ne découvre que ce qu'il a préalablement conçu théoriquement dans l'ordre du possible et donc s'il a conçu un filet intellectuel capable de recueillir dans ses mailles des signes interprétables dans un sens ou dans un autre, sinon la nature ne peut être, pour nous, que muette.

Prenons un exemple significatif, de filet intellectuel préalable, celui qui a mené à la mise en évidence du Fond diffus Cosmologique. Petit rappel historique : quand A. Penzias et R. Wilson ont observé dans leur antenne nouvelle, qu'ils testaient en 1965, un bruit de fond plutôt homogène et plutôt isotrope, ils étaient intrigués. En tant qu'électroniciens ils étaient inquiets car pour eux c'était un bruit qui pouvait laisser supposer un défaut de leur antenne prototype. N'arrivant pas à éliminer ce qui pour ces électroniciens était un bruit parasite, ils échangèrent leurs préoccupations avec des physiciens. Il s'est trouvé que ceux-ci connaissaient les travaux avant-gardistes du physicien théoricien et cosmologiste George Gamow ainsi que ceux de Ralph Alpher et Robert Herman concernant l'hypothèse d'un univers naissant dans une phase primordiale et prédisant un rayonnement rémanent. Le filet intellectuel, jeté par ces physiciens théoriciens dans la mer d’une connaissance éventuelle, recueillait dans ses mailles ce qui bien ailleurs était détecté comme un bruit parasite. Un prix Nobel fut attribué à A. Penzias et à R. Wilson, pas à Gamow.

Il est intéressant de citer un exemple très actuel où le recours à la 'Big science' est complètement justifié puisque éclairée par de l’intelligence prédictive et ainsi permettra peut-être de satisfaire des curiosités multiples à propos des trous noirs massifs et hypermassifs qui sont au centre des galaxies. En effet au cours de ce mois d'avril, plus précisément en ce moment dans la période du 4 au 14 avril, il est programmé d'obtenir une image du cœur de notre galaxie où réside un trou noir qui pèse M = 4 millions de masse solaire et du cœur de la galaxie M87 qui se trouve à une distance de 53,5 millions d'années-lumière de la terre ayant un trou noir pesant M = 6 milliards (sic) de masse solaire. Pour obtenir ce type d'image il faut constituer pendant la période d'observation un télescope virtuel qui résulte de la combinaison en temps réel de huit observatoires de 4 continents et d'Hawaii et ainsi obtenir un télescope unique avec un pouvoir de résolution qui a la taille de la terre. Cette opération typiquement « Big science », appelée : Télescope Horizon d'Evénement', acronyme : EHT (Event Horizon Telescope) devrait permettre de révéler le bord de ces deux trous noirs nommé : horizon des événements. Le rayon de l'horizon est défini par l'équation R = 2GM/C2. EHT doit permettre de voir le bord r > R du trou noir car il est entouré d’un disque d'accrétion de matière très chaude qui spirale autour de l'horizon jusqu'à ce que celle-ci soit engloutie irréversiblement. Avant ce terme, spiralant à très grande vitesse, la matière émet de la lumière et c'est ce que EHT veut capter sur des longueurs d'ondes de 0.87 à 1.3 mm. Dans la région d'un trou noir la gravitation est extrême et le disque d'accrétion sera vu déformé (prévision de la Relativité Générale) au point que la partie arrière du disque sera visible.

Il faudra récolter chaque nuit d'observation 2.1015 bytes de données (ce qui représente la même quantité collectée au cours d'une annualité de fonctionnement du LHC). Ensuite il s'agira de traiter ces données et les analyser grâce à des réseaux d'ordinateurs pendant un semestre et ensuite l'étude scientifique commencera. Si tout se déroule comme prévu, les premières publications seront disponibles à la mi-2018.

Ci-joints 2 articles annonçant que l’opération d’observation est commencée :

Worldwide telescope attempts to image a black hole. Le 6 Avril

An attempt to obtain the first ever image of the Milky Way's supermassive black hole has begun. The Earth-sized Event Horizon Telescope (EHT) has launched 10 days run to obtain the portrait via very-long-baseline interferometry (VLBI). The telescope comprises eight radio dishes across the globe, including the Atacama Large Millimeter/submillimeter Array (ALMA) in Chile, the South Pole Telescope (SPT) in Antarctica, and the IRAM 30 metre telescope in Spain. Since its first measurements in 2007, the EHT has yielded tantalizing results even without the full array of telescopes. Now, all eight are linked and looking at our black hole, Sagittarius A* (Sgr A*), as well as the even bigger one in the neighbouring galaxy M87. Although black holes are inherently invisible because of their extreme density and gravitational field, the researchers hope to image the point where matter and energy can no longer escape – the so-called event horizon. "This week heralds an exciting and challenging endeavour for astronomy," says France Córdova, director of the funding agency National Science Foundation. For more information on the EHT, see our feature "Portrait of a black hole

EHT (Event Horizon Telescope) va acquérir une première image du trou noir de notre galaxie, la Voie lactée. Comment ? En utilisant un réseau de radiotélescopes répartis sur la planète pour former un télescope virtuel de quelque 5.000 kilomètres de diamètre. Les explications de Michael Bremer, astronome et responsable Iram du projet EHT.

Ce qu'il faut retenir :

  • En associant les instruments de sept observatoires répartis sur les deux hémisphères, le projet EHT crée un télescope virtuel d'environ 5.000 kilomètres de diamètre.
  • Il sera utilisé, tout d'abord, pour obtenir une image du trou noir au centre de notre galaxie. Pour être réalisée, elle nécessitera plusieurs mois de traitement.
  • C’est en fait l'horizon du trou noir qui sera vu, dans le domaine submillimétrique.

Alors qu'il semblait impossible d'observer le trou noir au centre de la Voie lactée, une équipe internationale d'astronomes, dont des Français, parie le contraire. Depuis quelques jours, ils observent Sagittarius A*, le trou noir supermassif de notre galaxie, situé à 26.000 années-lumière de nous. Pour observer cet objet d'une taille estimée à 25 millions de kilomètres et quatre millions de fois plus massif que le Soleil, nos astronomes utilisent l'EHT (Event Horizon Telescope).

L'instrument, pourtant, n'existe pas vraiment... Il est virtuel, associant des observatoires et des télescopes du monde entier, de l'Europe jusqu'à l'Antarctique, en passant par le Chili et Hawaï.

Partager cet article

Repost0
14 mars 2017 2 14 /03 /mars /2017 13:49

Indices solides qui valident l’article du 17 février.

Ce 17 février, j’ai posté l’article : ‘Fragilité du Modèle Standard de la Cosmologie’. Ce 8 mars un article important est publié sur le site de la revue ‘Science’ : ‘Trouble sur la constante de Hubble : un débat relancé à propos de la vitesse d’expansion de l’univers pourrait mener à une nouvelle physique

Le débat en question présente beaucoup d’intérêt parce qu’il est provoqué par le constat d’un écart de valeur significatif, de l’ordre de 8% mesuré, de la constante de Hubble (H0) qui détermine la vitesse d’expansion de l’univers et aussi permet de calculer l’âge de l’univers depuis le Big-Bang. Pour une part des cosmologistes annoncent 68 km/s/Mpc (2014), d’autre part les astrophysiciens annoncent 73 km/s/Mpc (2016). La valeur obtenue par les cosmologistes résulte de l’exploitation des relevés récents fournis par le satellite Planck qui sont considérés comme les plus précis depuis 2014. La première nouvelle valeur obtenue par les astrophysiciens fut publiée le 2 juin 2016 et elle a été confirmée par une autre équipe le 26 janvier 2017. Cet écart avéré est significatif parce que les deux valeurs différentes de Ho ont été déterminées par les physiciens en empruntant des chemins scientifiques distincts.

Les astrophysiciens ont procédé par des mesures différenciées de l’éloignement d’objets célestes tels que, des galaxies ou étoiles céphéides, supernovæ, et autres, qui permettent de déduire la vitesse d’expansion. Ces méthodes de mesure exploitent les instruments actuellement disponibles les plus performant et exploitent aussi la compréhension acquise aujourd’hui de l’effet lentille gravitationnel. La valeur de H0 obtenue est qualifiée : attachée à l’univers local, c’est-à-dire à l’univers qui a autour d’au moins 5 milliards d’années d’épaisseur temporelle en arrière de nos instruments de détection.

Les cosmologistes ont obtenu leur valeur de H0 en prenant en compte la carte du fond diffus cosmologique la plus détaillée obtenue dernièrement par le satellite Planck, que l’on qualifie comme étant la première image de l’univers, celle-ci représentant l’univers 380.000ans après le Big-Bang. En faisant des suppositions concernant comment la poussée et l’attraction de l’énergie et de la matière dans l’univers ont changé le taux d’expansion du cosmos depuis que le fond diffus fut constitué, les scientifiques peuvent a priori ajuster la constante de Hubble jusqu’à aujourd’hui correspondant à l’univers local. Donc les deux évaluations de Ho devraient coïncider. Ceci n’étant pas le cas, un chemin d’évaluation devrait être erroné. Si ce désaccord persiste, il faut considérer qu’il y a en perspective une nouvelle physique à découvrir et une des hypothèses qui fait sens serait de considérer qu’un ingrédient a été oublié ou mal évalué contribuant à l’expansion de l’univers.

Dans l’article du 17/02, j’ai choisi comme titre : ‘Fragilité…’ au singulier parce que je considère que c’est la conception globale de notre univers qui est provisoire et simplement représentatif de ce que nous sommes actuellement en mesure de décrypter à travers le prisme de nos capacités d’inférer actuelles. Cette fragilité globale sera probablement comprise à partir de la reconnaissance d’une fragilité spécifique. Peut-être sommes-nous au seuil de cette reconnaissance.

Je cite quelques arguments développés dans l’article du 8/03 : « Les cosmologistes ont exploité l’image du fond diffus en privilégiant certaines hypothèses en considérant les grumeaux chauds et moins chauds régulièrement répartis dans la soupe primordiale fixée par la première image de l’univers. Ces considérations sont : les grumeaux ont comme ingrédients constitutifs : les particules familières comme les atomes et les photons, quelques substances extra (sic) et invisibles appelées matière noire et énergie noire. »

Pour retrouver une concordance entre les deux valeurs de Ho, l’hypothèse dominante est encore de présupposer un quatrième neutrino comptabilisé dans la balance énergétique initiale de l’univers qui fournirait au stade du tout début de l’univers un supplément de pression radiative et qui se dissiperait plus rapidement. Ce scénario signifierait un univers primordial en expansion plus rapide et plus significative que celle prédite par le modèle standard avec sa liste traditionnelle d’ingrédients. Ainsi la concordance dépend d’une hypothèse qui jusqu’à présent n’est pas vérifiable.

Une autre possibilité de concordance peut être imaginée avec l’hypothèse de l’énergie noire. En effet les modèles cosmologiques les plus courants prennent en compte une valeur constante de l’énergie noire. Par contre si l’énergie noire devient progressivement plus importante au cours du temps, alors, ceci expliquerait pourquoi l’univers a une expansion plus rapide aujourd’hui que ce que l’on considère en auscultant l’univers primordial. Mais ce scénario est critiqué car il est conjecturé que l’hypothèse d’une énergie sombre variable est ad hoc et n’est pas naturelle.

Je vous propose de considérer que le présent article a la valeur d’un rapport d’étape et probablement dans un futur proche des choses intéressantes vont être dévoilées.

Partager cet article

Repost0
6 mars 2017 1 06 /03 /mars /2017 08:06

Etat quantique : subterfuge ou réalité ?

En 2011, j’avais réservé un article qui rapportait qu’au cours d’une conférence 33 physiciens et philosophes avaient participé à un sondage pour exprimer leur préférence à propos des différentes interprétations actuelles de la mécanique quantique. Le résultat publié attribue : 42% à l’interprétation de Copenhague ; 24% à l’interprétation relative à la théorie de l’information ; 18% à l’interprétation des mondes multiples de Hugh Everett ; 9% à l’interprétation des collisions objectives (GRW) ; 6% à l’interprétation quantique Bayésienne ; 6% à la mécanique quantique relationnelle (C. Rovelli) ; 0% interprétation de Broglie-Bohm.

Ce sondage peut être commenté de plusieurs façons, pour mon compte je constate qu’après plus d’un siècle c’est toujours l’interprétation de l’école de Copenhague qui tient la corde bien que depuis d’autres interprétations ont réussi à convaincre en partie des physiciens. L’interprétation de Copenhague est la plus frustrante et la plus radicale pour ceux qui croient que la connaissance en physique ne peut être qu’une connaissance du réel (réalistes). D’après ‘Copenhague’, il y aurait une barrière infranchissable : « pour atteindre le monde tel qu’il est à l’échelle microscopique de l’infiniment petit parce que les êtres humains (donc les physiciens) sont conditionnés pour penser en terme du monde classique qui nous entoure. Le monde quantique dans sa réalité nous est par essence inaccessible. La théorie quantique nous fournit des outils très effectifs mais pas plus que cela. Quand nous observons le monde quantique, nous le forçons à être conforme à nos préconceptions qui ne peuvent que refléter notre conditionnement par le monde classique… (cf. : exposé de N. Bohr, à Côme en 1927) »

Sur le site Phys.org, il a été publié le 21/02/2017 un article : ‘Test proposé qui pourrait offrir l’évidence la plus forte que l’état quantique est réel’, qui commente l’article d’un physicien théoricien de l’université d’Oxford : Georges C. Knee. Article original publié dans le ‘New Journal of Physics’.

En introduction il est dit : « Les physiciens s’approchent de plus en plus de la réponse à la question la plus basique de la théorie quantique : est-ce que l’état quantique représente la réalité ou tout simplement notre connaissance de la réalité ? » G. Knee nous dit qu’il a créé un algorithme permettant de définir les expériences optimales qui fourniraient les évidences les plus fortes entre : l’état quantique est un état ontique (un état de la réalité) et pas un état épistémique (un état de connaissance). Ce sujet est un sujet de controverse depuis le début de la mécanique quantique et cette controverse fut avec force engagée par N. Bohr, étant en faveur de l’interprétation ontique (sic), versus Einstein, étant en faveur de l’interprétation épistémique. Selon Knee, l’évidence la plus contemporaine penche pour la thèse de la réalité de l’état quantique. Ceci conduit à l’acceptation de la réalité de la superposition des états quantiques. Si ces états sont ontiques, cela veut dire qu’une particule occupe réellement deux états à la fois, et non pas que cela nous apparaisse ainsi à cause de notre capacité limitée de préparer les particules selon le point de vue épistémique. Capacité limitée, cela veut dire qu’il y a un recouvrement entre la distribution des états quantiques contrairement au point de vue ontique. Recouvrement, cela se concrétise avec le fait que la particule existe dans l’état de la zone de recouvrement, et nous ne pouvons pas dire la différence entre les deux possibilités à cause du recouvrement. Ceci est donc le point de vue épistémique qui évacue quelques-unes des étrangetés de la superposition en expliquant que l’aspect non différentiable des deux états est un recouvrement (une limitation humaine (sic)) et non pas une situation réelle.

L’hypothèse de travail de Knee c’est qu’avec son algorithme il va être possible de réduire l’erreur qui induit l’interprétation du recouvrement et donc c’est la thèse de la réalité des deux états occupés réellement, et en même temps, par une particule qui se révélera être la bonne hypothèse.

Le 26/09/2015, j’ai proposé l’article : ‘Non, on ne pense pas quantique. Pas encore !’. Pas encore : signifie évidemment qu’il sera possible de penser quantique quand on aura dépassé les postulats pragmatiques, empiriques, de l’école de Copenhague. C’est-à-dire quand on aura décrypté la part de la phénoménologie qui est réellement en jeu à l’échelle quantique et qui n’a pas pu l’être jusqu’à présent. J’ai toujours considéré que les postulats de Copenhague étaient provisoires, bien que cela commence à sérieusement durer. On doit considérer que la tentative de Knee est une tentative intéressante bien que je n’adhère pas à son cheminement. En effet, avec cette tentative, Knee réalise des glissements sémantiques qui me semblent préjudiciables, en tous les cas des sources de confusion. Einstein a toujours affirmé que la mécanique quantique de Copenhague était incomplète parce que incapable de décrire la réalité du monde quantique (voire l’introduction à l’article EPR). Avec son hypothèse des variables cachées, il désignait que c’était le formalisme de celle-ci qu’il fallait modifier, enrichir. Donc on n’est pas plein cadre dans une problématique épistémique. L’école de Copenhague, tout au contraire, dit qu’il faut renoncer à vouloir considérer le monde quantique dans sa réalité (voir sur ce sujet article du 19/08/2015). La connaissance que nous en avons, grâce à l’observation et conséquemment la capacité de prédiction (statistique) que nous pouvons inférer, constituent un savoir complet. Nous sommes en rapport avec le monde quantique, tel qu’il nous apparaît, sans que nous puissions accéder, dévoiler, à tel qu’il est.

Malgré ces préventions signalées, la proposition de Knee est intéressante parce qu’il introduit dans le point de vue épistémique une explication complémentaire qui est qu’une limitation humaine serait en jeu. Selon moi, ce qui est en jeu c’est effectivement une détermination humaine et celle-ci pourra être dépassée lorsque l’on découvrira quelle est sa nature. A partir de sa découverte on pourra penser quantique parce que l’on pourra intellectuellement l’intégrer, et donc la dépasser, pour le moins la contourner, sans que nous puissions pour autant l’effacer. Dans l’article du 21/09/2016, j’ai réitéré l’expérience qui permettrait de déceler la détermination humaine en question, fondée sur l’idée que l’espace et le temps, l’espace-temps, sont une invention, une fondation de l’intelligence humaine qui s’est engagée il y a au moins 2 millions d’années. (En complément, voir l’article du 15/10/2016 ; celui du 21/07/2015 : ‘La seconde naissance de l’homme’)

Ensuite, les travaux récompensés de C. Bender : (voir article du 05/11/2016 : ‘Merci Carl Bender’), ont, à mon sens, confirmé qu’une extension du rôle attribué à notre conception déterminée de l’espace et du temps, de l’espace-temps, permet de rendre compte de l’état d’énergie discontinu en mécanique quantique et en corollaire la superposition d’états d’énergie.

 

Partager cet article

Repost0
1 mars 2017 3 01 /03 /mars /2017 16:50

Déroutant voire inacceptable

Sur un site Américain était publié le 8/02 un article assez court annonçant que l’interféromètre européen Virgo allait enfin pouvoir participer à la chasse aux ondes gravitationnelles conjointement avec ceux de Ligo. C’était une annonce positive car après de nombreux semestres d’indisponibilité pour causes d’améliorations techniques, sa mise en fonctionnement permettait d’accroître notamment la précision de la localisation dans l’espace de la fusion des trous noirs.

Sur le site de ‘Science’ le 16/02 un article annonce que ‘le détecteur européen des ondes gravitationnelles est défaillant’. Depuis cette date aucun site scientifique français ni aucune revue n’ont daigné donner la moindre information sur ce sujet alors que de nombreux scientifiques et ingénieurs nationaux sont impliqués sur le fonctionnement de cet instrument.

Il est impossible de connaître et comprendre les raisons de ce silence et de ce qui pourrait ressembler à une censure. Pourquoi ? Il n’est pas possible de rester passif devant cette situation qui pour le moins n’est pas scientifique.

Je propose dans ce qui suit de me référer à l’article de ‘Science’ du 16/02, d’en citer les éléments les plus informatifs et de joindre in-fine l’article original.

Je cite : « Le 20/02 les dignitaires devaient aller près de Pise où se trouve VIRGO pour marquer le redémarrage du détecteur après 5 années et 24 millions d’Euros d’améliorations. Mais pour augmenter la sensibilité du détecteur il fut décidé de remplacer les fils d’acier qui suspendaient les miroirs par des fils en fibre de verre pour réduire la sensibilité aux bruits de fond, thermique et mécanique. Déjà, l’année dernière après quelques jours ou quelques semaines les fils de verre se brisaient une fois que les miroirs de 40 kg étaient suspendus. Après des mois d’enquête l’équipe technique a découvert le coupable : des particules microscopiques provenant de débris des pompes du système du vide aussi upgradé. Lorsque ces débris se dépose sur la fibre du verre ils engendrent des microfissures qui se développent, de jour en jour, de semaine en semaine, jusqu’à la rupture.

Il est impossible que VIRGO puisse fonctionner de concert avec LIGO car celui-ci fonctionne depuis novembre 2016 et devrait être performant jusqu’en Mai 2017. Espérons que VIRGO aura réglé ses problèmes de fiabilité au moins au printemps de 2018 car LIGO sera prêt pour une nouvelle période de détection. Heureusement au tout début de 2019 un nouveau détecteur performant au Japon sera fonctionnel : KAGRA : Kamioka Gravitational Wave Detector.

European gravitational wave detector falters

By Daniel CleryFeb. 16, 2017 , 2:00 PM

On 20 February, dignitaries will descend on Virgo, Europe’s premier gravitational wave detector near Pisa, Italy, for a dedication ceremony to celebrate a 5-year, €24 million upgrade. But the pomp will belie nagging problems that are likely to keep Virgo from joining its U.S. counterpart, the Laser Interferometer Gravitational-Wave Observatory (LIGO), in a hunt for gravitational wave sources that was meant to start next month. What has hobbled the 3-kilometer-long observatory: glass threads just 0.4 millimeters thick, which have proved unexpectedly fragile. The delay, which could last a year, is “very frustrating for everyone,” says LIGO team member Bruce Allen, director of the Max Planck Institute for Gravitational Physics in Hannover, Germany.

A year ago, LIGO confirmed a prediction made by Albert Einstein a century earlier: that violent cosmic events, like the merger of two black holes, would wrench the fabric of spacetime and emit ripples. But LIGO, with two instruments in Livingston, Louisiana, and Hanford, Washington, cannot pinpoint the sources of the waves, which would let astronomers train other telescopes on them. Triangulating on the sources requires a third detector: Virgo.

The detectors all rely on optical devices called interferometers: two straight arms, several kilometers long, positioned at right angles. Inside each arm a laser beam bounces back and forth between mirrors at each end of a vacuum tube, resonating like sound in an organ pipe. The laser light is combined where the two arms meet so that the peak from one laser wave meets the trough of the other and they cancel each other out. But if something, such as a gravitational wave, stretches space and changes the length of the two arms by different amounts, the waves will no longer match up and the cancellation will be incomplete. Some light will pass through an exit known as the dark port and into a detector.Haut du formulaire

Bas du formulaire

The tiniest vibrations—earth tremors, the rumble of trains, even surf crashing on distant beaches—can swamp the signal of gravitational waves. So engineers must painstakingly isolate the detectors from noise. At Virgo, for example, the mirrors are suspended at the end of a chain of seven pendulums. For the upgrade, steel wires connecting the mirror to the weight above it were replaced with pure glass fibers to reduce thermal and mechanical noise.

But a year ago, the glass threads began shattering, sometimes days or weeks after the 40-kilogram mirrors were suspended from them. After months of investigation, the team found the culprit: microscopic particles of debris from the pumps of the upgraded vacuum system. When these particles settled on the glass fibers they created microcracks, which widened over days and weeks until the fibers failed. “The fibers are very robust until something touches their surface,” says Giovanni Losurdo, Advanced Virgo project leader at Italy’s National Institute for Nuclear Physics in Pisa.

During the investigation, the team temporarily replaced the glass fibers with steel wires—as in the original Virgo—and pressed ahead. But other problems compounded the delays. An examination of small steel triangles that act as vibration-damping springs revealed that 13 out of 350 were cracked or broken. Why remains a mystery, but the team replaced those that showed any sign of damage—40% of the total. Given the complexity of the detector, “it’s not surprising some things don’t work as expected,” says Virgo team member Benoit Mours of France’s National Institute of Nuclear and Particle Physics in Annecy.

The Virgo team has now achieved “lock” in the two detector arms, meaning that light is stably resonating. They soon hope to bring in the central optics and combine the beams. Then they must hunt down and eliminate remaining sources of noise to see what level of sensitivity they can achieve with the steel wires still in place.

For Virgo to make a useful contribution, it needs to be at least one-quarter as sensitive as LIGO. Researchers define sensitivity as the distance to which a detector could spot the merger of two neutron stars with masses 1.4 times the sun’s. LIGO’s Livingston detector can currently sense such an event out to about 80 megaparsecs (260 million light-years). In theory, with all of the upgrades but the mirrors still suspended with steel wires, Virgo should be able to reach 50 megaparsecs, Losurdo says. “As soon as Advanced Virgo reaches the sensitivity to join, we will start.”

Frustratingly for the Virgo team, the steel wires are expected to have the most impact on sensitivity to gravitational waves with lower frequencies than neutron star mergers, such as those from the mergers of black holes. And black hole mergers are precisely the events that LIGO detected last year.

The task of eliminating noise sources is sure to take several months, says Lisa Barsotti of the Massachusetts Institute of Technology in Cambridge, co-chair of the LIGO-Virgo Joint Run Planning Committee. That makes joining LIGO as planned in March a virtual impossibility. The current LIGO run, which began on 30 November 2016, was expected to continue for about 6 months, until late May 2017, but even that may be a stretch for Virgo. Barsotti says LIGO could extend its run by a month or two, “to give Virgo a chance to join.”

Whether Virgo manages to take part in the current run, the team should be able to reinstall the glass fibers and root out other sources of noise by the spring of 2018, when LIGO will start a new observing run. Soon after, a fourth detector is poised to join the hunt: the Kamioka Gravitational Wave Detector, or KAGRA, near Hida City in Japan, which plans to begin operations in 2019. KAGRA’s arms will be underground, below 200 meters of rock, and its mirrors chilled to 20 K—two tricks that should reduce noise and boost sensitivity.

 

Partager cet article

Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens