Overblog
Suivre ce blog Administration + Créer mon blog
27 avril 2019 6 27 /04 /avril /2019 13:01

Un réaliste s’empare de la mécanique quantique et la conteste.

Graham Farmelo analyse la déconstruction par Lee Smolin de la théorie physique la plus réussie jusqu’à présent. (article dans Nature 568, 166-167)

La Révolution Inachevée d’Einstein : La quête de ce qui se trouve au-delà du Quantum. C’est le titre du livre que vient de publier Lee Smolin, que je ne pourrai avoir entre les mains qu’au début Mai. L’article de G. Farmelo donne un avant-goût de ce qui est proposé à notre réflexion et je vous le communique avec quelques commentaires.

 

Article traduit par mes soins. (L’original est communiqué à la suite de celui-ci)

La mécanique quantique est peut-être la théorie, jamais formulée, la plus réussie. Pendant près de 90 ans, les expérimentateurs l’ont soumise à des tests rigoureux, dont aucun n’a remis en cause ses fondements. C’est l’un des triomphes de la science du XXe siècle. Le seul problème avec elle, soutient Lee Smolin dans ‘La Révolution Inachevée d’Einstein’, c’est que c’est faux (sic). Dans ce livre difficile, il tente d’examiner d’autres options pour une théorie du monde atomique.

Smolin est un physicien théorique à l’Institut Perimeter de Waterloo, au Canada, et un critique franc de la direction qu’a prise la physique théorique au cours des quatre dernières décennies. Une source d’idées provocantes, il les a présentées dans plusieurs livres populaires, y compris le ‘Trouble avec la Physique’ (2006) et ‘Renaissance du Temps’[1] (2013). Il est peut-être encore mieux connu pour son rejet de la théorie des cordes, un cadre largement utilisé pour la physique fondamentale, qu’il rejette car malvenue. Bien que l’opposition fougueuse de Smolin à certains développements courants dans le physique moderne irrite un bon nombre de ses pairs, j’ai un faible pour lui et toutes autres personnes qui n’ont pas peur de s’interroger sur la façon standard de faire les choses. Comme l’a observé le journaliste Malcolm Muggeridge : « Seuls les poissons morts nagent avec le courant. »

Le livre de Smolin est à bien des égards ambitieux. Il va de nouveau à la case départ, introduisant la mécanique quantique à un niveau assez basique pour que des étudiants en sciences la saisisse. Il souligne que le concept de champ a permis de donner une description véritablement révolutionnaire du monde atomique, quelque chose qui s’était avéré impossible avec les théories (rétrospectivement étiquetées « classiques ») précédentes. La structure mathématique de la mécanique quantique est arrivée avant que les physiciens aient pu l’interpréter, et Smolin donne un compte rendu clair des arguments ultérieurs sur la nature de la théorie, avant enfin de définir ses propres idées.

Pour moi, le livre démontre qu’il est préférable de considérer Smolin comme un philosophe de la nature, plus intéressé à réfléchir sur les significations fondamentales de l’espace, du temps, de la réalité, de l’existence ainsi que des sujets connexes. James Clerk Maxwell, premier pionnier du XIXe siècle de la théorie de l’électricité et du magnétisme, pourrait être décrit de la même façon — il aimait à débattre des questions philosophiques avec des collègues dans une série de disciplines. La façon de penser de Maxwell a eu un impact profond sur Albert Einstein, qui pourrait aussi être considéré pour partie comme philosophe de la nature, et pour partie physicien théorique. (Mon commentaire : à propos de cette séparation entre philosophe de la nature et physicien théorique, il ne faut pas l’exagérer car que penser d’un théoricien qui n’aurait aucune pensée propre sur l’ordre de la nature ? Dans ce cas, est-ce que Dirac aurait été le précurseur et le découvreur qu’il fut ?)

Comme Einstein, Smolin est un « réaliste » sur le plan philosophique, quelqu’un qui pense que le monde réel existe indépendamment de nos esprits et en conséquence peut être décrit par des lois déterministes. Celles-ci nous permettent, en principe, de prédire l’avenir de toute particule si nous avons suffisamment d’informations à ce sujet. Cette vision du monde est incompatible avec l’interprétation conventionnelle de la mécanique quantique, dans laquelle les principales caractéristiques sont l’imprévisibilité et un rôle incontournable des observateurs dans le résultat des expériences. Ainsi, Einstein n’a jamais accepté que la mécanique quantique était significative mais considérait qu’elle annonçait un espace réservé impressionnant pour une théorie plus fondamentale conforme à son credo réaliste. Smolin est d’accord.

(Mon commentaire : ainsi dans ce paragraphe il est simplement exprimé le clivage essentiel, insoluble jusqu’à présent, entre la physique classique incluant la Relativité Générale et la Physique Quantique. Il faut à mes yeux préciser que le paradigme énoncé par Einstein « Le monde réel existe indépendamment de nos esprits » est un point de vue philosophique qui conduit directement au corollaire mathématique de l’invariance qui a une efficacité heuristique remarquable. La problématique de l’invariance de grandeurs physiques a surgi en 1905 comme aboutissement des lois de la relativité restreinte et cela n’a pas échappé à Einstein qui a ensuite travaillé à sa généralisation pendant 10 ans avec ténacité parce qu’il en avait préalablement la conviction philosophique. Pour ce qui est de la physique quantique, le processus de son émergence est différent car la problématique quantique s’est imposée à l’insu des physiciens. Elle ne résulte pas a priori d’une conviction sur ce qu’est la nature et du rapport de l’être humain doté de son intelligence avec celle-ci. Il suffit de lire la biographie de Planck sur ce sujet. Parce que la pensée humaine n’est pas à la source de la physique quantique on ne peut pas encore ‘penser quantique’ voir article : ‘Non on ne peut pas penser quantique, pas encore’ 26/09/2015 et ‘Fondamentalement renoncer’ le 19/08/2015 )

Smolin mène sa recherche par d’autres voies afin d’établir la mécanique quantique dans une langue intelligible pour un public non initié, avec à peine une équation en vue. Smolin est un pédagogue lucide, capable de rafraîchir le discours quantique théorique qui a été présenté des milliers de fois. Les non-experts pourraient, cependant, lutter lorsqu’il plonge dans certaines des interprétations modernes de la mécanique quantique, seulement pour les rejeter. Parmi celles-ci, par exemple, l’approche du super déterminisme du théoricien Gerard’t Hooft.

Le livre est cependant entrainant et, enfin, optimiste. S’inspirant sans s’excuser de la tradition historique et même de la philosophie moderne, Smolin propose un nouvel ensemble de principes qui s’applique à la fois à la mécanique quantique et à l’espace-temps. Il explore ensuite comment ces principes pourraient être réalisés dans le cadre d’une théorie fondamentale de la nature, bien qu’il s’arrête de fournir des détails sur la mise en œuvre (ce qui affaiblit sérieusement la teneur de son livre comme son livre précédent spécifique sur le temps). (J’espère pouvoir commenter ce nouvel ensemble de principes quand j’aurai le livre entre les mains)

Smolin conclut avec les implications de tout cela conduisant selon sa version à notre compréhension de l’espace et du temps. Il suggère que le temps est irréversible et fondamental, en ce sens que les processus par lesquels les événements futurs sont produits à partir de ceux présents sont vraiment fondamentaux : ils n’ont pas besoin d’être expliqués en termes d’idées plus basiques (sic). L’espace, cependant, est différent. Il affirme qu’il émerge de quelque chose de plus profond. (Idem quand j’aurai lu le livre !)

Pourtant, il est loin d’être clair si les nouvelles méthodes de Smolin permettent que l’espace et le temps soient étudiés efficacement (sic). Au cours des dernières décennies, il y a eu de nombreuses avancées passionnantes dans ce domaine, presque toutes réalisées en utilisant la mécanique quantique standard et la théorie de la relativité d’Einstein. À mon avis, Smolin minimise le succès extraordinaire de cette approche conservatrice. C’est la base de la théorie quantique des champs (descendant de la théorie de Maxwell de l’électricité et du magnétisme), qui rend compte des résultats de toutes les expériences subatomiques, certains d’entre eux avec de nombreuses décimales. Malgré l’impression que Smolin donne, la physique théorique moderne est florissante, avec des idées potentiellement révolutionnaires sur l’espace et le temps émergeant d’une combinaison de la mécanique quantique standard et de la théorie de la relativité enseignée dans les universités pour les générations. Peut-être que les bouleversements de la physique auxquels Smolin aspire sont tout simplement inutiles.

Gratifiant, je doute que la ‘Révolution Inachevée d’Einstein’ convertira beaucoup des critiques de Smolin. Pour ce faire, il devra présenter ses idées plus rigoureusement que ce qu’il peut raisonnablement faire dans un livre populaire.

Une chose sur laquelle chaque physicien dans le domaine de Smolin peut convenir, c’est qu’il y a un besoin criant pour des indices plus juteux sur la nature. Il n’y a pas eu de surprises concernant le fonctionnement interne des atomes depuis une vingtaine d’années. Ce sont des résultats expérimentaux qui décideront si Smolin est correct, ou s’il proteste trop. Après tout, bien que la mécanique quantique pourrait ne pas satisfaire l’esprit philosophique, il s’est avéré être un outil totalement fiable pour les physiciens, même ceux qui n’ont aucun intérêt à débattre sur son interprétation.

Article original :

A realist takes on quantum mechanics

Graham Farmelo parses Lee Smolin’s takedown of the most successful physics theory ever.

Einstein’s Unfinished Revolution: The Search for What Lies Beyond the Quantum Lee Smolin Penguin Press (2019)

Quantum mechanics is perhaps the most successful theory ever formulated. For almost 90 years, experimenters have subjected it to rigorous tests, none of which has called its foundations into question. It is one of the triumphs of twentieth-century science. The only problem with it, argues Lee Smolin in Einstein’s Unfinished Revolution, is that it is wrong. In this challenging book, he attempts to examine other options for a theory of the atomic world.

Smolin is a theoretical physicist at the Perimeter Institute in Waterloo, Canada, and an outspoken critic of the direction his subject has taken over the past four decades. A fount of provocative ideas, he has showcased them in several popular books, including The Trouble with Physics (2006) and Time Reborn (2013). He is perhaps best known for his rejection of string theory, a widely used framework for fundamental physics that he dismisses as misguided. Although Smolin’s spirited opposition to some mainstream developments in modern physics irritates quite a few of his peers, I have a soft spot for him and anyone else who is unafraid to question the standard way of doing things. As the journalist Malcolm Muggeridge observed: “Only dead fish swim with the stream.”

Smolin’s book is in many ways ambitious. It goes right back to square one, introducing quantum mechanics at a level basic enough for high-school science students to grasp. He points out that the field gave a truly revolutionary account of the atomic world, something that had proved impossible with the theories (retrospectively labelled ‘classical’) that preceded it. The mathematical structure of quantum mechanics arrived before physicists were able to interpret it, and Smolin gives a clear account of subsequent arguments about the nature of the theory, before finally setting out his own ideas.

For me, the book demonstrates that it is best to regard Smolin as a natural philosopher, most interested in reflecting on the fundamental meanings of space, time, reality, existence and related topics. James Clerk Maxwell, leading nineteenth-century pioneer of the theory of electricity and magnetism, might be described in the same way — he loved to debate philosophical matters with colleagues in a range of disciplines. Maxwell’s way of thinking had a profound impact on Albert Einstein, who might also be considered part natural philosopher, part theoretical physicist.

Like Einstein, Smolin is a philosophical ‘realist’ — someone who thinks that the real world exists independently of our minds and can be described by deterministic laws. These enable us, in principle, to predict the future of any particle if we have enough information about it. This view of the world is incompatible with the conventional interpretation of quantum mechanics, in which key features are unpredictability and the role of observers in the outcome of experiments. Thus, Einstein never accepted that quantum mechanics was anything but an impressive placeholder for a more fundamental theory conforming to his realist credo. Smolin agrees.

He conducts his search for other ways of setting out quantum mechanics in language intelligible to a lay audience, with scarcely an equation in sight. Smolin is a lucid expositor, capable of freshening up material that has been presented thousands of times. Non-experts might, however, struggle as he delves into some of the modern interpretations of quantum mechanics, only to dismiss them. These include, for instance, the superdeterminism approach of the theoretician Gerard ’t Hooft.

The book is, however, upbeat and, finally, optimistic. Unapologetically drawing on historical tradition and even modern philosophy, Smolin proposes a new set of principles that applies to both quantum mechanics and space-time. He then explores how these principles might be realized as part of a fundamental theory of nature, although he stops short of supplying details of the implementation.

Smolin concludes with the implications of all this for our understanding of space and time. He suggests that time is irreversible and fundamental, in the sense that the processes by which future events are produced from present ones are truly basic: they do not need to be explained in terms of more basic ideas. Space, however, is different. He argues that it emerges from something deeper.

Yet it is far from clear whether Smolin’s new methods allow space and time to be investigated effectively. In recent decades, there have been many exciting advances in this subject, almost all made using standard quantum mechanics and Einstein’s theory of relativity. In my opinion, Smolin downplays the extraordinary success of this conservative approach. It is the basis of modern quantum field theory (a descendant of Maxwell’s theory of electricity and magnetism), which accounts for the results of all subatomic experiments, some of them to umpteen decimal places. Despite the impression that Smolin gives, modern theoretical physics is thriving, with potentially revolutionary ideas about space and time emerging from a combination of the standard quantum mechanics and relativity theory taught in universities for generations. Maybe the upheaval in physics that Smolin yearns for is simply unnecessary.

Rewarding as it is, I doubt Einstein’s Unfinished Revolution will convert many of Smolin’s critics. To do that, he will need to present his ideas more rigorously than he could reasonably do in a popular book.

One thing on which every physicist in Smolin’s field can agree is that there is a crying need for more juicy clues from nature. There have been no surprises concerning the inner workings of atoms for some 20 years. It is experimental results that will decide whether Smolin is correct, or whether he protests too much. After all, although quantum mechanics might not satisfy the philosophically minded, it has proved to be a completely dependable tool for physicists — even those who have no interest in debates about its interpretation.

Nature 568, 166-167 (2019)

doi: 10.1038/d41586-019-01101-0

 

[1] Qui fut le sujet de l’article dans le blog : ‘Bienvenu au moment présent de Lee Smolin’, 02/05/2013. Article dans lequel je reprochais à Smolin de mener des analyses très pertinentes mais incapable de franchir le Rubicon. Ce qui semble encore le cas d’après G. Farmelo. C’est peut-être la raison pour laquelle Farmelo le qualifie de philosophe de la nature uniquement car il ne transcrit pas dans une forme mathématique ou numérique le fruit essentiel de son analyse ce qui est paradoxal pour un théoricien.

Partager cet article

Repost0
6 avril 2019 6 06 /04 /avril /2019 12:48

Notre cerveau détecterait de façon inconsciente le champ magnétique terrestre.

Avec le titre de cet article très récent, survient deux interrogations. Est-ce que le résultat de la recherche dont l’article rend compte met en évidence un argument supplémentaire et convaincant que chez l’être humain, il y a de l’être de la nature ? Est-ce qu’il est ainsi identifié une détermination chez l’être humain qui obligatoirement oriente sa capacité d’inférer et qui interdit de considérer qu’il dispose d’une liberté intellectuelle complète pour traiter de certains sujets notamment physiques.

La réception de façon inconsciente du champ magnétique terrestre par notre cerveau ne peut pas être intégrée dans une cogitation consciente, en conséquence elle conditionnerait le travail réflexif du sujet pensant sans qu’il soit possible d’en connaître les effets et les conséquences, ce qui fragiliserait la croyance que l’être humain peut atteindre un niveau de réflexion qui soit garanti du bénéfice d’un réel et pur libre arbitre. 

Le compte rendu de cet article (voir en fin de mon propre article) que l’on peut lire sur le site de ‘Futura-Science’ du 23/03/2019 précise d’emblée : « Beaucoup d'animaux, comme les oiseaux migrateurs, perçoivent le champ magnétique terrestre. Des chercheurs californiens ont réalisé des expériences mettant en évidence la magnétoréception chez l'Homme : notre cerveau détecterait de façon inconsciente le champ magnétique terrestre. » Il est ainsi affirmé que l’être humain comme beaucoup d’animaux est relié à des causes naturelles à son corps défendant. La liberté absolue de l’être humain à l’égard de causes naturelles ne peut pas être présentement affirmée. C’est pour cette raison que je considère qu’il est impératif de prendre en compte cette dimension de l’influence déterminante de la nature sur l’être humain dans tout processus qui a pour finalité d’accéder à une connaissance objective du monde physique extérieure. Bref cette connaissance objective pure ne peut être atteinte car la nature agit sur notre être à notre insu. Il y a donc une composante ‘être de la nature’ qui habite, agit en nous. L’autre composante qui habite en nous, je la désigne : ‘être dans la nature’, elle est une composante qui, depuis l’hominisation, réduit notre dépendance à l’égard de la nature. C’est une émancipation qui est étroitement corrélée à la compréhension, à la découverte, de ce qui est de l’ordre de propriétés de la nature c’est-à-dire ce qui est en dehors du soi humain devenant ainsi de plus en plus autonome.

Ainsi, avec cet article, je rencontre un exemple concret qui illustre mon hypothèse : grâce au développement de l’activité de ‘l’être dans la nature’ nous découvrons que l’être humain possède un sens géomagnétique. C’est une première étape ! La deuxième sera franchie lorsqu’il sera possible d’intégrer la réceptivité géomagnétique de notre cerveau au niveau de notre conscience et conséquemment atteindra le statut d’un nouveau savoir acquis. Ce nouveau savoir réduira l’influence de ‘l’être de la nature’, ce qui contribuera au développement de la liberté existentielle de l’être humain au sein de la nature et partant accroîtra le rayonnement de ‘l’être dans la nature’ qui conduira à lever le voile sur d’autres déterminations naturelles encore inconscientes. C’est bien le processus de la conquête des connaissances qui est en jeu, processus qui constitue, à mes yeux, le moteur essentiel de notre évolution depuis les premiers temps de l’hominisation.

Selon moi, c’est une dynamique sans fin qui est à l’œuvre, elle est la ressource essentielle qui a fait que l’homme ancestral a pu émerger au sein de la lignée des primates. Sans fin, cela implique que la composante ‘être de la nature’ qui nous habite ne peut être réduite à rien car ce serait la fin de l’homme, c’est donc une composante vitale qui nous habite aussi. Cela indique aussi à quel point la connaissance des lois physiques fondamentales de la nature est si essentielle. La physique serait la mère de toutes les sciences comme René Descartes en son temps l’affirmait.

Les chercheurs (de l’institut de technologie Caltech (Californie)) qui ont réalisé l’expérience sur 34 participants, ont conçu une cage de Faraday dans laquelle il pouvait appliquer un champ magnétique d’une intensité 100 fois plus faible que celle d’un aimant collé sur la porte d’un réfrigérateur (sic). Soit 35 micro Tesla, sachant que le champ magnétique terrestre, en France, est de l’ordre de 45 micro Tesla. Ici nous pouvons constater que la progression vers des connaissances fondamentales nouvelles est étroitement corrélée à la maitrise progressive de technologies de plus en plus sophistiquées, nourrie par des connaissances préalables, permettant de construire des instruments d’une sensibilité remarquable. C’est donc vers cet extrêmement sensible qu’il y a à connaitre la relation intime effective entre la nature et l’être humain. (D’une façon générale j’ai déjà proposé de nombreux articles sur ce sujet, peut-être trop ? Je renvois à deux : celui du 18/03/2015 : ‘Décrypter la physique comme science de l’interface de l’être humain et de la Nature !’ ainsi que celui du 02/11/2012 : ‘Synthèse :  un Monde en ‘Présence’ etc…)

Notre dépendance observée à l’égard du champ magnétique terrestre, jusqu’à présent ignorée parce qu’inconsciente, ne pourra pas être naturellement annulée, mais sera appelée à devenir une connaissance dont on comprendra son action objective, dont on comprendra et évaluera le biais qu’elle introduit dans notre cheminement consistant à développer une pensée qui soit la plus objective possible, émancipée de l’inconnu de l’effet du champ magnétique terrestre sur notre cerveau.

Au début de l’année un article publié par 3 physiciens américains intitulé ‘La Tache Aveugle’ semblait indiquer qu’ils rejoignaient une position semblable à celle que je développe depuis si longtemps[1] (voir, articles de janvier et particulièrement celui du 22/01). J’ai souhaité, en leur proposant un échange sur ce sujet, mesurer jusqu’où il y avait convergence de nos points de vue mais cela est resté sans suite. Malheureusement, je n’en suis pas étonné car cela s’est déjà produit avec quelques autres physiciens qui dans la chute de leur article écrivent quelque chose de semblable, et hors des clous de la croyance majoritaire de la communauté scientifique, mais au bout du compte cela n’est qu’un effet de chute.

C’est un sujet encore trop iconoclaste pour qu’il soit abordé dans le cadre d’une interrogation collective par le milieu scientifique, on peut comprendre cette situation de la part des physiciens sans pour autant l’accepter car une des motivations qui guide cette communauté savante c’est la croyance que le savoir des physiciens est détaché de la moindre empreinte du monde subjectif. Pour eux, ce serait déjà un savoir ordonné, dans un univers ordonné et établi, il n’y aurait qu’à le mettre en évidence, à le débusquer : cela s’appelle ‘Réalisme’. Ceci est très ‘Platonicien’, beaucoup de mathématiciens et physiciens théoriques explicitent majoritairement ce point de vue.

Bref, la conséquence c’est un constat qui est de plus en plus partagé : ‘La physique est en crise’, depuis plusieurs décennies, voir article du 04/02. Il est toujours recherché au sein des mathématiques une issue à cette crise. Il est oublié que ce sont des nouveaux paradigmes qui sont à l’origine de bifurcations qui permettent de sortir des impasses. Ces nouveaux paradigmes[2] résultent toujours de sursauts de l’intelligence humaine qui propose une nouvelle façon, un nouveau référentiel, pour prospecter des propriétés encore inconnues de la nature. Dans ce cadre les mathématiques fournissent des outils efficaces pour accompagner ces sursauts fertiles.

Lire la bio

Marie-Céline Ray, article de Futura Science :

Journaliste

 

Publié le 23/03/2019

 

Beaucoup d'animaux, comme les oiseaux migrateurs, perçoivent le champ magnétique terrestre. Des chercheurs californiens ont réalisé des expériences mettant en évidence la magnétoréception chez l'Homme : notre cerveau détecterait de façon inconsciente le champ magnétique terrestre.

Nos livres de sciences naturelles nous ont appris très tôt que le corps humain était doté de cinq sens : la vue, l'audition, le toucher, le goût et l'odorat. Depuis fort longtemps, la question de l'existence d'un sixième sens humain, permettant de percevoir le champ magnétique, fait débat.

Jusqu'ici, les expériences réalisées n'avaient pas convaincu la communauté scientifique. Sur le site The Conversation, les auteurs de cette nouvelle recherche expliquent que ces échecs étaient dus « au fait que pratiquement toutes les études antérieures reposaient sur des décisions comportementales des participants. Si les êtres humains possèdent un sens magnétique, l'expérience quotidienne suggère qu'il serait très faible ou profondément subconscient. » C'est pourquoi les chercheurs de l'institut de technologie Caltech (Californie) ont voulu capter des réactions inconscientes du cerveau.

Le saviez-vous ?

Le champ magnétique terrestre, dont l’intensité et la direction varient à la surface du globe, est lié aux mouvements des fluides du noyau terrestre. Ce champ magnétique est assez faible à la surface de la Terre : son intensité est 100 fois plus faible que celle d’un aimant collé sur la porte du réfrigérateur !

Bien que de faible intensité, ce champ magnétique est perçu par différents animaux qui s'en servent pour se repérer. De nombreux vertébrés répondent à des stimuli magnétiques : poissons, amphibiens, reptiles, oiseaux et, chez les mammifères, des baleines, rongeurs, chauves-souris, vaches, chiens... Dans le monde microbien aussi, des bactéries possèdent des cristaux de magnétite qui sont des sortes de boussoles permettant d'orienter la nage de la cellule en fonction des lignes du champ magnétique. La magnétite est présente chez de nombreux animaux, y compris dans le cerveau humain. D'où la question que tout le monde se pose : l'Homme a-t-il un sens magnétique ?

Pour répondre à cette interrogation fondamentale, les chercheurs ont créé une cage de Faraday dans laquelle ils pouvaient appliquer un champ magnétique grâce à de grandes bobines. Le champ magnétique créé, d'une intensité de 35 µT (microTesla), pouvait être dirigé dans différentes directions. Par comparaison, en France, le champ magnétique terrestre est de l'ordre de 45 µT.

L’être humain possède un sens géomagnétique

Pour connaître l'activité électrique du cerveau des 34 participants, les chercheurs ont effectué des électroencéphalogrammes. Lors de l'expérience, chaque participant devait rester assis sur une chaise dans cette chambre isolée des radiofréquences extérieures, pendant 7 minutes, en fermant les yeux, tandis que les chercheurs modifiaient le champ magnétique. Le champ pouvait tourner dans le sens horaire ou anti-horaire, comme si vous bougiez la tête à gauche ou à droite, et il était orienté vers le bas, avec une inclinaison de 60° par rapport à l'horizontale, comme le champ magnétique terrestre aux latitudes de Pasadena, en Californie.

Les participants n'ont rien senti de particulier quand le champ magnétique a été manipulé, mais leur cerveau semblait réagir. Les chercheurs ont observé chez certaines personnes que, lorsque le champ magnétique, dirigé vers le bas, tournait en sens inverse des aiguilles d'une montre, l'amplitude des ondes alpha diminuait beaucoup. Les ondes alpha, d'une fréquence de 10 Hz, dominent un électro-encéphalogramme lorsque nous sommes éveillés, mais les yeux fermés, c'est-à-dire dans un état détendu. Lorsqu'un stimulus apparaît subitement, le rythme des ondes alpha est désynchronisé, et elles baissent en amplitude. Ce phénomène, appelé « désynchronisation liée à un événement alpha », ou alpha-ERD en anglais, peut avoir lieu par exemple quand le cerveau perçoit un flash lumineux. L'alpha-ERD signifie que le cerveau a capté le stimulus et traite l'information.

Nous avons un système sensoriel qui traite le champ géomagnétique tout autour de nous

Ces expériences suggèrent donc que le cerveau humain détecte le champ magnétique terrestre. D'après le communiqué de l’institut Caltech« nous avons un système sensoriel qui traite le champ géomagnétique tout autour de nous. » Une nouvelle question se pose alors : à quoi servirait ce sens géomagnétique chez l'Homme ? Peut-être nos ancêtres chasseurs-cueilleurs l'utilisaient-ils pour s'orienter et survivre.

Dans l'expérience, il y avait des différences entre les participants : certains ne réagissaient presque pas, alors que d'autres avaient une chute de moitié des ondes alpha après le changement magnétique. Les êtres humains auraient donc une sensibilité géomagnétique variable d'une personne à une autre.

Ce qu'il faut retenir

  • L’existence d’un sens magnétique chez l’Homme est controversée.
  • De nombreux animaux sont sensibles au champ magnétique terrestre.
  • Des chercheurs californiens ont étudié les ondes cérébrales de personnes placées dans une chambre dans laquelle ils faisaient varier un champ magnétique.
  • Le cerveau répondait à des changements du champ magnétique.

 

 

[1] « Il faut aussi embrasser l'espoir que nous pouvons créer une nouvelle culture scientifique, dans laquelle nous nous considérons nous-mêmes à la fois comme une expression de la nature et comme une source de l'auto-compréhension de la nature. Nous n'avons besoin de rien de moins qu'une science nourrie par cette sensibilité pour que l'humanité s'épanouisse dans le nouveau millénaire(sic). »

[2] Nouveaux paradigmes ou nouveaux principes posés a priori : pensons au principe d’équivalence posé par A. Einstein ainsi que le principe de l’invariance des lois physiques fondamentales par rapport aux conditions de leurs observations ; pensons au postulat posé par N. Bohr quant à la reconnaissance qu’à l’échelle quantique, les grandeurs physiques fondamentales ont des valeurs discrètes : ce qui fonde l’Ecole de Copenhague.

Partager cet article

Repost0
4 février 2019 1 04 /02 /février /2019 09:39

Crise au cœur de la physique : « Nous mourrons avant de trouver la réponse. »

De nouvelles théories ambitieuses imaginées pour expliquer la réalité nous ont conduits nulle part. Rencontre du noyau dur des physiciens essayant de penser une sortie de ce trou noir.

Ceci est le titre et le sous-titre d’un article du NewScientist du 16 janvier, que j’ai traduit, qui relate, à mon point de vue, le début d’une prise de conscience nécessaire donc utile. Cette situation de crise devra être analysée avec profondeur ce qui ne me semble pas le cas encore au ‘Perimeter Institute’. On peut le constater quand N. Turok ne peut s’empêcher d’affirmer qu’il a eu, il y a quelques mois, une idée géniale (banale) en exploitant des concepts qui sont conformes à ceux qui sont en cause dans cette crise.

« Vous avez peut-être entendu dire que la physique est en crise. On nous a dit qu’elle révélerait les secrets de l'origine de l'univers ainsi que la nature fondamentale de la réalité. Stephen Hawking nous a même dit qu'elle pourrait "nous montrer l'esprit de Dieu ". Mais les grandes découvertes se sont asséchées. Oui, nous avons trouvé le boson de Higgs et détecté des ondes gravitationnelles, mais cela a été prédit il y a des décennies. Aucune des idées vraiment ambitieuses des 30 dernières années n'a été bonne.

Alors, que se passe-t-il ? Pour le savoir, je suis allé à ‘l'Institut Perimeter de Waterloo’, au Canada, une installation dédiée à forger — comme son énoncé de mission l'annonce — "de nouvelles idées fortes, émergentes, sur la nature ultime de notre univers ". Cet institut abrite peut-être la plus grande concentration de physiciens théoriques dans le monde, et ceux-ci jouissent de plus de liberté que la plupart des physiciens pour émettre des idées audacieuses. Si quelqu'un peut faire la lumière sur la crise — et peut-être indiquer un moyen de s'en sortir — il se pourrait que ce soit quelqu’un d’ici.

Neil Turok, directeur de l'Institut, ne nie pas qu'il y ait une crise. Quand je suis conduit à son bureau pour une conversation supposée de 15 minutes, il me dédie une heure, en commençant par une évaluation inébranlable de son champ.  "Quand je suis arrivé dans la physique au début des années 80, elle a cessé d'être une réussite " dit-il. Aïe.

Beaucoup de ses collègues ne l’affirment pas si fortement. Certains préfèrent éviter le terme crise. Mais ils ne sont pas ignorants de cette perception que la physique théorique, du moins avec ses projets les plus ambitieux, est au plus bas.

"Nous croyons fermement qu'il y a des réponses nettes à nos questions », explique Luis Lehner, qui passe ses jours à essayer de comprendre comment la gravité pourrait s'écarter de la théorie de la relativité générale d'Einstein lorsqu'elle est poussée à l'extrême. Mais ce qu'il dit ensuite place le challenge actuel dans son contexte : "L'une des choses qui nous distingue, c'est que nous sommes heureux de mourir sans avoir nous-mêmes les réponses. "

Les théoriciens ont connu de meilleurs moments. En effet, pendant une grande partie du XXe siècle, ils étaient portés par une vague positive. Ça a commencé avec Einstein. Sa théorie de la relativité générale, qui décrit la gravité comme la résultante de l'espace-temps déformé, et qui a été prouvé au bon moment et encore. Puis il y a eu le développement de la mécanique quantique dans les années 1920. Une collection d'idées franchement dingues décrivant le monde subatomique, qui a néanmoins passé tous les tests expérimentaux jusqu’à ce jour.

Debout sur ces épaules-là, les théoriciens qui ont suivi ont donc conçu les deux modèles standards : l'un pour expliquer les particules et les forces, l’autre pour donner du sens aux origines et à l'évolution du Cosmos dans son ensemble. Le modèle standard des particules physiques est particulièrement impressionnant par le fait qu’il décrit le comportement de toute la matière connue grâce à un ensemble net d'équations qui pourraient tenir sur un T-shirt. Sa réussite finale est parvenue sous la forme du Boson de Higgs : une particule attribuant de la masse, conçue sur une intuition mathématique dans les années 1960 et d'abord observée au grand collisionneur de hadrons (LHC) au CERN, en 2012. Telle est la puissance de la physique théorique. Mais les modèles standards n'ont pas toutes les réponses, et aucune des idées proposées pour continuer de construire sur les précédentes ne se sont avérées être justes. Bien sûr, tous les théoriciens n’étudient pas que les particules et la cosmologie. Ils travaillent sur toutes sortes de choses, des lasers aux phases bizarres de la matière qui pourraient donner lieu à des matériaux exotiques. Mais quand il s'agit de ce que la plupart d'entre nous qui étudions les questions essentielles, à savoir, les origines de l'univers, les lois fondamentales de la nature — il est juste de dire que la vague a sérieusement ralenti.

 "Le progrès devient plus difficile, " dit Lehner.

 "Pousser vers de nouvelles frontières est plus délicat qu'auparavant, et cela coûte bien plus. Il a fallu des décennies pour construire une expérience capable de détecter les ondes gravitationnelles. Avec le Higgs ça a été pareil. C'est juste dans la nature des choses.  « En effet il est difficile de reconnaître les bonnes théories jusqu'à ce que nous les testions, et les tests sont de plus en plus délicats parce que cela signifie briser les particules ensemble à des énergies toujours plus élevées, et observer le Cosmos avec une définition toujours plus élevée. Donc on doit juste être patients. »

La fois suivante que je passe devant le bureau de Lehner, il a la tête fermement plantée sur son bureau. OK, donc la physique est dure. Et à certains égards, les théoriciens ont été victimes de leur propre succès, parce que les modèles qu'ils ont construits ont si bien travaillé qu'il est difficile de penser en dehors de la boîte pour penser une prochaine percée. Là encore, nous aurions pu sûrement espérer à ce que quelques idées récentes soient payantes, compte tenu des expériences énormes et coûteuses que nous avons construites pour les tester.

Le LHC ne visait pas seulement à trouver le Higgs. Il était également censé révéler une pléthore de particules prédites par la supersymétrie, une théorie mathématiquement élégante conçue pour expliquer pourquoi le Higgs est tellement plus léger que ce qu'il devrait être selon le modèle standard, et pourquoi la gravité est si faible par rapport aux autres forces fondamentales. Le LHC n'a rien trouvé de ce genre, et l'absence de preuves pour cette théorie précieuse a suscité un certain vague à l'âme. Même ceux qui en ont forgé l'idée sont maintenant prêt à remettre en question l'hypothèse sous-jacente de la « naturalité », à savoir que les lois de la nature doivent être plausibles et cohérentes, plutôt que de descendre au hasard.

 "Nous avons appris quelque chose : nous avons découvert ce qui n'est pas le cas, " dit Savas Dimopoulos : théoricien à l'Université de Stanford en Californie, et l'un des fondateurs de la supersymétrie. Comment apprécier quelles théories nous devrions poursuivre ?  "Peut-être que nous devons repenser nos critères, " dit-il.

Les plus grandes idées en cosmologie ont subi un destin similaire. Prenez l'idée que dans le fragment de seconde après le Big Bang, l'univers a subi une inflation prodigieuse. Cela expliquerait beaucoup : par exemple pourquoi l'univers apparaît le même dans toutes les directions. Encore une fois, cependant, nous n'avons aucune preuve réelle pour cela (sic).

La perspective devient encore plus sombre quand on considère les tentatives de couturer ensemble la relativité générale et la mécanique quantique. Pour les critiques les plus bruyants, c'est là que le croque-mitaine ultime se cache : la théorie des cordes avec l'idée que les particules ne sont que les morceaux visibles d'objets appelés cordes, qui existent en plusieurs dimensions supplémentaires. Ce n'est pas la seule théorie de la gravité quantique, mais c'est de loin la plus populaire en termes de nombre de théoriciens qui y travaillent. Cependant, cette théorie en est encore à produire une simple prédiction testable.

Pour le cosmologue Niayesh Afshordi, le fil qui relie ces broderies bâclées est la tendance des théoriciens à se consacrer à tout ce qui se trouve être l'idée la plus branchée (sic).  "C'est un phénomène de groupe " dit-il. Il pense que cela a beaucoup à voir avec l'influence surdimensionnée des citations.

 "Le combat maintenant n'est pas de trouver une théorie fondamentale. Il est de se faire remarquer, et la meilleure façon de le faire est de monter à bord d'un train "dit-il.  "Vous obtenez cette boucle de rétroaction : les gens qui passent plus de temps dans les wagons du train à la mode obtiennent plus de citations, puis plus de financements, et le cycle se répète. " En ce qui concerne ce type de critiques, la théorie des cordes est en effet la plus représentative.

Présentement, si triste. Pourtant avec chaque personne, avec laquelle je parle, elle insiste pour dire qu’il y a des raisons d'être gai(e). Bien qu'il semble de plus en plus improbable que le LHC puisse encore trouver des preuves de quelque chose comme la supersymétrie, et que nos derniers télescopes puissent encore découvrir l'empreinte de l'inflation dans le rayonnement relique. Même si aucune ne perce, une nouvelle génération de théoriciens est déjà passée à ce qui, avec la chance, se révélera être des pâturages plus verdoyants.

Asimina Arvanitaki, la première femme à détenir une Chaire de recherche à l'Institut Perimeter, se fait un nom par elle-même en trouvant de nouvelles façons intelligentes de tester les théories négligées. Passer une heure en sa compagnie est suffisant pour me convaincre que l'avenir de la physique est brillant.  "Il y a des gens qui pensent que, en utilisant juste la puissance de nos esprits, nous pouvons comprendre ce que la matière noire est, ce que la gravité quantique est," dit Arvanitaki.  "Ce n'est pas vrai. La seule façon d'avancer est d'avoir : expérience et théorie qui évoluent à l’unisson. »

Quant à Turok, il est optimiste. "Nous entrons dans une crise qui doit être fructueuse, où les fondations sont en péril, et c'est tout simplement passionnant. " dit-il.  "Je suis occupé à essayer de convaincre mes collègues ici de ne pas tenir compte des 30 dernières années. Nous devons retracer nos pas et déterminer où nous nous sommes trompés. "

Alors que tout le monde avec qui je parle à l'Institut me dit que ce genre de choses est terriblement compliqué et le devient de plus en plus avec le temps, N. Turok pense que c'est tout à fait simple. "Je suis venu à l'idée que les lois connues de la physique seront effectivement suffisantes pour expliquer tout." dit-il, avant de se rétracter avec une explication exaltante du pourquoi il n'y a pas une telle chose comme le Big Bang, ce qui aboutit à réinterpréter l'univers comme une paire univers/anti-univers, analogue à la matière et à l'antimatière (sic). Cela, dit-il, nous donne une solution pour la matière noire[1], "c’est si banal que les gens sont presque choqués que nous ayons manqué cette idée.".

Même si l’idée de N. Turok est erronée, au moins son approche indique que la pensée scientifique doit essentiellement se renouveler. Et après avoir passé quelques jours en compagnie de théoriciens chargés d'expliquer l'univers tout entier, de les voir déambuler dans les couloirs et de se cogner la tête sur leurs bureaux, je suis venu voir que nous devrions probablement leur lâcher du lest.

 « Cet endroit consiste à encourager les gens d’avoir des pensées ambitieuses et originales, dont 99% de ceux-ci se trompent », explique Turok.  "Si seulement un seul voit juste, il justifiera tout. "

Quelques physiciens théoriciens du ‘Perimeter Institute in Waterloo, Canada : « Comment ils vivent leur quotidien. » :

Asimina Arvanitaki : « Je passe la plupart de mon temps à être confuse sur les choses et me sentir comme une idiote. Mais la façon dont vous vous sentez aux moments où tout tombe en place dans votre esprit et que vous avez compris quelque chose d'important, est étonnant.

Il n'est pas clair quand une bonne idée viendra. Elle vient généralement après avoir réfléchi à des choses pendant un certain temps, se sentir coincé et puis, soudain, il y a ce moment : aha. Vous ne pouvez plus vraiment éteindre. »

Luis Lehner : « La vie d'un physicien en général se caractérise par une croyance profondément enracinée qu'en quelque sorte il y a une réponse à la question que vous vous posez, en comprenant aussi que nous devons attendre aussi longtemps qu'il le faudra. Je réfléchis beaucoup avec du rythme, et en particulier quand je cours. J'aime sortir et juste me perdre dans les pensées pendant le jogging. »

Niayesh Afshordi : « J'essaie de visualiser une image de ce qui se passe, et ce qui manque ou ne sent pas bien. Ensuite j’essaie de tester des idées qui pourraient résoudre le problème, et examiner leurs conséquences.

Les idées ont tendance à venir à des heures les plus indues, mon humeur tend à basculer périodiquement entre la frustration lorsque les idées ne fonctionnent pas, et dans le doute quand elles le font, sous réserve de l'approbation d’examinateurs anonymes. »

Avery Broderick : « Je passe la plupart de mes jours à me sentir très stupide. Je vais me mettre devant le tableau, ‘L’oeil du Tigre’ jouant dans ma tête, écrire quelque chose, l'effacer, changer ma pose, écrire quelque chose d'autre, l'effacer, ‘ad infinitum’. Concrètement c’est ainsi que ça fonctionne. Si nous savions ce que nous faisions, cela ne s’appellerait pas la recherche. »

Je propose à ce niveau de commenter cette partie de l’article à savoir : « Même ceux qui en ont forgé l'idée sont maintenant prêt à remettre en question l'hypothèse sous-jacente de la « naturalité », à savoir que les lois de la nature doivent être plausibles et cohérentes, plutôt que d’atterrir au hasard. » La naturalité est une conception plus nuancée que le réalisme einsteinien mais elle nie la contribution du sujet pensant dans les observations, dans son interprétation des événements de la nature, dans sa conception théorique. Bref les déterminations du sujet pensant sont totalement ignorées car il y a la conviction de la part de ces scientifiques que les fondements de la physique et sa méthode transcendent ces déterminations. Le 21/12/2011, j’ai posté un article qui mettait sérieusement en doute cette vision erronée des choses et il n’est pas possible d’être intellectuellement passif à l’égard de ce questionnement : « L’être humain est-il nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la Nature ?».

L’article récent : ‘La Tache Aveugle’ ; ‘The Blind Spot’, révèle que les physiciens commencent à s’interroger sérieusement sur cet aveuglement collectif.

Quand N. Turok propose : « Nous devons retracer nos pas et déterminer où nous nous sommes trompés. » Là encore, il faut remonter plus haut que 30 ans en arrière et j’ai toujours considéré que l’outil théorique générique dénommée : ‘Théorie Quantique des Champs’ était à la source d’extrapolations et d’hypothèses fragiles, opportunistes, qui ont transformé cette ‘TQC’ en un ‘mille-feuille’ qui conduit à l’errance intellectuelle. J’ai acquis cette conviction en étudiant le traitement des neutrinos dans le cadre de cette TQC. Voir article du 08/11/2011 : ‘Qui se permettra de le dire ?’

Ce qui est certain, c’est que les physiciens doivent plus penser qu’appliquer au sein de modèles qui ne peuvent plus être standards. Il faut que le physicien pense sérieusement à sa position et à son statut en tant que sujet pensant dans son rapport avec l’observation intime de la Nature et son décryptage. J’ai tenté d’exprimer quelle était la bonne posture intellectuelle dans l’article du 22/03/2014 : ‘La physique n’est pas une science qui nous conduit à la connaissance de la réalité. Elle nous conduit à établir des vérités fondées.’

"Si seulement un seul voit juste, il justifiera tout. " : cette affirmation de Turok ne doit pas être considérée comme provocatrice, les physiciens ne sont pas des enfants gâtés, même ceux du ‘Perimeter Institute’ de Waterloo. Il est vrai que dès qu’il sera possible de voir juste ce sera l’humanité entière qui en sera bénéficiaire, certes à des degrés très divers, avec des effets d’inertie du progrès humain très variés, mais on ne peut nier que plus l’être humain peut mieux se situer dans l’univers plus il acquière une liberté de penser étendue, plus de liberté tout simplement. C’est un processus qui s’est engagé depuis la nuit des temps.

 

 

[1] This new model gives a natural explanation for dark matter: a CPT-symmetric Universe would produce large numbers of very massive sterile neutrinos (sic). Such superheavy neutrinos might also be the source of recently observed high-energy cosmic-ray showers (avalanche) (see 18 October 2018 Synopsis). This research is published in Physical Review Letters

Partager cet article

Repost0
22 janvier 2019 2 22 /01 /janvier /2019 11:40

 La Tache Aveugle commentée

Comme annoncé dans l’article précédent du 14/01 : ‘The Blind Spot’ ; ‘La tache Aveugle’, ci-dessous je développe des commentaires en rapport avec les idées que j’ai déjà exprimées depuis plusieurs années sur le blog et qui sont en phase d’une façon très intéressante avec celles proposées par les trois auteurs cités : A. Frank ; M. Gleiser ; E. Thompson.

C’est dans l’ultime paragraphe que je rencontre l’expression qui suscite un très grand intérêt. Je la rappelle en anglais, puis la façon dont je l’ai traduite pour qu’il soit constaté que je ne force pas le trait (enfin, je l’espère). Ainsi je cite : « It’s also to embrace the hope that we can create a new scientific culture, in which we see ourselves both as an expression of nature and as a source of nature’s self-understanding. We need nothing less than a science nourished by this sensibility for humanity to flourish in the new millennium.” ; “Il faut aussi embrasser l'espoir que nous pouvons créer une nouvelle culture scientifique, dans laquelle nous nous considérons nous-mêmes à la fois comme une expression de la nature et comme une source de l'auto-compréhension de la nature. Nous n'avons besoin de rien de moins qu'une science nourrie par cette sensibilité pour que l'humanité s'épanouisse dans le nouveau millénaire(sic). »

J’interprète qu’ici les auteurs prennent en compte mon hypothèse que l’être humain est à la fois un être de la nature et un être dans la nature[1]. C’est évidemment la première fois que je rencontre le partage de cette hypothèse et évidemment j’en suis réconforté car cela est d’une certaine façon une hypothèse difficile à assumer vis-à-vis d’interlocuteurs physiciens.

Les auteurs ont placé cette idée à la fin de leur article, je suppose que pour eux c’est un début de réflexion souhaitable et nécessaire sur ce sujet. Pour mon compte cette hypothèse est posée a priori en tant que condition nécessaire pour penser correctement notre rapport avec la nature et développer notre compréhension des phénomènes et des lois physiques.  

Dans la partie finale de l’article original, il y a de plus l’idée suivante énoncée : « When we try to understand reality by focusing only on physical things outside of us, we lose sight of the experiences they point back to. The deepest puzzles can’t be solved in purely physical terms, because they all involve the unavoidable presence of experience in the equation. There’s no way to render ‘reality’ apart from experience, because the two are always intertwined. » ; « Lorsque nous essayons de comprendre la réalité en nous concentrant uniquement sur des choses physiques qui sont en dehors de nous, nous perdons de vue d’où viennent les expériences. Les difficultés les plus profondes ne peuvent pas être résolues en termes purement physiques, parce qu'elles incluent toutes la présence inévitable de l'expérience dans l'équation. Il n'y a aucun moyen de rendre compte de la « réalité » en dehors de l'expérience, parce que les deux sont toujours entrelacées. »

J’apprécie que le terme ‘présence’ soit ici, comme à de nombreuses autres occasions dans l’article, mis en évidence pour signaler, quelque chose, une situation, incontournable afin que les physiciens aient une pensée plus juste dans leur activité professionnelle. Ce n’est pas pour rien que depuis 12 ans j’assure un cours qui s’intitule : ‘Faire de la physique avec ou sans ‘Présence’’. Mais effectivement l’idée de ‘présence’, je la conçois avec un ‘p’ : majuscule parce que c’est la ‘Présence’ du sujet pensant qui cogite et investit la nature, pas d’une façon occasionnelle mais qui pressent en permanence un rôle de celle-ci dans son existence. Cette ‘Présence’ est évidemment selon moi, authentiquement universelle, absolument établie, plus déterminante et significative que la conscience, que je considère comme une petite présence, plus éphémère, qui a plus à voir avec le travail intellectuel quotidien du physicien, comme l’entendent les ‘Qbist’, ceci étant une des raisons pour laquelle je n’adhère pas à leur interprétation de la mécanique quantique. La ‘Présence’ que je préconise coïncide avec l’érection d’une intelligence primordiale dans la Nature qui s’engage dans une perception distanciée de son environnement et qui concomitamment acquière les prémices des moyens d’un énoncé sur celui-ci, pour se situer avec les autres. D’une certaine façon S. Dehaene émet l’idée que cela se situe, à peu près, à moins de 2 millions d’années (je suis en accord avec cette estimation) avec Homo Erectus, voir article du 05/01/2018 ‘Turing or not Turing’. Mais je pense que Dehaene brûle des étapes en émettant l’idée : « qu’Homo erectus est doté d’un cerveau qui avait peut-être déjà atteint la compétence d’une machine de Turing universelle » Je suis étonné que cela puisse s’engager d’une façon aussi absolue avec cette compétence. Depuis, je n’ai pas eu d’écho que S.D. ce soit à nouveau exprimé sur ce sujet ni qu’il l’aurait développé. Il a au minimum une intuition qui est celle qu’il y a eu l’érection d’une intelligence déterminée par une perception du monde, ici en l’occurrence : la structure de l’Univers ! C’est à suivre.

Je continue de mettre en évidence ce qui constituent mes points d’accord avec le texte original : “Inspired by these perspectives, we propose an alternative vision that seeks to move beyond the Blind Spot. Our experience and what we call ‘reality’ are inextricable. Scientific knowledge is a self-correcting narrative made from the world and our experience of it evolving together. Science and its most challenging problems can be reframed once we appreciate this entanglement.” ; “Inspirés par ces perspectives, nous proposons une vision alternative qui cherche à aller au-delà de la ‘Tache Aveugle’. Notre expérience et ce que nous appelons la « réalité » sont inextricables. La connaissance scientifique est une narration du monde qui s’auto-corrige, et notre narration, ainsi que notre expérience de ce monde évoluent ensemble. La science et ses problèmes les plus difficiles peuvent être reformulés une fois que nous prenons conscience de cette intrication. » Deux articles que j’ai postés, le 18/03/2015 : « Décrypter la physique comme science de l’interface de l’être humain et de la Nature ! » et le 23/08/2016 : « Décrire comment les humains interagissent avec la nature ? Comment ils évoluent grâce à cette interaction ? », décrivent ma version et la dynamique qui font que je suis totalement en phase avec ce que les auteurs écrivent : « Scientific knowledge is a self-correcting narrative made from the world and our experience of it evolving together. » Ici je m’autorise à affirmer que je rencontre aussi une justification de ma métaphysique : « Au sein d’une éternité, parmi tous les possibles, Anthropos ne cesse de creuser sa connaissance de l’univers… » (voir article du 01/10/2014 : ‘Au sein d’une éternité parmi tous les possibles…’)

Je cite sans commentaire, parce que c’est tellement juste, dans le contexte de l’article, que cela devrait être largement partagé : « For these reasons, scientific ‘objectivity’ can’t stand outside experience; in this context, ‘objective’ simply means something that’s true to the observations agreed upon by a community of investigators using certain tools. Science is essentially a highly refined form of human experience, based on our capacities to observe, act and communicate. » ; « Pour ces raisons, l’objectivité scientifique ne peut pas être confondue avec l’idée d’une compréhension extérieure ; dans ce contexte, « objectif » signifie simplement quelque chose qui est fidèle aux observations convenues par une communauté d’enquêteurs utilisant certains outils. La science est essentiellement une forme d’expérience humaine hautement raffinée, basée sur nos capacités à observer, agir et communiquer. »

La citation qui suit, je la commente parce qu’elle est au carrefour d’un projet d’expérience que je propose : « – all of these exist in the scientist’s mind, not in nature. They are abstract mental representations, not mind-independent entities. Their power comes from the fact that they’re useful for helping to make testable predictions. But these, too, never take us outside experience, for they require specific kinds of perceptions performed by highly trained observers. » ; « - tous ceux-ci existent dans l'esprit du scientifique, et non dans la nature. Ce sont des représentations mentales abstraites, pas des entités indépendantes de l'esprit. Leur pouvoir vient du fait qu'elles sont utiles pour aider à faire des prédictions testables. Mais celles-ci, aussi, ne nous placent jamais à l’extérieur de l'expérience, car elles exigent des types spécifiques de perceptions effectuées par des observateurs hautement qualifiés. » Justement, l’expérience que je propose, dans sa dernière version, dans l’article du 05/08/2017 : « Appel d’offres », comprend la condition qu’il n’y ait pas que des observateurs hautement qualifiés. De fait, je propose qu’il y ait trois catégories d’observateurs dans l’expérience dont évidemment des hautement qualifiés mais aussi des non qualifiés.

Cette expérience a pour but de valider ou bien d’invalider mon hypothèse que le temps est un propre de l’homme.

Ce sujet du temps me fait revenir au début de l’article original puisqu’il est ouvert avec la première phrase : « The problem of time is one of the greatest puzzles of modern physics » ; « Le problème du temps est l'un des plus grands problèmes de la physique moderne. » Il y a une quasi-unanimité chez les physiciens pour penser maintenant que le problème du temps posé et toujours sans réponse constitue un des obstacles majeurs à un nouveau déploiement de la physique fondamental et donc la crise est d’actualité : voir article du 16/01/2019 sur le site du NewScientist : ‘We’ll die before we find the answer’: Crisis at the heart of physics’ ‘Ambitious new theories dreamed up to explain reality have led us nowhere.’;  « Nous mourrons  avant  de trouver  la  réponse : Crise au cœur de la physique’ ‘Des nouvelles théories ambitieuses imaginées pour nous expliquer la réalité nous ont conduit nulle part.   Je ne suis pas autant pessimiste que cela, bien que l’on découvre que cette crise dure depuis très longtemps. Je suis convaincu que le couvercle à propos d’une pensée pertinente sur le temps s’est hermétiquement refermé avec le postulat d’Einstein cité dans l’article original : « Il a déclaré à Bergson que le temps physique est le seul temps. » C’est depuis évidemment très difficile d’être en opposition avec Einstein qui a prononcé cet oukase mais comme je l’ai souvent proposé il faut franchir le Rubicon, pour s’émanciper de cette pensée dangereusement réductrice, avant qu’on ne se meure. Depuis, cet oukase constitue un véritable filtre dans le raisonnement des physiciens qui a force d’être imposé et emprunté a conduit à une redoutable impasse.

Les trois auteurs avancent l’idée que : « ‘time’ will always have a human dimension » ; « Le temps aura toujours une dimension humaine ». Cette affirmation a déjà été prononcé, ailleurs, par d’autres physiciens alertés qui ont fini par se rendre compte d’une certaine évidence (voir article : « Bienvenu au ‘Temps Créatif’ de N. Gisin » le 03/06/2016), mais cela n’a jamais été à l’origine de conceptions nouvelles, malgré le dialogue que j’ai eu quelque temps avec Gisin. Ma conviction c’est qu’un vrai nouveau paradigme qui finira par émerger à propos du temps devra être plus radical que de colporter l’idée d’une rectification qui inclurait simplement l’humaine dimension du temps.   

 

           

 

 

[1] J’ai commencé à formuler cette hypothèse dans l’article du 02/11/2012 : ‘Synthèse : un monde en ‘Présence’’, puis par la suite j’ai à de nombreuses occasions, jusqu’à maintenant, conforté progressivement cette hypothèse : voir, ultimement, articles du 24/10/2018 et du 21/10/2018.

Partager cet article

Repost0
14 janvier 2019 1 14 /01 /janvier /2019 17:30

‘The Blind Spot’ ; ‘La Tache Aveugle’

Ceux qui lisent régulièrement mes articles sur le blog comprendront aisément pourquoi j’ai décidé de poster la traduction de l’article ci-dessous que j’ai découvert sur le site de Nature le 9/01/2019. La traduction par mes soins est directe et sans commentaire. Je proposerai dans un prochain article mes propres commentaires car ils me permettront de mieux ancrer certaines de mes propres hypothèses. Cet ancrage est possible parce qu’il y a des similitudes fortes entre les auteurs américains et les hypothèses que je propose depuis de nombreuses années. Dès qu’il y a partage d’hypothèses, il se met en place un processus de confiance intérieure qui conforte la ligne directrice de celles que je propose, surtout lorsqu’elles sont iconoclastes par rapport à la ligne dominante, et donc nourrit un élan pour développer et enrichir le chantier entrepris.

            Attention car le titre de l’article en anglais est ‘The Blind Spot’ qui pourrait se traduire par la ‘Le Point Aveugle’, mais cela n’a rien à voir avec mon hypothèse du ‘Point Aveugle de l’Intelligence Humaine’. Toutefois, je partage le cadre dans lequel, ils émettent leur propre hypothèse du ‘Blind Spot’. Disons qu’il y aurait chez les penseurs du monde physique un deuxième point aveugle, celui-ci permanent, que les physiciens ne peuvent voir tant qu’ils conserveront leur conception actuelle de la relation avec le monde physique. C’est un problème d’interface.

            Les auteurs de l’article de ‘Nature’ sont :

Adam Frank

is professor of astrophysics at the University of Rochester in New York. He is the author of several books, the latest being Light of the Stars: Alien Worlds and the Fate of the Earth (2018).

Marcelo Gleiser

is a theoretical physicist at Dartmouth College in New Hampshire, where he is the Appleton professor of natural philosophy and professor of physics and astronomy, and the director of the Institute for Cross-Disciplinary Engagement (ICE). He is the author of The Island of Knowledge (2014).

Evan Thompson

is professor of philosophy and a scholar at the Peter Wall Institute for Advanced Studies at the University of British Columbia in Vancouver. He is a Fellow of the Royal Society of Canada. His latest book is Waking, Dreaming, Being (2015).

La Tache Aveugle.

Il est tentant de penser que la science donne une vue de Dieu de la réalité. Mais nous oublions la place de l'expérience humaine à nos risques et périls.

Le problème du temps est l'un des plus grands problèmes de la physique moderne. Le premier élément de l'énigme est cosmologique. Pour comprendre le temps, les scientifiques proposent de considérer une « première cause » ou « condition initiale » - une description de l'univers au tout début (ou au « temps est égal à zéro »). Mais pour déterminer la condition initiale d'un système, nous avons besoin de connaître le système total. Nous devons faire des mesures des positions et des vitesses de ses parties constituantes, telles que les particules, les atomes, les champs et ainsi de suite. Ce problème nous confronte à un ‘mur dur’ (impasse) lorsque nous traitons avec l'origine de l'univers lui-même, parce que nous n'avons pas de vue extérieure, nous n’avons aucune possibilité de recul. Nous ne pouvons pas sortir de la boîte afin de regarder à l'intérieur, parce que la boîte est tout ce qu'il y a. Une première cause est non seulement inconnaissable, mais aussi scientifiquement incompréhensible.

La deuxième partie du défi est philosophique. Les scientifiques ont pris le temps physique comme le seul temps réel - alors que le temps de l’expérience, le sens subjectif du temps qui passe, est lui, considéré comme une fabrication cognitive d'importance secondaire. Le jeune Albert Einstein a pris cette position claire au cours du débat avec le philosophe Henri Bergman dans les années 1920, quand il a affirmé que le temps du physicien est le seul temps qui soit. Avec l'âge, Einstein est devenu plus circonspect. Jusqu'au moment de sa mort, il resta profondément troublé à propos de la façon de trouver une place pour l'expérience humaine du temps compatible avec la vision scientifique du monde.

Ces dilemmes reposent sur la présomption que le temps physique, avec un point de départ absolu, est le seul temps à considérer dans la réalité. Mais que faire si la question du commencement du temps est mal posée ? Beaucoup d'entre nous aiment à penser que la science peut nous donner une description complète et objective de l'histoire cosmique, distincte de nous et de notre perception de celui-ci. Mais cette image de la science est profondément erronée. Dans notre désir de savoir et de contrôle, nous avons créé une vision de la science comme une série de découvertes sur la façon dont la réalité est en elle-même : équivalente à une vue de Dieu de la nature.

Une telle approche non seulement fausse la vérité, mais crée un faux sentiment de distance entre nous et le monde. De cette division découle ce que nous appelons la ‘Tache Aveugle’, que la science elle-même ne peut pas voir. Dans la ‘tache aveugle’ se trouve l'expérience : la présence pure et l'immédiateté de la perception vécue.

Derrière la ‘tache aveugle’ se trouve la croyance que la réalité physique a la primauté absolue dans la connaissance humaine, une vue qui peut être appelée : matérialisme scientifique. En termes philosophiques, cela combine l'objectivisme scientifique (la science nous parle du monde réel, du monde indépendant de l'esprit) et le physicalisme[1] (la science nous dit que la réalité physique est tout ce qu'il y a). Les particules élémentaires, les moments dans le temps, les gènes, le cerveau – toutes ces choses sont supposées être fondamentalement réelles. En revanche, l'expérience, la conscience et la prise de conscience sont considérés comme secondaires. La tâche scientifique consiste à déterminer comment réduire celles-ci à quelque chose de physique, comme le comportement des réseaux neuronaux, l'architecture des systèmes de calcul, ou une certaine mesure de l'information.

Dans ce cadre nous sommes confrontés à deux problèmes intraitables. Le premier concerne l'objectivité scientifique. Nous ne rencontrons jamais la réalité physique en dehors de nos observations de celle-ci. Les particules élémentaires, le temps, les gènes et le cerveau ne nous sont manifestes que par nos mesures, nos modèles et nos manipulations. Leur présence respective est toujours basée sur des investigations scientifiques, qui ne se produisent que dans le domaine de notre expérience.

Cela ne signifie pas que la connaissance scientifique est arbitraire, ou une simple projection de nos propres esprits. Au contraire, certains modèles et méthodes d'investigation fonctionnent bien mieux que d'autres, et nous pouvons le tester. Mais ces tests ne nous donnent jamais la connaissance de la nature telle qu'elle est en elle-même, en dehors de nos façons de voir et d'agir sur les choses. L'expérience est tout aussi fondamentale pour la connaissance scientifique que la réalité physique qu'elle révèle.

Le deuxième problème concerne le physicalisme. Selon la version la plus réductrice du physicalisme, la science nous dit que tout, y compris la vie, l'esprit et la conscience, peuvent être réduits au comportement des plus petits constituants matériels. Vous n'êtes que vos neurones, et vos neurones ne sont que de petits éléments de matière. Ici, la vie et l'esprit sont évacués, et seule la matière inerte existe.

Pour parler carrément, l'affirmation, selon laquelle il n'y a rien d'autre que la réalité physique, est fausse ou vide. Si la « réalité physique » signifie la réalité comme la science physique le décrit, alors l'affirmation selon laquelle seuls les phénomènes physiques existent est fausse. Pourquoi ? Parce que la science physique - y compris la biologie et la neuroscience computationnelle – n’inclut pas la prise en compte de la conscience. Cela ne veut pas dire que la conscience est quelque chose de non naturel ou surnaturel. Le point est que la science physique ne prend pas en compte l'expérience ; mais nous savons que l'expérience existe, de sorte que l'affirmation selon laquelle les seules choses qui existent sont celles que la science physique nous dit, est fausse. D'autre part, si la « réalité physique » signifie la réalité selon une certaine physique future et complète, alors l'affirmation, qu'il n'y a rien d'autre mais la seule réalité physique, est vide, parce que nous n'avons aucune idée de ce à quoi une telle physique future ressemblera, en particulier en relation avec la conscience.

L'objectivisme et le physicalisme sont des idées philosophiques, non scientifiques

Aujourd'hui, les interprétations de la mécanique quantique sont en désaccord avec notre compréhension classique du monde physique. Une des sources de ces différences concernent le soi-disant « problème de mesure » : comment la fonction d'onde de l'électron se réduit d'une superposition de plusieurs états à un seul état lors de l'observation provoquée par la mesure. Pour plusieurs écoles de pensée, la physique quantique ne nous donne pas accès à la façon dont le monde est fondamentalement en soi. Elle nous permettrait simplement de comprendre comment la matière se comporte par rapport à nos interactions avec elle.

Nous érigeons une fausse idole de la science comme quelque chose qui accorde la connaissance absolue

Selon l'interprétation dite de Copenhague de Niels Bohr, par exemple, la fonction d'onde n'a pas de réalité en dehors de l'interaction entre l'électron et le dispositif de mesure. D'autres approches, telles que les interprétations des « mondes multiples » et des « variables cachées », cherchent à préserver un statut indépendant de l'observateur pour la fonction d'onde. Mais cela revient à surajouter des fonctionnalités telles que celles des univers parallèles non observables. Une interprétation relativement nouvelle connue sous le nom de Quantum-Bayesianisme (QBism) - qui combine la théorie quantique de l'information et la théorie de probabilité bayésienne – propose une autre interprétation ; il interprète les probabilités irréductibles d'un état quantique non comme un élément de la réalité, mais comme les degrés de croyance qu'un agent a sur le résultat d'une mesure (sic). En d'autres termes, faire une mesure c’est comme faire un pari sur le comportement du monde, et une fois la mesure faite, cela correspond à la mise à jour de ses connaissances (de l’agent). Les défenseurs de cette interprétation la décrivent parfois comme un « réalisme participatif », parce que l'agencement humain est tissé dans le processus de faire de la physique comme un moyen d'acquérir des connaissances sur le monde. De ce point de vue, les équations de la physique quantique ne se réfèrent pas seulement à l'atome observé, mais aussi à l'observateur et à l'atome pris dans un ensemble dans une sorte « d’observateur-participatif ».

Le réalisme participatif est controversé. Mais c'est précisément cette pluralité d'interprétations, avec une variété d'implications philosophiques, qui ébranle la sobre certitude du point de vue matérialiste et réductionniste à propos de la nature. En bref, il n'y a toujours pas de moyen simple de supprimer notre expérience en tant que scientifiques dans le processus visant à caractériser le monde physique.

Cela nous ramène à la ‘Tache Aveugle’. Quand nous observons les objets de la connaissance scientifique, nous n'avons pas tendance à considérer les expériences qui les mettent en évidence. Nous ne voyons pas comment l'expérience nous rend possible leur présence. Parce que nous perdons de vue la nécessité de l'expérience, nous érigeons une fausse idole de la science comme quelque chose qui confère la connaissance absolue de la réalité, indépendamment de la façon dont elle se présente et comment nous interagissons avec elle.

Les scientifiques matérialistes nous disent que la méthode scientifique nous permet de nous extraire de l'expérience et donc de saisir le monde tel qu'il est en soi. Comme il est clair maintenant, nous sommes en désaccords avec cette conception ; en effet, nous croyons que cette façon de penser fausse la méthode même et la pratique de la science.

En termes généraux, voici comment fonctionne la méthode scientifique. Tout d'abord, nous mettons de côté des aspects de l'expérience humaine sur lesquels nous ne pouvons pas toujours être d'accord, comme la façon dont les choses apparaissent ou à propos de leur saveur ou bien comment elles se ressentent. Deuxièmement, en utilisant les mathématiques et la logique, nous construisons des modèles abstraits et formels que nous traitons comme des objets stables qui font consensus. Troisièmement, nous intervenons dans le cours des événements en isolant et en contrôlant les choses que nous pouvons percevoir et manipuler. Quatrièmement, nous utilisons ces modèles abstraits et ces interventions concrètes pour calculer les événements futurs. Cinquièmement, nous vérifions ces événements prévus contre nos perceptions (sic). Un ingrédient essentiel de tout ce processus est la technologie : les machines – notre équipement – qui standardisent ces procédures, amplifient nos pouvoirs de perception et nous permettent de contrôler les phénomènes à nos propres fins (sic).

Le ‘Tache Aveugle’ survient lorsque nous commençons à croire que cette méthode nous donne accès à la réalité brute, nue. Mais l'expérience est présente à chaque étape. Les modèles scientifiques devraient être en retrait des observations, car souvent médiatisés par notre équipement scientifique complexe. Ce sont des idéalisations, pas des choses réelles (actuelles) dans le monde. Le modèle de Galilée d'un avion sans frottement, par exemple ; le modèle de Bohr de l'atome avec un petit noyau dense avec des électrons tournant autour de lui sur des orbites quantifiées comme des planètes autour d'un soleil ; modèles évolutionnaires de populations isolées : tous ceux-ci existent dans l'esprit du scientifique, et non dans la nature. Ce sont des représentations mentales abstraites, pas des entités indépendantes de l'esprit. Leur pouvoir vient du fait qu'elles sont utiles pour aider à faire des prédictions testables. Mais celles-ci, aussi, ne nous placent jamais à l’extérieur de l'expérience, car elles exigent des types spécifiques de perceptions effectuées par des observateurs hautement qualifiés.

Pour ces raisons, l'objectivité scientifique ne peut pas être confondue avec l’idée d’une compréhension extérieure ; dans ce contexte, « objectif » signifie simplement quelque chose qui est fidèle aux observations convenues par une communauté d'enquêteurs utilisant certains outils. La science est essentiellement une forme d'expérience humaine hautement raffinée, basée sur nos capacités à observer, agir et communiquer.

L'affirmation selon laquelle la science révèle une « réalité » parfaitement objective est plus théologique que scientifique

Ainsi, la croyance que les modèles scientifiques correspondent à la façon dont les choses sont vraiment n’est pas conforme à la méthode scientifique. Au lieu de cela, cela provient d'une croyance ancienne – que l’on rencontre souvent dans les religions monothéistes - connaître le monde tel qu'il est en soi, comme Dieu le fait. L’affirmation que la science révèle une ‘réalité’ parfaitement objective est plus théologique que scientifique.

Les philosophes récents de la science qui ciblent un tel « réalisme naïf » soutiennent que la science ne se termine pas avec une simple image d'une théorie-indépendante du monde. Au contraire, divers aspects du monde – des interactions chimiques destinées à la croissance et au développement des organismes, la dynamique du cerveau et les interactions sociales – peuvent être décrits plus ou moins avec succès par des modèles partiels. Ces modèles sont toujours liés à nos observations et actions, et circonscrits dans leurs applications.

Les domaines de la théorie des systèmes complexes et de la science du réseau ajoutent une précision mathématique à ces revendications en se concentrant sur le tout plutôt que sur la réduction en parties qui le composent. La théorie des systèmes complexes est l'étude de systèmes, tels que le cerveau, les organismes vivants ou le climat global de la Terre, dont le comportement est difficile à modéliser : la façon dont le système réagit dépend de son état et de son contexte. De tels systèmes présentent une auto-organisation, une formation spontanée de motifs et une dépendance sensible aux conditions initiales (de très petites modifications des conditions initiales peuvent aboutir à des résultats très différents).

La science du réseau analyse les systèmes complexes en modélisant leurs éléments en tant que nœuds et les connexions entre eux en tant que liens. Elle explique le comportement en termes de topologies de réseau c’est-à-dire : les arrangements des nœuds et des connexions, et leur dynamique globale, plutôt qu’en termes d'interactions locales au niveau micro.

Inspirés par ces perspectives, nous proposons une vision alternative qui cherche à aller au-delà de la ‘Tache Aveugle’. Notre expérience et ce que nous appelons la « réalité » sont inextricables. La connaissance scientifique est une narration du monde qui s’auto-corrige, et notre narration, ainsi que notre expérience de ce monde évoluent ensemble. La science et ses problèmes les plus difficiles peuvent être reformulés une fois que nous prenons conscience de cette intrication.

Revenons au problème avec lequel nous avons commencé notre article : la question du temps et l'existence d'une Première Cause. De nombreuses religions ont investi la notion de première cause dans leurs narrations de la mythique création. Pour expliquer d’où tout vient et quelle est l’Origine, elles conçoivent l'existence d'un pouvoir absolu ou d'une divinité qui transcende les confins de l'espace et du temps. À quelques exceptions près, Dieu ou les dieux créent à partir de rien pour donner naissance, pour faire surgir, ce qui est à l'intérieur.

Cependant, contrairement au mythe, la science est contrainte par son cadre conceptuel, de se développer en respectant la chaîne causale d'événements. La Première Cause constitue une rupture évidente d’une telle chaîne de causalité – comme les philosophes Bouddhistes l'ont souligné il y a longtemps dans leurs arguments contre la position théiste Hindoue : il doit y avoir une première cause divine. Comment pourrait-il y avoir une cause qui n'était pas elle-même l’effet d'une autre cause ? L'idée d'une Première Cause, comme l'idée d'une réalité parfaitement objective, est fondamentalement théologique.

Le temps du physicien dépend pour sa signification de notre expérience vécue du temps

Ces exemples suggèrent que le « temps » aura toujours une dimension humaine. Ce que nous pouvons au mieux viser c’est une narration cosmologique scientifique qui soit cohérente avec ce que nous pouvons mesurer et connaître de l'univers de l'intérieur. Cette narration ne peut jamais être une description finale ou complète de l'histoire cosmique. Plutôt, elle doit être constituée d’un récit continu, auto-corrigeant. Le « temps » est l'épine dorsale de ce récit ; notre expérience vécue du temps est nécessaire pour rendre ce récit pleinement significatif. Avec ce point de vue, il semble que c'est le temps du physicien qui est secondaire ; c'est simplement un outil pour décrire les changements que nous sommes en mesure d'observer et de mesurer dans le monde naturel. Le temps du physicien, alors, a un sens qui dépend de notre expérience vécue du temps.

Nous pouvons maintenant apprécier la signification la plus profonde de nos trois énigmes scientifiques – la nature de la matière, la conscience et le temps. Elles pointent toutes vers la ‘Tache aveugle’ et la nécessité de reconsidérer comment nous pensons la science. Lorsque nous essayons de comprendre la réalité en nous concentrant uniquement sur des choses physiques qui sont en dehors de nous, nous perdons de vue d’où viennent les expériences. Les difficultés les plus profondes ne peuvent pas être résolues en termes purement physiques, parce qu'elles incluent toute la présence inévitable de l'expérience dans l'équation. Il n'y a aucun moyen de rendre compte de la « réalité » en dehors de l'expérience, parce que les deux sont toujours entrelacées.

Pour enfin « voir » la ‘Tache Aveugle’ il faut se réveiller de l’illusion de la connaissance absolue. Il faut aussi embrasser l'espoir que nous pouvons créer une nouvelle culture scientifique, dans laquelle nous nous considérons nous-mêmes à la fois comme une expression de la nature et comme une source de l'auto-compréhension de la nature. Nous n'avons besoin de rien de moins qu'une science nourrie par cette sensibilité pour que l'humanité s'épanouisse dans le nouveau millénaire

Dans nature le 09/01/2019

 

[1] Les fondations du physicalisme datent des années 1930 par le cercle de Vienne, notamment avec la contribution active d’Otto Neurath.

Partager cet article

Repost0
2 janvier 2019 3 02 /01 /janvier /2019 11:32

Les physiciens des hautes énergies perdent la main.

            Depuis le début des années 1980 les physiciens des hautes énergies envisageaient sérieusement découvrir d’une façon linéaire tous les constituants de ce qu’ils nomment le Modèle Standard des particules élémentaires et lorsqu’ils auront atteint cet objectif l’au-delà du Modèle Standard (MS) sera fléché par les failles et les incomplétudes qui se révèleront au sein même du MS. A partir de là, il (était) est pensé qu’il suffit de disposer de collisionneur atteignant des niveaux d’énergie de plus en plus élevés, au centre de masse de la collision : particules-particules ou particules-antiparticules, pour qu’il soit observé dans les détecteurs de plus en plus performants les éléments constitutifs de l’au-delà du MS.

            Cette perspective d’une progression linéaire irrémédiable de découvertes (était) est alimentée par la perspective qu’il y (avait) a un chemin qui conduit à l’obtention d’une unification des forces fondamentales et des particules fondamentales qui agissent dans notre univers et ceci est en accord avec la théorie du Big Bang puisque le premier souffle de l’univers est celui d’un rayonnement extraordinaire.

            En 2003 un livre de très grande qualité a été publié : ‘Large Hadron Collider Phenomenolgy’ ; ‘La phénoménologie au cœur du Grand Collisionneur d’Hadrons’, et remarquablement il annonçait avec une très grande précision tout ce qui était prévu d’observer dès que le LHC fonctionnera et en plus : comment on ira au-delà, bref le chemin était tout tracé. On annonçait aussi quels étaient les futurs instruments qu’il fallait concevoir pour prolonger ce qui assurément se laisserait voir dans le LHC.

            Etonnamment le premier, sérieux, grain de sable c’est que le boson de Higgs observé péniblement en 2012 est parfaitement conforme à la prédiction théorique du MS, sans aucune autre indication. En fait ce succès est frustrant et l’impression qu’une impasse est atteinte est de plus en plus partagée maintenant par la communauté des physiciens des hautes énergies. Pas d’alternatives à l’horizon.

            Jusqu’à maintenant ces physiciens avaient obtenu assez facilement les budgets nécessaires pour construire et faire fonctionner ces énormes machines qui nous permettaient de comprendre de mieux en mieux la structure la plus élémentaire de la matière ainsi que les forces qui régissent notre univers. Le problème c’est que maintenant il n’y a plus d’extraordinaires perspectives à faire valoir auprès des décideurs publics pour mobiliser les premiers milliards de dollars nécessaires à ces projets.

            Ainsi le 23/12/2018, un article, sur le site Nature, indiquait que l’heure de vérité s’approchait et l’optimisme n’était pas de mise. J’en propose une traduction et des commentaires ci-dessous :

Le projet du prochain grand collisionneur de particules au monde subit un revers important.

Le Comité scientifique japonais interroge le montant du coût du projet de plusieurs milliards de dollars, mais la décision incombe au gouvernement.

Le projet de construire un collisionneur de particules au Japon pour succéder au LHC a subi un revers significatif. Un rapport influent de scientifiques japonais a conclu qu'il n’était pas possible de soutenir le projet de construire le collisionneur linéaire international (ILC) dans le pays. L’ILC a été étudié et conçu depuis de nombreuses années et il est censé permettre l’étude du boson de Higgs découvert en 2012 qui est considéré comme la dernière pièce du puzzle pour les physiciens des particules du 'modèle standard'.

Mais les découvertes prévues pour justifier la construction de l’ILC ne sont pas pleinement à la mesure du coût de près de 7 milliards de dollars, a déclaré un comité du Conseil Scientifique du Japon dans un rapport publié le 19 décembre, selon les comptes rendus de la presse. En tant que pays hôte, le Japon serait censé financer de l’ordre de la moitié du coût total. Le comité, qui conseille le gouvernement, a ajouté que l'incertitude quant à savoir si les partenaires internationaux partageraient les coûts du projet augmente ses préoccupations. L'accélérateur proposé — qui serait de plus de 20 kilomètres de long — permettrait aux physiciens de détecter précisément les produits des collisions entre les électrons et les positrons.

Le gouvernement utilisera maintenant ce rapport, qui reflète les opinions de la communauté académique au Japon et pas seulement celles des physiciens des hautes énergies, pour guider sa décision sur l'opportunité d'héberger l'installation. Une décision est attendue pour le 7 mars (sic), lorsque le groupe international qui supervise le développement de l’ILC : le ‘Linear Collider Board’, se réunira à Tokyo.

Les physiciens se sont déclarés préoccupés par les conclusions du Comité. "Ce sont de très mauvaises nouvelles, car cela rend très improbable que l’ILC sera construit au Japon et probablement pas du tout." a tweeté Axel Maas, un physicien théoricien de l'Université de Graz en Autriche.

« Cependant, le Comité a déclaré que le fondement scientifique pour la construction de l’ILC était solide », déclare Hitoshi Yamamoto, physicien à l'Université de Tohoku à Sendai et membre de la collaboration ILC. Le Comité a également reconnu que le collisionneur est considéré par la communauté de la physique des particules comme la priorité absolue parmi les projets futurs possibles, ajoute-t-il.

Le projet a maintenant besoin de bonnes nouvelles, dit Yamamoto. Avec des financements serrés dans le monde entier, « la situation de l’ILC s'aggrave rapidement », dit-il. « Une annonce positive du gouvernement japonais inversera la tendance et amènera soudainement l’ILC au niveau de projet prioritaire. », dit Yamamoto.

Toutes les craintes que d'autres domaines de la science au Japon pourraient souffrir si ce projet coûteux va de l'avant est compréhensible, dit Brian Foster, un physicien à l'Université d'Oxford, et membre de l'équipe de la conception de l'installation. Mais il précise que la position pessimiste du Conseil ne signifie pas nécessairement que le gouvernement ne soutiendra pas le projet. « Si le gouvernement veut le faire, il le fera », affirme-t-il.

Nation solitaire.

Le Japon est la seule nation jusqu'à présent à manifester de l'intérêt pour le collisionneur, et une décision sur la question de savoir s'il accueillera l'installation est attendue depuis longtemps. Des physiciens japonais ont proposé à la communauté internationale de construire l'installation au Japon en 2012, après que les scientifiques du LHC découvrirent le boson de Higgs, particule impliquée dans le mécanisme par lequel toutes les autres particules fondamentales acquièrent leur masse.

Les physiciens voulaient utiliser la nouvelle installation pour étudier tous les phénomènes que le LHC aurait découvert. Ils savent que le modèle standard est incomplet et espèrent que des particules d'énergie plus élevée inconnues pourraient aider à expliquer des mystères très anciens tels que par exemple : la nature de la matière noire.

Mais les plans pour le collisionneur ont stagné parce qu'aucune des Nations n'ont offert de financement, et en raison de l'incapacité du LHC à trouver de nouveaux phénomènes au-delà du boson de Higgs (sic). En 2017, les physiciens ont réduit leurs ambitions pour l'ILC, proposant une conception plus courte et moins consommatrice en énergie qui se concentrerait uniquement sur le Higgs

Pour les physiciens, une « usine à Higgs » serait encore extrêmement précieuse. Puisque les électrons et les positrons sont des particules fondamentales, leurs collisions seraient plus propres que les collisions proton – proton au LHC. En ciblant les collisions à la bonne énergie, le collisionneur projeté produirait des millions de bosons de Higgs pour des études qui pourraient révéler une nouvelle physique indirectement, en explorant comment le boson de Higgs interagit avec les autres particules connues.

Les chercheurs en Chine, qui ont récemment proposé de construire une usine à Higgs en forme d’anneau de 100 kilomètres de diamètre, examineront aussi attentivement le rapport. Ils ont besoin de financements des gouvernements chinois et étrangers pour construire cette installation. Bien que les physiciens des particules aimeraient voir les deux collisionneurs construits, les partenaires internationaux sont susceptibles de ne financer qu’une seule usine à Higgs. Si l’ILC reçoit le soutien de toute la communauté de la physique des hautes énergies, cela peut réduire les chances pour le collisionneur chinois d’être construit, bien que le pays pourrait décider aussi d’y aller seul.

Sur le site de ‘Futura Science’, à la date du 23/11/2018, fut publié un article : « La Chine envisage la construction d’un LHC de 100 km de circonférence. »

Comme cela est indiqué, les enjeux scientifiques ne sont pas vraiment prioritaires mais les enjeux géopolitiques le sont. Comprenons bien que l’intention d’accéder au rôle de leader dans le monde se joue obligatoirement sur plusieurs domaines et ceux concernant le domaine intellectuel, le domaine de la connaissance en physique, sont très importants. D’autant que la maitrise des instruments en question implique une maitrise technologique du plus haut niveau. Je cite :

« La Chine envisage sérieusement de construire un équivalent du LHC de 100 kilomètres de circonférence et semble bien décidée à réaliser, déjà à l'horizon 2030, un collisionneur électron-positron de taille équivalente en prélude, comme l'avaient fait les Européens avec le LEP. L'utilité de ces machines ne va malheureusement pas de soi...

La Chine vient de faire savoir qu'elle avait toujours l'intention de ravir aux Européens le leadership dans la course aux hautes énergies en physique des particules. »

Comme le rappelait Futura dans un article précédent, les Européens ont, eux aussi, dans leur carton des études pour un LHC de 100 km de circonférence et un projet, non pas de collisionneur circulaire mais linéaire d'électrons et de positrons, a déjà été mené à son terme pour des études préliminaires depuis des années et attend un feu vert pour être construit. Il s'agit de l'International Linear Collider (ILC). Les Japonais en particulier s'y sont très impliqués (sic). Toutefois, on peut se demander aujourd'hui si la construction de ces machines est bien sérieuse. Je cite à nouveau l’article de Futura Science : Masquer cette publicitéÀ propos des cookieshttps://bvt.r66net.com/vi/options-arrow.png

« Nous pouvons transmettre un ou plusieurs cookies sous forme de petits fichiers texte contenant des caractères alphanumériques qui identifient votre navigateur Internet. Ils sont utilisés pour suivre des habitudes d’utilisation sur nos sites partenaires, de manière non personnellement identifiable.

Votre historique de cookies sera supprimé.

Déjà en 2016, le physicien chinois Chen-Ning Yang - célèbre physicien pour avoir décroché avec son collègue Tsung-Dao Lee le prix Nobel de physique pour ses travaux sur la violation de la parité en physique des particules et avoir été à l'origine des fameuses théories de Yang-Mills à la base de toute la physique du modèle standard - avait fait savoir qu'il n'était pas favorable à la réalisation du SPPC.

Bien que l'on puisse nuancer et même réfuter certaines des critiques faites par Yang pour la construction des deux machines, comme l'expliquait le physicien et mathématicien John Baez, on ne peut s'empêcher de pencher en faveur de Yang.

En effet, au moment où le LHC est entré en service, on avait de multiples et bonnes raisons de s'attendre à une révolution majeure en physique fondamentale. En effet, plusieurs arguments théoriques très crédibles laissaient espérer la découverte, en quelques années tout au plus, de nouvelles particules prédites par la théorie de la supersymétrie, la théorie des cordes et surtout la production de micro-trous noirs s'évaporant par effet Hawking à des énergies de l'ordre de quelques TeV.

Le LHC a fait de façon routinière des collisions à 13 TeV, avec une luminosité de faisceaux déjà élevée... et aucune nouvelle particule n'a montré ne serait-ce que le bout de son nez. Nous n'avons pas d'arguments théoriques laissant espérer vraiment des nouvelles particules au-delà de 10 TeV, à part quelques-unes prédites par la split supersymétrie, mais des résultats d'expériences récentes sur le moment dipolaire des électrons sont plutôt une douche froide à cet égard. Pire, la faible masse du boson de Higgs laisse entendre que le modèle standard pourrait bien être valable jusqu'à l'énergie de Planck, ce qui veut bien dire qu'aucune nouvelle physique ne devrait apparaître dans les collisionneurs que pourrait construire l'humanité, ou pour le moins aucune nouvelle particule.

On peut donc légitimement se demander, en l'absence de nouveaux arguments théoriques et expérimentaux et devant la crise à laquelle l'humanité est confrontée avec le réchauffement climatique, l’énergie et les ressources, si des milliards ne seront pas mieux utilisés pour la mise au point de nouveaux réacteurs nucléaires, par exemple au thorium. Il est vrai cependant que la Chine s'est aussi engagée dans ce type de recherche (sic). »

 

 

 

Partager cet article

Repost0
30 décembre 2018 7 30 /12 /décembre /2018 06:16

Ces observations à l’avant-garde de compréhensions futures.

           

            J’ai sélectionné trois observations dans l’univers qui devraient être des sources nouvelles de compréhension de ce qui se produit dans le cosmos. Chacune de celles-ci sont dues à l’exploitation d’instruments de plus en plus sophistiqués, performants, surtout quand leurs usages sont combinés.

            Une fontaine de dimension galactique observée en pleine magnificence.

            A un milliard d'années-lumière de la terre se trouve l'une des structures répertoriées les plus massives de l'univers : une galaxie elliptique géante entourée d'un amas tentaculaire d'autres galaxies connues sous le nom d'Abell 2597. Au cœur de la galaxie centrale, un trou noir supermassif alimente une fontaine monumentale de dimension cosmique. Là, de vastes quantités de gaz tombent vers un trou noir supermassif, où une combinaison de forces gravitationnelles et électromagnétiques pulvérise la majeure partie du gaz loin du trou noir dans un cycle continu qui dure plusieurs dizaines de millions d'années.

Les astronomes ont longtemps théorisé à propos de fontaines comme celle-ci faisant circuler continuellement le combustible stellaire d'une galaxie.

Les observations d'Abell 2597 par le réseau millimétrique/submillimétrique (ALMA) montrent les premières preuves claires et convaincantes de l'afflux simultané et de l'écoulement du gaz entraîné par un trou noir supermassif.

            « Le trou noir supermassif au centre de cette galaxie géante agit comme une « pompe » mécanique dans une fontaine d'eau. » a déclaré Grant Tremblay, un astrophysicien au Harvard-Smithsonian Center for astrophysique à Cambridge. "C'est l'un des premiers systèmes dans lesquels nous trouvons des preuves claires de l'afflux de gaz moléculaires froids vers le trou noir et l'écoulement ou le soulèvement des jets que le trou noir, lui-même, propulse. "

Selon les chercheurs, tout ce système fonctionne via une boucle de rétroaction qui s’autorégule. Le matériel de remplissage fournit la puissance à la fontaine puisqu’il se canalise vers le trou noir central, comme l'eau entrant dans la pompe d'une fontaine. Ce gaz de remplissage réactive une surchauffe du trou noir qui provoque la propulsion de jets de matériels surchauffés à grande vitesse hors de la galaxie. Pendant qu'il voyage, ce matériel pousse des paquets et des flots de gaz dans le halo expansif de la galaxie, où il finit éventuellement par pleuvoir en retour en direction du trou noir, déclenchant ainsi le renouvellement du processus.

Au total, de l’ordre de 3 milliards de masses solaires de gaz moléculaire sont impliqués dans le fonctionnement de cette fontaine, formant ainsi un filament nébulaire qui occupe sur plus de 100 000 années-lumière l’intérieur de la galaxie.

Bien que cette observation concerne une seule galaxie, il est logique de considérer que ce processus vaut dans les galaxies en général et que cela, fondamentalement, contribue à la dynamique de leur évolution.

Je pense que l’on aura l’occasion de re-évoquer cette extraordinaire machinerie mise en évidence pour la première fois. On découvre aussi une dynamique propre, autarcique, au sein des amas de galaxies comme s’il y avait des mini-univers autonomes dans l’univers.  

                        -----------------------------------------------------------------------

Le télescope Aussie a presque doublé le nombre connu des mystérieux ‘Eclats  Radios Rapides’ ; 'Fast radio bursts' : ‘FRB’s’, qui sont des flashs puissants d’ondes radios provenant de l’espace lointain.

Les découvertes de l'équipe incluent, à la fois, les plus rapides et les plus brillants ‘Eclats Radios’ jamais détectés.

Les conclusions récentes rapportées nous disent que les ‘FRB’s’ viennent de partout dans le ciel et durent seulement quelques millisecondes.

Les scientifiques ne savent pas ce qui les cause (sic), mais cela doit impliquer une énergie incroyable : équivalente à la quantité libérée par le soleil en 80 ans.

 "Nous avons trouvé 20 ‘FRB’s’ en un an, presque le double du nombre détecté dans le monde entier depuis qu'ils ont été découverts en 2007," a déclaré l'auteur principal de l’article : Dr. Ryan Shannon, de l'Université Swinburne de technologie.

Il a été également prouvé que des ‘FRB’s’ viennent de l'autre côté de l'univers plutôt que de notre propre voisinage galactique et que ceux-ci voyagent pendant des milliards d'années et donc ils traversent occasionnellement des nuages de gaz. Chaque fois que cela se produit, les différentes longueurs d'onde qui composent un éclat sont ralenties par des quantités différentes. Eventuellement, l'’éclat’ atteint la Terre avec une dispersion de ses longueurs d'onde qui arrivent sur le télescope à des moments légèrement différents, comme les nageurs sur une ligne d'arrivée. Chronométrer l'arrivée des différentes longueurs d'onde nous dit la quantité de matière que le ‘FRB’ a traversé durant son voyage.

 Et puisqu’il a été montré que les ‘FRB’s’ viennent de loin, nous pouvons les utiliser pour détecter toute la matière manquante située dans l'espace entre les galaxies ce qui constitue une découverte vraiment intéressante.

Nous savons maintenant que les ‘FRB’s’ proviennent d'environ la moitié de l'univers, mais nous ne savons toujours pas ce qui peut les provoquer pas plus de quelles galaxies ils proviennent.

Le prochain défi de l'équipe est de localiser la provenance de ces ‘éclats’ dans le ciel.

 "Nous serons en mesure de localiser ces ‘éclats’ à mieux d'un millième d’un degré, " nous précise R. Shannon.

 "C'est à peu près la largeur d'un cheveu humain vu à dix mètres de distance, et assez précis pour relier chaque éclat à une galaxie particulière. "

L’ensemble des moyens d’observations est situé à l’Ouest de l’Australie et constitue un élément précurseur du ‘SKA’ : ‘Square Kilometer Array’ ; ‘le Réseau (d’antennes) sur un Kilomètre Carré’.

                        --------------------------------------------------------------------------

ANITA détecte un autre nouvel événement ressemblant à un rayon cosmique inversé.

Une fontaine de particules de haute énergie ressemblant à une cascade de rayons cosmiques à l'envers est détectée pour la deuxième fois par l'’Antenne Transitoire Impulsionnelle de l'Antarctique’ : ‘ANITA’. 

Le recensement de ce deuxième événement en 13 ans conduit à conjecturer sur ce que cela peut bien signifier.

Nous savons que les particules de rayons cosmiques à haute énergie bombardent constamment la terre. Quand une de ces particules entre en collision avec les molécules dans notre atmosphère, elle déclenche une cascade de particules secondaires, collectivement connues sous le nom de cascade atmosphérique de rayon cosmique. Mais ce n'est pas la seule façon dont les particules de haute énergie interagissent avec la terre. Ainsi le 28 décembre 2006, l'antenne transitoire impulsionnelle de l'Antarctique (ANITA) a détecté une cascade atmosphérique « ascendante » : une fontaine de particules de haute énergie qui surgissait du sol glacial de l'Antarctique. L'équipe signale maintenant l'observation d'un deuxième événement de ce type, qui s'est produit le 12 décembre 2014.

ANITA a été conçue pour détecter les cascades atmosphériques à rayons cosmiques via les signaux radio-ondes qu'elles émettent. ANITA détecte les ondes radio soit sur leur chemin vers le bas ou, plus fréquemment, sur leur chemin de retour vers le haut après avoir rebondi sur la glace. Ce rebond inverse la phase des ondes radioélectriques, permettant de distinguer les deux séries de vagues par leur direction et leur phase (sic).

Mais en 2006 et en 2014, ANITA a détecté un signal inattendu : des ondes radioélectriques provenant de la glace avec une phase non inversée. Ces détections suggèrent que les signaux provenaient de particules en mouvement ascendant ayant traversé la Terre avant de surgir de la glace. Mais il n’est pas envisagé que les rayons cosmiques puissent le faire en grand nombre, laissant ainsi planer le mystère sur la source de ces signaux. Une possibilité serait que les rayons cosmiques d'une supernova brillante soufflent leur chemin à travers le globe terrestre. Mais seulement la détection de 2014 a coïncidé avec un tel événement. Une autre possibilité serait que ANITA ait détecté des ondes radio émises provoquées par une particule non comptabilisée au sein du modèle standard.

L'équipe d’ANITA nous dit que d'autres détections de ces signaux bizarres sont nécessaires avant de produire une conclusion définitive quant à leur origine. Toutefois une discussion scientifique est ouverte et un article de A. Cho sur le site de Nature l’anime :

A première vue, que des signaux aient été produits par des cascades atmosphériques par un déploiement ascendant et déclenchées par des particules qui ont traversé la Terre comme dans un tunnel, ce n'est pas un problème pour le modèle standard car les neutrinos interagissent à peine avec la matière, donc quelques neutrinos cosmiques pourraient avoir fusé à travers la planète avant de percuter un noyau atomique dans la glace et enclencher une cascade atmosphérique ascendante.

Cependant, lorsqu'on l'examine en détail, cette explication s'effondre, arguent D. Fox et ses collègues. Étant donné les directions des cascades, les particules qui les ont produites doivent avoir parcouru plus de 5700 kilomètres de la Terre, estiment les chercheurs. Cependant, les grandes tailles des cascades montrent que les particules auraient dû avoir eu des énergies supérieures à 0,5 exa-électron volts (1 exa = 1018 eV = 106 TeV) soit 70.000 fois l'énergie obtenue avec l'accélérateur de particules le plus puissant. Une telle énergie extrême augmente la probabilité que les neutrinos interagissent au cours de leur traversée du globe terrestre, donc il n'y a aucune chance qu'un tel neutrino avec une telle énergie puisse traverser sans interagir avec de la matière terrestre durant son parcours.

Ces événements sont plus facilement expliqués par de la nouvelle physique, nous disent les chercheurs. Un rayon cosmique ultra-haute énergie sur le côté lointain de la Terre aurait pu donner naissance à un nouveau type de particule, environ 500 fois plus massive que le proton, qui a percé la planète avant de se décomposer pour produire une cascade atmosphérique ascendante, disent-ils. Un cadre théorique appelé la supersymétrie offre des candidats qui feraient l'affaire, nous dit D. Fox. Il ajoute que l'interprétation reçoit également un certain soutien de la part de l’équipe d'IceCube : un gigantesque éventail de détecteurs de particules enfouis dans la glace de l'Antarctique, qui voit régulièrement des signaux, certes plus faibles, d'événements ascendants inhabituels.

Toutefois D. Besson : membre de l’équipe d’ANITA refuse de signer l’article qui émet des conclusions hâtives : « Ma position personnelle est que nous faisons trop de ces événements qui dépendent complètement d'un argument de polarisation.

Partager cet article

Repost0
18 décembre 2018 2 18 /12 /décembre /2018 04:54

Ne pas tomber dans la facilité ni dans le trou noir

            J’aurais pu intituler cet article : ‘Troublant’ mais cela aurait été trop facile, bien que cela le soit néanmoins car il s’agit de cerner ce que serait un trou noir, ce qu’il advient au sein d’un trou noir et quel est le futur d’un tel objet. Peut-être faut-il utiliser le pluriel car il se pourrait que suivant leurs masses et leurs dynamiques propres (en rotation ou non, actif ou passif) les paramètres qui les caractériseraient seraient notablement différents.

            Toutes ces questions se posent maintenant que nous disposons de quelques informations depuis que nous avons détecté les ondes gravitationnelles correspondant à dix collisions-fusions de vingt trous noirs. Ces informations sont pauvres car ce que les interféromètres ont enregistré ne sont que des tremblements de l’espace-temps très atténués arrivés sur la planète Terre après avoir parcouru des milliards d’année-lumière.

            Heureusement, il y eut entre-temps un enregistrement d’ondes gravitationnelles provoqué par la fusion de deux étoiles à neutrons. Or, il fut accompagné d’autres informations car ces objets célestes appelés aussi ‘Pulsars’ lorsqu’ils émettent du rayonnement de façon très cadencée, ont à l’occasion de leur fusion émis des rayons gammas, et d’autres rayonnements électromagnétiques sur des longueurs d’ondes différentes. De plus cette fusion a provoqué des réactions nucléaires observables (avec production d’éléments lourds comme de l’or, du platine, du césium). C’est exactement ce que l’on appelle un événement multimessages. Donc la fusion de pulsars semble se produire avec la mise en évidence de propriétés de la matière en collision que nous décryptons assez aisément.

            Une étoile à neutrons correspond à un état d’équilibre de la matière subissant une très, très, forte interaction gravitationnelle depuis son centre, avant qu’éventuellement elle ne devienne un trou noir. Sa densité de matière est de l’ordre de 107 T/litre. Lorsqu’intervient une raison qui annule cet état d’équilibre (par ex. : captation de matière dans l’environnement), elle devient trou noir qui nous apparait comme un état d’équilibre final. Dans ce cas on ne plus parler de densité de matière puisqu’elle tend vers l’infini et on ne sait rien de ce qu’il advient de la matière. On pourrait penser que dans ce cas la matière est de plus en plus compressée, mais cette hypothèse est difficilement soutenable puisqu’impossible à constater.

L’hypothèse de l’existence de trous noirs est justifiée par la loi de la Relativité Générale et plus particulièrement avec la singularité mathématique (terme devenant infini dans une certaine condition numérique par ex : l’inverse de zéro) que l’on rencontre en utilisant la métrique de Schwarzschild. Quand de la matière ou d’autres aspects de l’énergie se trouve capturée par un trou noir au niveau de ce que l’on appelle l’horizon du trou noir dont son rayon est justement le rayon de Schwarzschild qui provoque la singularité, proportionnelle à sa masse, et bien celle-ci ne peut tendre que vers le centre de ce trou noir à cause d’une interaction gravitationnelle de plus en plus élevée et puis… qu’en est-il de la matière ou de l’énergie originelle.

Stricto-sensu, la relativité générale nous dit qu’un trou noir formé est éternel, et donc les physiciens théoriciens très croyants en leurs équations mathématiques affirment qu’au centre de cet objet il y a rupture temporelle et spatiale et c’est vide. Même si mathématiquement on est obligé de l’admettre, c’est physiquement difficile de comprendre comment la matière ou l’énergie constitutive a pu disparaître. Globalement on peut considérer que l’hypothèse du trou noir est une hypothèse de la physique classique car on doit considérer que la loi de la relativité générale est fondée sur des hypothèses classiques dans le sens où elles ne comprennent aucune de celles relatives à la mécanique quantique. Ce n’est qu’après coup, comme l’a fait, par exemple, S Hawking, que l’on ajoute des hypothèses quantiques pour enrichir quelques aspects phénoménologiques possibles sur ces objets. C’est ce que nous propose Carlo Rovelli pour mettre en avant son hypothèse que les trous noirs ont un avenir en devenant des trous blancs.

Je développe ci-après cet aspect des choses mais avant tout il faut rappeler que la loi de la relativité générale contient cette solution mathématique pour cause de symétrie de renversement du temps classique ce qui fut constaté très rapidement dans les années 1920 mais solution qui n’a jamais été prise au sérieux d’un point de vue de la physique. N’oublions pas que ce fut identique pour la solution trou noir pour cause de singularité. Einstein lui-même n’accordait aucun crédit à cette chose qui lui apparaissait comme une impureté des équations mathématiques. 

Carlo Rovelli, directeur de recherche à l’université d’Aix-Marseille a publié un premier article le 10/12 sur le site Physics.aps.com : ‘Black Hole Evolution Traced Out with Loop Quantum Gravity.’ ; ‘l’évolution du trou noir suivie avec la gravité quantique à boucle’.

« La gravité quantique à boucle – une théorie qui étend la relativité générale en quantifiant l’espace-temps – prédit que les trous noirs évoluent en trous blancs. »

« Les trous noirs sont de remarquables entités. D’un certain point de vue, ils sont devenus maintenant des objets astrophysiques familiers qui ont été observés en grands nombres et de façons multiples ; nous avons l’évidence de trous de masse stellaire dansant autour d’une étoile compagnon, de gigantesques trous au centre des galaxies attirant de la matière au sein de disques en spirales, et des paires de trous noirs fusionnant dans un jet d’ondes gravitationnelles. Tout ceci est remarquablement rendu compte par l’ancienne théorie d’Einstein centenaire de la relativité générale. Mais d’un autre point de vue, les trous noirs restent hautement mystérieux. Nous observons la matière tomber dans son intérieur, mais nous sommes dans l’obscurité à propos de ce qu’il advient de cette matière quand elle atteint le centre de ce trou.

« … Abhay Ashtekar, Javier Olmedo et Parampreet Singh viennent de franchir une étape qui répond à cette question. Ils ont montré que la gravité quantique à boucle — une théorie candidate pour fournir une description quantique de la gravité — prédit que l'espace-temps continue à travers le centre du trou dans une nouvelle région qui existe dans le futur et qui a la géométrie de l'intérieur d’un trou blanc. Un trou blanc est l'image par le temps inversé d'un trou noir : en elle, la matière ne peut que se déplacer vers l'extérieur. Le passage "à travers le centre" dans une région future est contre-intuitif ; Il est possible grâce à la forte distorsion de la géométrie spatio-temporelle à l'intérieur du trou qui est permise par la relativité générale. Ce résultat repose sur une hypothèse en cours d'investigation par de nombreux groupes de recherche : l'avenir de tous les trous noirs pourrait être de se convertir en vrais trous blancs, d'où la matière qui est tombée à l'intérieur peut rebondir. Cependant, les théories existantes n'ont pas été en mesure de montrer pleinement un moyen pour que ce rebond se produise. Puisque la gravité quantique à boucles parvient à le faire, cela indique que cette théorie a suffisamment mûri pour s’attaquer aux situations du monde réel (sic).

La raison pour laquelle nous sommes dans l'obscurité sur les aspects de la physique du trou noir est que les phénomènes quantiques dominent au centre et dans l'avenir de ces objets. La relativité générale classique prédit qu'un trou noir vit à jamais et que son centre est une « singularité » où l'espace et temps finissent. Ces prédictions ne sont pas réalistes car elles ne tiennent pas compte des effets quantiques. Pour lutter contre ces effets, nous avons besoin d'une théorie quantique de la gravité. Nous n'avons pas encore de consensus (sic) sur une telle théorie, mais nous avons des candidats, dont certains ont maintenant atteint le point de permettre des calculs réels sur le comportement quantique des trous noirs. La gravité quantique à boucles, qui a une structure conceptuelle propre et une formulation mathématique bien définie basée sur la représentation du tissu de l'espace comme un réseau de spin qui évolue dans le temps, constitue une telle théorie.

Approximativement parlant, le phénomène complet est analogue à celui du rebondissement d'une balle. Une balle tombe au sol, rebondit, puis se déplace vers le haut. Le mouvement ascendant après le rebond est la version inversée de la balle qui tombe. De même, un trou noir "rebondit" et il émerge lorsque le temps s’inverse : un trou blanc. L'effondrement de la matière ne disparaît pas au centre : elle rebondit à travers le trou blanc. L'énergie et l'information qui sont tombées dans le trou noir émergent du trou blanc. La configuration où la compression est maximale, qui sépare le trou noir du trou blanc, est appelée « étoile de Planck[1] ». En raison de la distorsion énorme du temps permise par la relativité, le temps de la production de ce processus peut être court (microsecondes) lorsqu'il est mesuré à l'intérieur du trou, mais long (milliards d'années) lorsqu'il est mesuré à l'extérieur[2]. Les trous noirs peuvent être des étoiles rebondissantes vues dans un ralenti extrême. »

Ensuite C. Rovelli tente de nous convaincre qu’il sera peut-être possible de vérifier par les voies de l’observation des ‘Fasts Radios Bursts’ (FRBs), ou de certains rayons cosmiques de très hautes énergies, que cette thèse des trous blancs est crédible. Ensuite il ajoute un zest de matière noire. On n’infère rien de probant à propos de ces sujets et de ces phénomènes, alors ajouter de l’inconnu à ce qui n’est que théorique depuis plus de vingt ans sans qu’il y ait le moindre indice d’une prédiction positive n’enrichit pas nos capacités de compréhension de ce qui se fabrique dans notre univers.

Ce qui est certain c’est que la détection des ondes gravitationnelles constitue un énorme progrès mais même avec l’augmentation prévisible à assez court terme de ces détections si on n’arrive pas à décrypter plus subtilement les ‘chirps’[3] obtenus, on va faire du surplace quant à la compréhension de la phénoménologie qui advient dans les trous noirs. On peut conjecturer, étant donné que l’état de trou noir est un état d’équilibre, en tous les cas pour ceux dont on a enregistré la fusion, que durant le processus de la fusion cet équilibre interne respectif, aujourd’hui insondable, n’est plus, et en conséquence la matière des deux trous noirs telle que nous la connaissons, à nouveau s’exprime furtivement d’une façon ou d’une autre. Par exemple par des fusions nucléaires inédites, par des rayonnements exceptionnels et cela pourrait peut-être se voir dans l’analyse poussée de la structure du ‘chirp’.

Les ondes gravitationnelles nous informent partiellement sur l’espace-temps dans lequel évolue les trous noirs, mais c’est une information sur leur environnement très proche. Il est souhaitable que nous ayons l’ambition de trouver le(s) biais par le(s)quel(s) on pourra progressivement, même si c’est pour la durée d’un éclair, obtenir des indices sur ce qui se joue à l’intérieur d’un trou noir en général. Ainsi n

 

[1] Lorsqu’une étoile cesse de s'effondrer, parce que la densité de matière a atteint la densité de Planck, la gravitation devient répulsive, de sorte que le trou noir stellaire explose en un trou blanc.

[2] Le tic-tac d’une horloge ralentit lorsque dans son voisinage le champ gravitationnel augmente, au cœur du trou noir ce ralentissement atteint son paroxysme au point qu’avec l’horloge en dehors du trou noir il y ait ce rapport de contraction de l’écoulement du temps comme évoqué par Rovelli. Ce résultat de la variation de l’écoulement du temps fonction de l’amplitude du champ gravitationnel est celui de la relativité générale et son essence se trouve explicitée par les tirets de : ‘Matière-Espace-Temps’ qui marquent cette interdépendance.

[3] On appelle ‘chirp’, ce signal, très éphémère, ondulant que l’on obtient sur les interféromètres qui pourrait simuler le son ‘chirp’.

Partager cet article

Repost0
9 décembre 2018 7 09 /12 /décembre /2018 12:15

Le syndrome de l’oiseau-lyre

            A la fin d’octobre un article dans le New Scientist annonçait : ‘Doutes graves sur les ondes gravitationnelles découvertes’, par le détecteur LIGO, produites par la fusion de deux trous noirs. Le 15 octobre 2015, l’interféromètre LIGO (situé aux Etats Unis) avait réalisé cet enregistrement et la publication officielle de ce résultat fut assurée en février 2016 après de long mois d’auscultation et de traitement du signal enregistré afin de garantir une valeur scientifique à l’événement.

            Ce fut avec beaucoup de stupeur quand le doute fut publiquement instillé, 2 ans et ½ après, par une équipe de chercheurs de l’Institut Niels Bohr de Copenhague. Ils instillèrent l’idée que l’équipe de LIGO avait exploité une technique « autoréalisatrice ». Ce type d’équivoque n’est pas impossible, surtout quand il s’agit d’une première détection annoncée comme théoriquement possible depuis plus d’un siècle. Mais après lecture de l’article démolisseur, je n’avais pas été convaincu par les arguments semant le doute car il y avait un mélange d’arguments critiquant la méthode avec d’autres qui semblaient chercher la petite bête et donc non recevables. Le risque d’une technique autoréalisatrice n’est pas négligeable car préalablement à la détection et à la publication ont été simulés tous les cas de figures de fusion de trous noirs à toutes les distances possibles de la terre. Cette base de données constituée pendant une dizaine d’années a été réalisée en exploitant les équations de la Relativité Générale, seul outil théorique actuellement à notre disposition. Cette base de données est riche de tous les ‘signaux calibres’ de vibrations possibles de l’espace-temps engendrées par la fusion de trous noirs. Et c’est lorsqu’il y a une très bonne superposition entre le signal enregistré par l’instrument et celui de la base de données que l’on considère être face à un événement réel doté des paramètres publiés. Est-ce suffisant ? pas tout à fait car après tout, un signal peut avoir un certain nombre de caractéristiques qui font penser à… sans qu’il soit pour autant à ce que l’on pense.

            Heureusement, il y eut un autre événement bien plus riche en informations reçus par plusieurs détecteurs de natures différentes. Cela s’est produit le 17/08/2017 et cet événement a correspondu à une fusion de 2 étoiles à neutrons. Cette fusion a produit en plus de la vibration gravitationnelle (vibration de l’espace-temps), des flashs de lumière avec des longueurs d’onde différentes et leurs propagations ont été réceptionnées par plusieurs télescopes alertés de cette occurrence et de plus l’observation d’une fusion nucléaire éphémère a été constatée. Cet événement multimessages a en même temps, évidemment, fiabilisé les résultats précédents obtenus par LIGO. Enfin, et c’est très important, cette fusion peut être situé spatio-temporellement avec une très grande précision ce qui permet d’organiser un suivi des phénomènes secondaires.

Malgré la valeur nouvelle et renforcée, à cette occasion, à la fois du résultat, de la fiabilité de l’instrument, de la technique et de la méthode du travail de l’équipe LIGO, l’équipe de Copenhague continue de maintenir ses griefs.

Pendant ce temps, une équipe Australienne avec d’autres, a obtenu de réanalyser toutes les données enregistrées par LIGO en 2017 et grâce à des techniques de calcul encore améliorées, et après 15 mois de recherche, d’auscultation méticuleuse des données, elle a découvert 4 fusions supplémentaires de trous noirs enregistrés entre fin juillet et fin aout 2017 (sic). Dont l’une est phénoménale (29/07/2017) puisque le trou noir résultant est de 80 masses solaires avec la conversion instantanée de 5 masses solaires en une énergie qui a violemment secoué l’espace-temps environnant et donné naissance aux ondes gravitationnelles qui ont commencé à se propager. Il a été aussi calculé que la fusion s’est produite il y a plus de 5 milliards d’années, soit avant que notre propre système solaire ne se forme dans la Voie Lactée. Les trois autres fusions de trous noirs ont été détectées entre le 9 et le 23 Août 2017 situées entre 3 à 6 milliards d’années et produisant des trous noirs finaux avec une masse de 50 à 60 fois celle de notre soleil. Avec l’observation de ces phénomènes on rencontre une parfaite illustration du paradigme explicite inscrit dans la loi de la Relativité Générale : Matière (énergie) – Espace – Temps, les traits d’unions rappellent l’interdépendance entre la matière, l’espace et le temps.

On peut s’étonner de cette fréquence de fusions de trous noirs, puisqu’avant octobre 2015 on n’avait jamais rien observé, et les chercheurs de Copenhague exploitent cette situation pour étayer leurs arguments qui expriment un doute négatif car pour eux ce serait la preuve de la détection de bien d’autres sources de vibrations (par ex. tremblement de terre ou autres secousses dans l’espace). On peut aussi avoir un sentiment de doute… mais positif car il n’est pas impossible qu’au bout du compte il y ait dans l’univers un tel tumulte d’événements cataclysmiques. C’est un avenir proche qui nous le dira car nous sommes encore dans la préhistoire de la détection des ondes gravitationnelles. Plusieurs autres détecteurs (3) sont en cours de construction et lorsqu’ils seront mis en réseau cela permettra d’obtenir d’excellents progrès.

La publication de ces résultats tout neufs du 4/12, s’est faite avec précaution, avec force d’arguments et de pédagogies. Un tableau récapitulant les 11 signaux significatifs enregistrés par LIGO depuis 2015 a été publié. La méthode permettant d’annoncer ces résultats avec une grande fiabilité scientifique a été préalablement exposée à des pairs au cours d’ateliers de travail. C’est tout bénéfice pour nous parce que l’équipe LIGO est obligée de fournir des informations plus complètes qui justifient leurs annonces sous la pression de ceux qui les contestent.

Un article de David Blair datant du 04/12 est révélateur de cette volonté de rendre publique tout le contexte dans lequel l’équipe travaille afin d’écarter toute publication d’un fait alors qu’il ne serait qu’une illusion. J’en propose une traduction partielle ci-après :

« Ainsi quel est notre degré de confiance lorsque nous détectons des ondes gravitationnelles et que ce n’est pas une illusion ?

Tous les bons scientifiques comprennent que l’examen méticuleux et le scepticisme constituent le pouvoir de la science. Toutes les théories et les connaissances sont provisoires, elles évoluent au fur et à mesure d’un processus d’un meilleur accès à la vérité. Il n’y a aucune certitude, il y a seulement probabilité et signification statistique.

Il y a de nombreuses années, l’équipe de recherche de LIGO a calculé préalablement le niveau de signification statistique nécessaire pour faire l’annonce d’une détection.

Pour chaque signal nous déterminons le rapport de l’alarme qui serait erroné. Cela nous donne combien d’années nous avons besoin d’attendre avant qu’il y ait une chance d’un signal aléatoire imitant le signal réel. Le signal le plus faible détecté jusqu’à maintenant peut avoir une fausse alarme chaque 5 années, donc il y a toujours une chance qu’il aurait pu être accidentel.

Les autres signaux sont plus robustes. Pour les 3 plus forts signaux détectés jusqu’à maintenant on devrait attendre entre 1000 fois et des milliards de fois l’âge de l’univers pour qu’ils se produisent par chance !!

Savoir quoi écouter.

La détection des ondes gravitationnelles est un peu semblable à de l’acoustique ornithologique. Imaginons que nous étudions les oiseaux et que nous voulions déterminer une population d’oiseaux dans la forêt. Nous connaissons le chant de chacune des espèces d’oiseaux.

Quand un chant d’oiseau correspond au chant prédéterminé, nous sommes satisfaits. Sa force nous dit à quelle distance il se trouve. S’il est très faible à l’égard du bruit de fond nous sommes incertains.

Mais de toute façon nous devons considérer l’oiseau lyre qui imite les autres espèces. Comment savons-nous que le chant du Kookaburra n’est pas produit par l’oiseau lyre ? Nous devons être très rigoureux avant de déclarer qu’il y a un kookaburra dans la forêt. Malgré cela nous devons être en confiance si nous faisons de nouvelles détections.

Dans le cas des ondes gravitationnelles nous utilisons des sons mémorisés appelés gabarits. Il y a un unique son pour la fusion de chaque combinaison des masses et des rotations possibles de trou noir. Chaque gabarit est créé en utilisant la théorie d’Einstein de l’émission des ondes gravitationnelles.

Pour éviter que des signaux nous échappent ou pour éviter d’annoncer des faux positifs enregistrés, la plus grande rigueur est nécessaire pour analyser les données. Des équipes importantes scrutent les données, cherchent les défauts, se critiquent entre elles, vérifient les codes informatiques et finalement revoient les publications pour plus de précisions. Les équipes séparées utilisent des méthodes différentes d’analyses et finalement comparent leurs résultats.

Avant que LIGO fasse sa première annonce publique, 2 signaux supplémentaires avaient été détectés d’une façon crédible. Ceci avait augmenté notre confiance et nous indiqua qu’il y avait une population de trous noirs qui entraient en collision dans le cosmos. Le premier était si correspondant à un gabarit, mais faible, que nous avons passé beaucoup de temps à nous assurer que ce n’était pas un hacker qui nous avait délibérément joué un mauvais tour.   

Notre bilan : pour chaque signal nous avons déterminé la masse des deux trous noirs entrant en collision, la masse du nouveau trou noir créé, et assez approximativement la distance et la direction de la collision.

Huit des 20 trous noirs initiaux ont des masses entre 30 et 40 masses solaires, six sont dans la vingtaine, trois dans l’adolescence et seulement deux sont dans les 7 à 8 masses solaires. Seulement un est proche des 50, le plus gros des trous noirs jamais détecté.

LIGO et VIRGO (interféromètre Européen situé en Italie mais n’ayant jusqu’à présent aucune autonomie de détection) améliorent leur sensibilité respective année après année et trouveront beaucoup plus d’événements à partir d’avril 2019, lorsqu’ils seront à nouveau en état de fonctionner. Avec d’autres nouveaux détecteurs en construction nous anticipons une sensibilité dix fois plus grande. Alors nous espérons être en mesure de détecter des signaux à peu près chaque 5 minutes(sic). »

Partager cet article

Repost0
5 décembre 2018 3 05 /12 /décembre /2018 10:06

Cette particule qui focalise nos ignorances persistantes sur les neutrinos.

Les physiciens nomment cette particule : le neutrino stérile. Peut-être que cette particule existe ou n’existe pas. Selon mon point de vue elle est très certainement le foyer de la convergence de toutes les ignorances accumulées en ce qui concerne les neutrinos dès le premier acte de création de ceux-ci en 1930 par W. Pauli. Ignorances qui se sont accumulées parce que dès qu’il y avait une hypothèse à formuler à leur propos, elle l’était toujours dans le cadre du modèle standard en cours de conception et en aucun cas elle n’était appropriée. De fait, cette hypothèse ajoutait de l’ignorance. Je crois que la plus néfaste est celle qui malheureusement fait presque l’unanimité chez les physiciens : puisqu’il y a oscillation des saveurs entre les trois neutrinos, alors ils sont dotés d’une masse d’inertie. Effectivement, nous disposons des moyens mathématiques pour rendre compte de cette oscillation en leur attribuant une mi mais c’est là le recours à une facilité qui a un coût très élevé. Je considère que les neutrinos sont les vecteurs d’une autre physique c’est-à-dire que tant que l’approche des propriétés physiques des neutrinos est pensée dans le cadre du modèle standard elle est totalement biaisée.

Cet article fait suite à celui du 24/07/2018 et comme vous pouvez le constater les énigmes s’accumulent. C’est une bonne raison pour garder un contact étroit avec celles-ci car c’est de cette façon que finira par surgir l’eurêka : « Mais oui ! mais c’est bien sûr »

Dans cet article je fais plusieurs références à celui du 21/11/2018 dans le NewScientist, « Comment une particule oubliée, fantôme, pourrait sauver la physique. » ; « Il y a plusieurs années, elle fut théorisée, mais jamais observée. Maintenant il semble que le neutrino stérile pourrait fixer les failles de la physique fondamentale – si seulement on pouvait l’observer. »

            Attribuer aux neutrinos la propriété de se transformer l’un dans l’autre résout le problème du neutrino solaire, mais d’autres mystères restent. Le plus vexant de ceux-là datent des années 1990, quand une expérience appelée : « Liquid Scintillator Neutrino Detector (LNSD), à Los Alamos, New Mexico » a trouvé que les antineutrinos muoniques oscillaient en des antineutrinos électroniques plus rapidement que prévu. Ce résultat a été confirmé par une deuxième expérience, MiniBooNE, qui a fonctionné au Fermilab, Illinois, de 2002 à 2017.

            Soit ces expériences sont marquées par le même défaut, ou bien quelque chose de plus profond se produit. « L’anomalie : LNSD/MiniBooNE est un mystère authentique ».

            Une autre base de résultats confondants est fournie par la désintégration radioactive dans les réacteurs nucléaires. Un peu comme dans le soleil, cette désintégration est une très grande source de neutrinos. Pour une raison inexplicable, les réacteurs nucléaires sur terre fournissent de l’ordre de 6% moins d’antineutrinos électroniques que ne le prédit le modèle standard.

            Donc : trop d’antineutrinos électroniques produit d’un coté et pas assez de l’autre. Qu’est-ce qui se passe sur la terre ?

            C’est là où le neutrino stérile intervient. Au lieu d’un trio net de neutrinos, l’idée est d’en inventer un quatrième, de saveur ‘stérile’ mais capable de se confondre par oscillation avec les trois autres. Cela est une gageure sachant que les neutrinos des trois générations : électronique, muonique, tauique, sont partie prenante du modèle standard, en même temps ce nombre continue d’être un mystère mais inventer une nouvelle génération ou bien considérer que le neutrino stérile est une anomalie isolée, assure la pérennité du casse-tête.

            Contrairement à ses jumeaux, qui eux interagissent via l’interaction faible, le neutrino stérile ressentirait seulement l’interaction gravitationnelle. L’idée a été proposée en 1958 par B. Pontecorvo, comme une possibilité pour les neutrinos de se transformer en antineutrinos. Mais la stérilité de cette particule proposée signifie qu’il serait presque indétectable. Son intérêt a donc rapidement faibli, jusqu’à ce que les anomalies le réactivent.

            La logique commande que les expériences MiniBooNE et LSND voient plus de neutrinos électroniques que prédits parce que les neutrinos stériles supplémentaires se désintègrent dans cette sorte. Et la raison pour laquelle les réacteurs en produisent moins s’explique du fait que les neutrinos électroniques se seraient désintégrés en la contrepartie stérile.

            Convoquer l’existence du neutrino stérile pourrait aussi bien exorciser un bon nombre d’autres problèmes. Les masses des neutrinos sont minuscules, plus d’un million de fois plus faible que l’électron (sic). Les raisons de cet écart sont inconnues, mais un quatrième plus massif pourrait offrir une solution. Via un processus reconnu comme le mécanisme de seesaw (balançoire), sa masse accrue conduirait les masses des autres vers le bas, comme pour les tout-petits qui montent et descendent sur une balançoire.

            Les mêmes particules ont été proposées en tant que candidats plausibles de la matière noire (sic). D’autres physiciens disent que le(s) neutrino(s) stérile(s) pourraient résoudre la question du : pourquoi l’antimatière, produite en quantité égale avec la matière, au début de l’univers, a maintenant complètement disparue. Si cela était ainsi : trois casse-têtes de la physique seraient résolus grâce à une seule théorie.

            Hélas, rien de ce qui implique le neutrino n’est simple.

            A chaque expérience suggérant des signaux d’un neutrino stérile, il y a une autre indication qui nous conduit à sa non-existence. Le plus concerné par cette situation est l’univers lui-même : l’arrangement présent des étoiles et des galaxies, et les faibles échos survivant du big bang. Comme le confirme le physicien Raymond Volkas (université de Melbourne) : « Si des neutrinos stériles ont existé et ont traversé l’histoire de l’univers, alors leurs présences auraient causé un cosmos avec une apparence différente que celle qui nous apparaît courante. »

            Il y a plus, l’anomalie relevée auprès des réacteurs a été récemment remise en question. Plusieurs expériences maintenant en fonctionnement placent les détecteurs de neutrinos plus près des réacteurs nucléaires qu’avant et favorisent en conséquence une plus précise disparition de l’antineutrino électronique. Bien que les analyses statistiques des données ne soient pas encore suffisantes, les résultats préliminaires suggèrent que les anomalies auraient disparues (sic).

            Les derniers résultats de MiniBooNE fournis au début de l’année, embrouillent les choses encore plus : Ils indiquent une anomalie plus importante qu’avant. Certains déclarent qu’il y a donc une forte évidence de l’existence de cette particule hypothétique. Mais si un neutrino stérile existe, le neutrino muonique ne devrait pas se transformer uniquement en neutrinos électroniques durant son parcours jusqu’au détecteur car certains devraient disparaitre aussi.  

            Jusqu’à présent la disparition du neutrino muonique n’a jamais été constaté. « Le récent renforcement de l’actuelle anomalie de MiniBooNE provoque une situation bien pire, parce que le signal d’apparition plus fort implique tout autant un signal de disparition plus fort. » nous dit R. Volkas.

            Durant les 15 années pendant lesquelles MiniBooNE était hors course, les physiciens ont organisé un bon nombre de petites expériences pour tenter de tester cette disparition explicitement. Une des plus importantes appelée MINOS+, est installée au Fermilab. Durant 10 ans celle-ci et ces prédécesseurs ont fonctionné et le neutrino muonique a résolument refusé de disparaître. Ceci pose des limites sévères ce sur quoi peut ressembler un quelconque neutrino stérile potentiel, si éventuellement il existe.

             Janet Conrad (MIT) nous dit que les expériences qui sont conformes à nos attentes comme MINOS+, sont historiquement moins examinées que celles comme LSND et MiniBooNE qui nous donnent des signaux non attendus. « Les limites appellent beaucoup moins d’examens que les anomalies. »

            Toutefois, ces temps-ci, Bill Louis, physicien au Fermilab a décidé de procéder à l’examen des résultats de MINOS+ et de la façon dont l’équipe les a analysés. La collaboration MINOS+ a travaillé très durement pour analyser les données. Ceci étant dit, il pense que des erreurs dans les données ont pu être négligées, conduisant l’équipe à éliminer les disparitions avec une grande certitude non justifiées.

            Le plus récent article de MINOS+ a dû attendre pour publication jusqu’à Octobre de l’année dernière, retardé pour inclure les résultats fournis par Louis. Bill Louis a recensé la moitié des problèmes évidents. L’équipe MINOS a travaillé avec Louis et d’autres et a affiné ses résultats.

Faisons le point : si les résultats de MiniBooNE et MINOS+ survivent après les examens approfondis, alors le neutrino stérile par lui-même ne tranchera rien. Nous avons besoin de quelque chose d’autre pour expliquer pourquoi la même particule provoque la survenance des neutrinos électroniques et muoniques, mais provoque uniquement la disparition des neutrinos électroniques. Quelques modèles théoriques inventent une nouvelle force qui pourrait résoudre le désaccord. Ou bien, peut être que nous n’avons pas besoin d’inventer quoi que ce soit au-delà du modèle standard. « Cela se pourrait qu’ainsi est la physique nucléaire, que nous ne comprenons pas bien. », dit J. Conrad.

Quand dans des expériences comme MiniBooNE sont cherchées des oscillations de neutrinos, la nature des oscillations dépend de l’énergie du neutrino observé dans le détecteur. Mais les neutrinos peuvent interagir avec d’autres particules sur leur trajet et changer leur énergie. Nous assumons que la plupart des neutrinos interagissent avec les neutrons libres dans le noyau atomique, mais quelques neutrinos peuvent aussi heurter une paire neutron proton, et ceci change la valeur de leur énergie. J. Conrad ajoute que nous ne comprenons pas encore complètement cet effet, donc nos analyses peuvent faire apparaître des oscillations alors qu’il n’y en a pas. Si c’était le cas, nous n’aurons pas besoin du neutrino stérile, mais tout simplement améliorer notre calcul.

Tandis que des théoriciens développent encore plus d’idées exotiques, les expérimentateurs cherchent, utilisant des détecteurs dans toutes les parties du monde, de la Russie au Royaume Unis, sous la glace de l’Antarctique, ils espèrent établir des liens plus étroits sur la disparition du neutrino muonique et le neutrino électronique, tout aussi bien la fréquence avec laquelle l’un oscille dans l’autre. Il va falloir attendre plusieurs années.

La vie secrète des muons.

Les neutrinos ont toujours été les moutons noirs de la famille des particules fondamentales. Ils apparaissent sous trois saveurs, chacune est associée à son cousin plus massif appelé électron, muon et tau. Ces particules plus massives (leptons) sont connues depuis longtemps mais il semble que le muon possède un secret très profond.

En 2001, une expérience au Brookhaven National Lab. à New York a mesuré un moment magnétique du muon excessif par rapport à la prévision théorique. Des expériences plus sensibles sont prévues l’année prochaine. De même au CERN des anomalies sont signalées dans la désintégration du méson Beau qui devrait se désintégrer également en muons et en électrons ce qui n’est pas le cas, il y a moins de désintégrations en muons. Ces deux anomalies pourraient être connectées !!!

P. S. extrait d’un cours enseigné, il y a 15 ans

Les neutrinos, curiosités de la physique depuis 1930 jusqu’à aujourd’hui.

              1920                                                1940                             1960                         1920                          1930                         1938              1956                   1964

           A. Eddington propose       Wolfang Pauli postule   Hans Bethe analyse les      F. Reines, Cl. Cowan    J. Bacall calcule  une origine thermonucléaire               l’existence d’1particule      processus nucléaires         sont les premiers à         le flux théorique pour rendre compte     nouvelle le neutrino : ν        qui prévalent dans le       détecter des ν émis par      des ν solaires. de l’énergie du soleil.                                                                        cœur du soleil.                  un réacteur nucléaire.                    

 

                                                             1980                                   2000

1967               1969                              1978 et 1985                1998                   2002              2002

R. Davis              Vl. Gribov et              ST. Mikheyev, A. Smirnov      L’expérience de     L’expérience du    L’expérience

réalise la 1er         B. Pontecorvo           indiquent que les                         Super-Kamiokande    SNO apporte la    Kamland détecte

mesure du flux    proposent le méca-     interactions des ν et de                   confirme les            preuve des       les oscillations

des ν solaires.   nisme des oscillations    la matière  intensifient            oscillations des ν     oscillations des νe      d’anti-ν produits

                             pour expliquer le                 les oscillations.                produits au sein du    émis par le soleil.   ds les réacteurs.

                             déficit des ν solaires.                                                             cosmos.

 

                         

   

Partager cet article

Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens