Overblog
Suivre ce blog Administration + Créer mon blog
14 janvier 2019 1 14 /01 /janvier /2019 17:30

‘The Blind Spot’ ; ‘La Tache Aveugle’

Ceux qui lisent régulièrement mes articles sur le blog comprendront aisément pourquoi j’ai décidé de poster la traduction de l’article ci-dessous que j’ai découvert sur le site de Nature le 9/01/2019. La traduction par mes soins est directe et sans commentaire. Je proposerai dans un prochain article mes propres commentaires car ils me permettront de mieux ancrer certaines de mes propres hypothèses. Cet ancrage est possible parce qu’il y a des similitudes fortes entre les auteurs américains et les hypothèses que je propose depuis de nombreuses années. Dès qu’il y a partage d’hypothèses, il se met en place un processus de confiance intérieure qui conforte la ligne directrice de celles que je propose, surtout lorsqu’elles sont iconoclastes par rapport à la ligne dominante, et donc nourrit un élan pour développer et enrichir le chantier entrepris.

            Attention car le titre de l’article en anglais est ‘The Blind Spot’ qui pourrait se traduire par la ‘Le Point Aveugle’, mais cela n’a rien à voir avec mon hypothèse du ‘Point Aveugle de l’Intelligence Humaine’. Toutefois, je partage le cadre dans lequel, ils émettent leur propre hypothèse du ‘Blind Spot’. Disons qu’il y aurait chez les penseurs du monde physique un deuxième point aveugle, celui-ci permanent, que les physiciens ne peuvent voir tant qu’ils conserveront leur conception actuelle de la relation avec le monde physique. C’est un problème d’interface.

            Les auteurs de l’article de ‘Nature’ sont :

Adam Frank

is professor of astrophysics at the University of Rochester in New York. He is the author of several books, the latest being Light of the Stars: Alien Worlds and the Fate of the Earth (2018).

Marcelo Gleiser

is a theoretical physicist at Dartmouth College in New Hampshire, where he is the Appleton professor of natural philosophy and professor of physics and astronomy, and the director of the Institute for Cross-Disciplinary Engagement (ICE). He is the author of The Island of Knowledge (2014).

Evan Thompson

is professor of philosophy and a scholar at the Peter Wall Institute for Advanced Studies at the University of British Columbia in Vancouver. He is a Fellow of the Royal Society of Canada. His latest book is Waking, Dreaming, Being (2015).

La Tache Aveugle.

Il est tentant de penser que la science donne une vue de Dieu de la réalité. Mais nous oublions la place de l'expérience humaine à nos risques et périls.

Le problème du temps est l'un des plus grands problèmes de la physique moderne. Le premier élément de l'énigme est cosmologique. Pour comprendre le temps, les scientifiques proposent de considérer une « première cause » ou « condition initiale » - une description de l'univers au tout début (ou au « temps est égal à zéro »). Mais pour déterminer la condition initiale d'un système, nous avons besoin de connaître le système total. Nous devons faire des mesures des positions et des vitesses de ses parties constituantes, telles que les particules, les atomes, les champs et ainsi de suite. Ce problème nous confronte à un ‘mur dur’ (impasse) lorsque nous traitons avec l'origine de l'univers lui-même, parce que nous n'avons pas de vue extérieure, nous n’avons aucune possibilité de recul. Nous ne pouvons pas sortir de la boîte afin de regarder à l'intérieur, parce que la boîte est tout ce qu'il y a. Une première cause est non seulement inconnaissable, mais aussi scientifiquement incompréhensible.

La deuxième partie du défi est philosophique. Les scientifiques ont pris le temps physique comme le seul temps réel - alors que le temps de l’expérience, le sens subjectif du temps qui passe, est lui, considéré comme une fabrication cognitive d'importance secondaire. Le jeune Albert Einstein a pris cette position claire au cours du débat avec le philosophe Henri Bergman dans les années 1920, quand il a affirmé que le temps du physicien est le seul temps qui soit. Avec l'âge, Einstein est devenu plus circonspect. Jusqu'au moment de sa mort, il resta profondément troublé à propos de la façon de trouver une place pour l'expérience humaine du temps compatible avec la vision scientifique du monde.

Ces dilemmes reposent sur la présomption que le temps physique, avec un point de départ absolu, est le seul temps à considérer dans la réalité. Mais que faire si la question du commencement du temps est mal posée ? Beaucoup d'entre nous aiment à penser que la science peut nous donner une description complète et objective de l'histoire cosmique, distincte de nous et de notre perception de celui-ci. Mais cette image de la science est profondément erronée. Dans notre désir de savoir et de contrôle, nous avons créé une vision de la science comme une série de découvertes sur la façon dont la réalité est en elle-même : équivalente à une vue de Dieu de la nature.

Une telle approche non seulement fausse la vérité, mais crée un faux sentiment de distance entre nous et le monde. De cette division découle ce que nous appelons la ‘Tache Aveugle’, que la science elle-même ne peut pas voir. Dans la ‘tache aveugle’ se trouve l'expérience : la présence pure et l'immédiateté de la perception vécue.

Derrière la ‘tache aveugle’ se trouve la croyance que la réalité physique a la primauté absolue dans la connaissance humaine, une vue qui peut être appelée : matérialisme scientifique. En termes philosophiques, cela combine l'objectivisme scientifique (la science nous parle du monde réel, du monde indépendant de l'esprit) et le physicalisme[1] (la science nous dit que la réalité physique est tout ce qu'il y a). Les particules élémentaires, les moments dans le temps, les gènes, le cerveau – toutes ces choses sont supposées être fondamentalement réelles. En revanche, l'expérience, la conscience et la prise de conscience sont considérés comme secondaires. La tâche scientifique consiste à déterminer comment réduire celles-ci à quelque chose de physique, comme le comportement des réseaux neuronaux, l'architecture des systèmes de calcul, ou une certaine mesure de l'information.

Dans ce cadre nous sommes confrontés à deux problèmes intraitables. Le premier concerne l'objectivité scientifique. Nous ne rencontrons jamais la réalité physique en dehors de nos observations de celle-ci. Les particules élémentaires, le temps, les gènes et le cerveau ne nous sont manifestes que par nos mesures, nos modèles et nos manipulations. Leur présence respective est toujours basée sur des investigations scientifiques, qui ne se produisent que dans le domaine de notre expérience.

Cela ne signifie pas que la connaissance scientifique est arbitraire, ou une simple projection de nos propres esprits. Au contraire, certains modèles et méthodes d'investigation fonctionnent bien mieux que d'autres, et nous pouvons le tester. Mais ces tests ne nous donnent jamais la connaissance de la nature telle qu'elle est en elle-même, en dehors de nos façons de voir et d'agir sur les choses. L'expérience est tout aussi fondamentale pour la connaissance scientifique que la réalité physique qu'elle révèle.

Le deuxième problème concerne le physicalisme. Selon la version la plus réductrice du physicalisme, la science nous dit que tout, y compris la vie, l'esprit et la conscience, peuvent être réduits au comportement des plus petits constituants matériels. Vous n'êtes que vos neurones, et vos neurones ne sont que de petits éléments de matière. Ici, la vie et l'esprit sont évacués, et seule la matière inerte existe.

Pour parler carrément, l'affirmation, selon laquelle il n'y a rien d'autre que la réalité physique, est fausse ou vide. Si la « réalité physique » signifie la réalité comme la science physique le décrit, alors l'affirmation selon laquelle seuls les phénomènes physiques existent est fausse. Pourquoi ? Parce que la science physique - y compris la biologie et la neuroscience computationnelle – n’inclut pas la prise en compte de la conscience. Cela ne veut pas dire que la conscience est quelque chose de non naturel ou surnaturel. Le point est que la science physique ne prend pas en compte l'expérience ; mais nous savons que l'expérience existe, de sorte que l'affirmation selon laquelle les seules choses qui existent sont celles que la science physique nous dit, est fausse. D'autre part, si la « réalité physique » signifie la réalité selon une certaine physique future et complète, alors l'affirmation, qu'il n'y a rien d'autre mais la seule réalité physique, est vide, parce que nous n'avons aucune idée de ce à quoi une telle physique future ressemblera, en particulier en relation avec la conscience.

L'objectivisme et le physicalisme sont des idées philosophiques, non scientifiques

Aujourd'hui, les interprétations de la mécanique quantique sont en désaccord avec notre compréhension classique du monde physique. Une des sources de ces différences concernent le soi-disant « problème de mesure » : comment la fonction d'onde de l'électron se réduit d'une superposition de plusieurs états à un seul état lors de l'observation provoquée par la mesure. Pour plusieurs écoles de pensée, la physique quantique ne nous donne pas accès à la façon dont le monde est fondamentalement en soi. Elle nous permettrait simplement de comprendre comment la matière se comporte par rapport à nos interactions avec elle.

Nous érigeons une fausse idole de la science comme quelque chose qui accorde la connaissance absolue

Selon l'interprétation dite de Copenhague de Niels Bohr, par exemple, la fonction d'onde n'a pas de réalité en dehors de l'interaction entre l'électron et le dispositif de mesure. D'autres approches, telles que les interprétations des « mondes multiples » et des « variables cachées », cherchent à préserver un statut indépendant de l'observateur pour la fonction d'onde. Mais cela revient à surajouter des fonctionnalités telles que celles des univers parallèles non observables. Une interprétation relativement nouvelle connue sous le nom de Quantum-Bayesianisme (QBism) - qui combine la théorie quantique de l'information et la théorie de probabilité bayésienne – propose une autre interprétation ; il interprète les probabilités irréductibles d'un état quantique non comme un élément de la réalité, mais comme les degrés de croyance qu'un agent a sur le résultat d'une mesure (sic). En d'autres termes, faire une mesure c’est comme faire un pari sur le comportement du monde, et une fois la mesure faite, cela correspond à la mise à jour de ses connaissances (de l’agent). Les défenseurs de cette interprétation la décrivent parfois comme un « réalisme participatif », parce que l'agencement humain est tissé dans le processus de faire de la physique comme un moyen d'acquérir des connaissances sur le monde. De ce point de vue, les équations de la physique quantique ne se réfèrent pas seulement à l'atome observé, mais aussi à l'observateur et à l'atome pris dans un ensemble dans une sorte « d’observateur-participatif ».

Le réalisme participatif est controversé. Mais c'est précisément cette pluralité d'interprétations, avec une variété d'implications philosophiques, qui ébranle la sobre certitude du point de vue matérialiste et réductionniste à propos de la nature. En bref, il n'y a toujours pas de moyen simple de supprimer notre expérience en tant que scientifiques dans le processus visant à caractériser le monde physique.

Cela nous ramène à la ‘Tache Aveugle’. Quand nous observons les objets de la connaissance scientifique, nous n'avons pas tendance à considérer les expériences qui les mettent en évidence. Nous ne voyons pas comment l'expérience nous rend possible leur présence. Parce que nous perdons de vue la nécessité de l'expérience, nous érigeons une fausse idole de la science comme quelque chose qui confère la connaissance absolue de la réalité, indépendamment de la façon dont elle se présente et comment nous interagissons avec elle.

Les scientifiques matérialistes nous disent que la méthode scientifique nous permet de nous extraire de l'expérience et donc de saisir le monde tel qu'il est en soi. Comme il est clair maintenant, nous sommes en désaccords avec cette conception ; en effet, nous croyons que cette façon de penser fausse la méthode même et la pratique de la science.

En termes généraux, voici comment fonctionne la méthode scientifique. Tout d'abord, nous mettons de côté des aspects de l'expérience humaine sur lesquels nous ne pouvons pas toujours être d'accord, comme la façon dont les choses apparaissent ou à propos de leur saveur ou bien comment elles se ressentent. Deuxièmement, en utilisant les mathématiques et la logique, nous construisons des modèles abstraits et formels que nous traitons comme des objets stables qui font consensus. Troisièmement, nous intervenons dans le cours des événements en isolant et en contrôlant les choses que nous pouvons percevoir et manipuler. Quatrièmement, nous utilisons ces modèles abstraits et ces interventions concrètes pour calculer les événements futurs. Cinquièmement, nous vérifions ces événements prévus contre nos perceptions (sic). Un ingrédient essentiel de tout ce processus est la technologie : les machines – notre équipement – qui standardisent ces procédures, amplifient nos pouvoirs de perception et nous permettent de contrôler les phénomènes à nos propres fins (sic).

Le ‘Tache Aveugle’ survient lorsque nous commençons à croire que cette méthode nous donne accès à la réalité brute, nue. Mais l'expérience est présente à chaque étape. Les modèles scientifiques devraient être en retrait des observations, car souvent médiatisés par notre équipement scientifique complexe. Ce sont des idéalisations, pas des choses réelles (actuelles) dans le monde. Le modèle de Galilée d'un avion sans frottement, par exemple ; le modèle de Bohr de l'atome avec un petit noyau dense avec des électrons tournant autour de lui sur des orbites quantifiées comme des planètes autour d'un soleil ; modèles évolutionnaires de populations isolées : tous ceux-ci existent dans l'esprit du scientifique, et non dans la nature. Ce sont des représentations mentales abstraites, pas des entités indépendantes de l'esprit. Leur pouvoir vient du fait qu'elles sont utiles pour aider à faire des prédictions testables. Mais celles-ci, aussi, ne nous placent jamais à l’extérieur de l'expérience, car elles exigent des types spécifiques de perceptions effectuées par des observateurs hautement qualifiés.

Pour ces raisons, l'objectivité scientifique ne peut pas être confondue avec l’idée d’une compréhension extérieure ; dans ce contexte, « objectif » signifie simplement quelque chose qui est fidèle aux observations convenues par une communauté d'enquêteurs utilisant certains outils. La science est essentiellement une forme d'expérience humaine hautement raffinée, basée sur nos capacités à observer, agir et communiquer.

L'affirmation selon laquelle la science révèle une « réalité » parfaitement objective est plus théologique que scientifique

Ainsi, la croyance que les modèles scientifiques correspondent à la façon dont les choses sont vraiment n’est pas conforme à la méthode scientifique. Au lieu de cela, cela provient d'une croyance ancienne – que l’on rencontre souvent dans les religions monothéistes - connaître le monde tel qu'il est en soi, comme Dieu le fait. L’affirmation que la science révèle une ‘réalité’ parfaitement objective est plus théologique que scientifique.

Les philosophes récents de la science qui ciblent un tel « réalisme naïf » soutiennent que la science ne se termine pas avec une simple image d'une théorie-indépendante du monde. Au contraire, divers aspects du monde – des interactions chimiques destinées à la croissance et au développement des organismes, la dynamique du cerveau et les interactions sociales – peuvent être décrits plus ou moins avec succès par des modèles partiels. Ces modèles sont toujours liés à nos observations et actions, et circonscrits dans leurs applications.

Les domaines de la théorie des systèmes complexes et de la science du réseau ajoutent une précision mathématique à ces revendications en se concentrant sur le tout plutôt que sur la réduction en parties qui le composent. La théorie des systèmes complexes est l'étude de systèmes, tels que le cerveau, les organismes vivants ou le climat global de la Terre, dont le comportement est difficile à modéliser : la façon dont le système réagit dépend de son état et de son contexte. De tels systèmes présentent une auto-organisation, une formation spontanée de motifs et une dépendance sensible aux conditions initiales (de très petites modifications des conditions initiales peuvent aboutir à des résultats très différents).

La science du réseau analyse les systèmes complexes en modélisant leurs éléments en tant que nœuds et les connexions entre eux en tant que liens. Elle explique le comportement en termes de topologies de réseau c’est-à-dire : les arrangements des nœuds et des connexions, et leur dynamique globale, plutôt qu’en termes d'interactions locales au niveau micro.

Inspirés par ces perspectives, nous proposons une vision alternative qui cherche à aller au-delà de la ‘Tache Aveugle’. Notre expérience et ce que nous appelons la « réalité » sont inextricables. La connaissance scientifique est une narration du monde qui s’auto-corrige, et notre narration, ainsi que notre expérience de ce monde évoluent ensemble. La science et ses problèmes les plus difficiles peuvent être reformulés une fois que nous prenons conscience de cette intrication.

Revenons au problème avec lequel nous avons commencé notre article : la question du temps et l'existence d'une Première Cause. De nombreuses religions ont investi la notion de première cause dans leurs narrations de la mythique création. Pour expliquer d’où tout vient et quelle est l’Origine, elles conçoivent l'existence d'un pouvoir absolu ou d'une divinité qui transcende les confins de l'espace et du temps. À quelques exceptions près, Dieu ou les dieux créent à partir de rien pour donner naissance, pour faire surgir, ce qui est à l'intérieur.

Cependant, contrairement au mythe, la science est contrainte par son cadre conceptuel, de se développer en respectant la chaîne causale d'événements. La Première Cause constitue une rupture évidente d’une telle chaîne de causalité – comme les philosophes Bouddhistes l'ont souligné il y a longtemps dans leurs arguments contre la position théiste Hindoue : il doit y avoir une première cause divine. Comment pourrait-il y avoir une cause qui n'était pas elle-même l’effet d'une autre cause ? L'idée d'une Première Cause, comme l'idée d'une réalité parfaitement objective, est fondamentalement théologique.

Le temps du physicien dépend pour sa signification de notre expérience vécue du temps

Ces exemples suggèrent que le « temps » aura toujours une dimension humaine. Ce que nous pouvons au mieux viser c’est une narration cosmologique scientifique qui soit cohérente avec ce que nous pouvons mesurer et connaître de l'univers de l'intérieur. Cette narration ne peut jamais être une description finale ou complète de l'histoire cosmique. Plutôt, elle doit être constituée d’un récit continu, auto-corrigeant. Le « temps » est l'épine dorsale de ce récit ; notre expérience vécue du temps est nécessaire pour rendre ce récit pleinement significatif. Avec ce point de vue, il semble que c'est le temps du physicien qui est secondaire ; c'est simplement un outil pour décrire les changements que nous sommes en mesure d'observer et de mesurer dans le monde naturel. Le temps du physicien, alors, a un sens qui dépend de notre expérience vécue du temps.

Nous pouvons maintenant apprécier la signification la plus profonde de nos trois énigmes scientifiques – la nature de la matière, la conscience et le temps. Elles pointent toutes vers la ‘Tache aveugle’ et la nécessité de reconsidérer comment nous pensons la science. Lorsque nous essayons de comprendre la réalité en nous concentrant uniquement sur des choses physiques qui sont en dehors de nous, nous perdons de vue d’où viennent les expériences. Les difficultés les plus profondes ne peuvent pas être résolues en termes purement physiques, parce qu'elles incluent toute la présence inévitable de l'expérience dans l'équation. Il n'y a aucun moyen de rendre compte de la « réalité » en dehors de l'expérience, parce que les deux sont toujours entrelacées.

Pour enfin « voir » la ‘Tache Aveugle’ il faut se réveiller de l’illusion de la connaissance absolue. Il faut aussi embrasser l'espoir que nous pouvons créer une nouvelle culture scientifique, dans laquelle nous nous considérons nous-mêmes à la fois comme une expression de la nature et comme une source de l'auto-compréhension de la nature. Nous n'avons besoin de rien de moins qu'une science nourrie par cette sensibilité pour que l'humanité s'épanouisse dans le nouveau millénaire

Dans nature le 09/01/2019

 

[1] Les fondations du physicalisme datent des années 1930 par le cercle de Vienne, notamment avec la contribution active d’Otto Neurath.

Partager cet article

Repost0
2 janvier 2019 3 02 /01 /janvier /2019 11:32

Les physiciens des hautes énergies perdent la main.

            Depuis le début des années 1980 les physiciens des hautes énergies envisageaient sérieusement découvrir d’une façon linéaire tous les constituants de ce qu’ils nomment le Modèle Standard des particules élémentaires et lorsqu’ils auront atteint cet objectif l’au-delà du Modèle Standard (MS) sera fléché par les failles et les incomplétudes qui se révèleront au sein même du MS. A partir de là, il (était) est pensé qu’il suffit de disposer de collisionneur atteignant des niveaux d’énergie de plus en plus élevés, au centre de masse de la collision : particules-particules ou particules-antiparticules, pour qu’il soit observé dans les détecteurs de plus en plus performants les éléments constitutifs de l’au-delà du MS.

            Cette perspective d’une progression linéaire irrémédiable de découvertes (était) est alimentée par la perspective qu’il y (avait) a un chemin qui conduit à l’obtention d’une unification des forces fondamentales et des particules fondamentales qui agissent dans notre univers et ceci est en accord avec la théorie du Big Bang puisque le premier souffle de l’univers est celui d’un rayonnement extraordinaire.

            En 2003 un livre de très grande qualité a été publié : ‘Large Hadron Collider Phenomenolgy’ ; ‘La phénoménologie au cœur du Grand Collisionneur d’Hadrons’, et remarquablement il annonçait avec une très grande précision tout ce qui était prévu d’observer dès que le LHC fonctionnera et en plus : comment on ira au-delà, bref le chemin était tout tracé. On annonçait aussi quels étaient les futurs instruments qu’il fallait concevoir pour prolonger ce qui assurément se laisserait voir dans le LHC.

            Etonnamment le premier, sérieux, grain de sable c’est que le boson de Higgs observé péniblement en 2012 est parfaitement conforme à la prédiction théorique du MS, sans aucune autre indication. En fait ce succès est frustrant et l’impression qu’une impasse est atteinte est de plus en plus partagée maintenant par la communauté des physiciens des hautes énergies. Pas d’alternatives à l’horizon.

            Jusqu’à maintenant ces physiciens avaient obtenu assez facilement les budgets nécessaires pour construire et faire fonctionner ces énormes machines qui nous permettaient de comprendre de mieux en mieux la structure la plus élémentaire de la matière ainsi que les forces qui régissent notre univers. Le problème c’est que maintenant il n’y a plus d’extraordinaires perspectives à faire valoir auprès des décideurs publics pour mobiliser les premiers milliards de dollars nécessaires à ces projets.

            Ainsi le 23/12/2018, un article, sur le site Nature, indiquait que l’heure de vérité s’approchait et l’optimisme n’était pas de mise. J’en propose une traduction et des commentaires ci-dessous :

Le projet du prochain grand collisionneur de particules au monde subit un revers important.

Le Comité scientifique japonais interroge le montant du coût du projet de plusieurs milliards de dollars, mais la décision incombe au gouvernement.

Le projet de construire un collisionneur de particules au Japon pour succéder au LHC a subi un revers significatif. Un rapport influent de scientifiques japonais a conclu qu'il n’était pas possible de soutenir le projet de construire le collisionneur linéaire international (ILC) dans le pays. L’ILC a été étudié et conçu depuis de nombreuses années et il est censé permettre l’étude du boson de Higgs découvert en 2012 qui est considéré comme la dernière pièce du puzzle pour les physiciens des particules du 'modèle standard'.

Mais les découvertes prévues pour justifier la construction de l’ILC ne sont pas pleinement à la mesure du coût de près de 7 milliards de dollars, a déclaré un comité du Conseil Scientifique du Japon dans un rapport publié le 19 décembre, selon les comptes rendus de la presse. En tant que pays hôte, le Japon serait censé financer de l’ordre de la moitié du coût total. Le comité, qui conseille le gouvernement, a ajouté que l'incertitude quant à savoir si les partenaires internationaux partageraient les coûts du projet augmente ses préoccupations. L'accélérateur proposé — qui serait de plus de 20 kilomètres de long — permettrait aux physiciens de détecter précisément les produits des collisions entre les électrons et les positrons.

Le gouvernement utilisera maintenant ce rapport, qui reflète les opinions de la communauté académique au Japon et pas seulement celles des physiciens des hautes énergies, pour guider sa décision sur l'opportunité d'héberger l'installation. Une décision est attendue pour le 7 mars (sic), lorsque le groupe international qui supervise le développement de l’ILC : le ‘Linear Collider Board’, se réunira à Tokyo.

Les physiciens se sont déclarés préoccupés par les conclusions du Comité. "Ce sont de très mauvaises nouvelles, car cela rend très improbable que l’ILC sera construit au Japon et probablement pas du tout." a tweeté Axel Maas, un physicien théoricien de l'Université de Graz en Autriche.

« Cependant, le Comité a déclaré que le fondement scientifique pour la construction de l’ILC était solide », déclare Hitoshi Yamamoto, physicien à l'Université de Tohoku à Sendai et membre de la collaboration ILC. Le Comité a également reconnu que le collisionneur est considéré par la communauté de la physique des particules comme la priorité absolue parmi les projets futurs possibles, ajoute-t-il.

Le projet a maintenant besoin de bonnes nouvelles, dit Yamamoto. Avec des financements serrés dans le monde entier, « la situation de l’ILC s'aggrave rapidement », dit-il. « Une annonce positive du gouvernement japonais inversera la tendance et amènera soudainement l’ILC au niveau de projet prioritaire. », dit Yamamoto.

Toutes les craintes que d'autres domaines de la science au Japon pourraient souffrir si ce projet coûteux va de l'avant est compréhensible, dit Brian Foster, un physicien à l'Université d'Oxford, et membre de l'équipe de la conception de l'installation. Mais il précise que la position pessimiste du Conseil ne signifie pas nécessairement que le gouvernement ne soutiendra pas le projet. « Si le gouvernement veut le faire, il le fera », affirme-t-il.

Nation solitaire.

Le Japon est la seule nation jusqu'à présent à manifester de l'intérêt pour le collisionneur, et une décision sur la question de savoir s'il accueillera l'installation est attendue depuis longtemps. Des physiciens japonais ont proposé à la communauté internationale de construire l'installation au Japon en 2012, après que les scientifiques du LHC découvrirent le boson de Higgs, particule impliquée dans le mécanisme par lequel toutes les autres particules fondamentales acquièrent leur masse.

Les physiciens voulaient utiliser la nouvelle installation pour étudier tous les phénomènes que le LHC aurait découvert. Ils savent que le modèle standard est incomplet et espèrent que des particules d'énergie plus élevée inconnues pourraient aider à expliquer des mystères très anciens tels que par exemple : la nature de la matière noire.

Mais les plans pour le collisionneur ont stagné parce qu'aucune des Nations n'ont offert de financement, et en raison de l'incapacité du LHC à trouver de nouveaux phénomènes au-delà du boson de Higgs (sic). En 2017, les physiciens ont réduit leurs ambitions pour l'ILC, proposant une conception plus courte et moins consommatrice en énergie qui se concentrerait uniquement sur le Higgs

Pour les physiciens, une « usine à Higgs » serait encore extrêmement précieuse. Puisque les électrons et les positrons sont des particules fondamentales, leurs collisions seraient plus propres que les collisions proton – proton au LHC. En ciblant les collisions à la bonne énergie, le collisionneur projeté produirait des millions de bosons de Higgs pour des études qui pourraient révéler une nouvelle physique indirectement, en explorant comment le boson de Higgs interagit avec les autres particules connues.

Les chercheurs en Chine, qui ont récemment proposé de construire une usine à Higgs en forme d’anneau de 100 kilomètres de diamètre, examineront aussi attentivement le rapport. Ils ont besoin de financements des gouvernements chinois et étrangers pour construire cette installation. Bien que les physiciens des particules aimeraient voir les deux collisionneurs construits, les partenaires internationaux sont susceptibles de ne financer qu’une seule usine à Higgs. Si l’ILC reçoit le soutien de toute la communauté de la physique des hautes énergies, cela peut réduire les chances pour le collisionneur chinois d’être construit, bien que le pays pourrait décider aussi d’y aller seul.

Sur le site de ‘Futura Science’, à la date du 23/11/2018, fut publié un article : « La Chine envisage la construction d’un LHC de 100 km de circonférence. »

Comme cela est indiqué, les enjeux scientifiques ne sont pas vraiment prioritaires mais les enjeux géopolitiques le sont. Comprenons bien que l’intention d’accéder au rôle de leader dans le monde se joue obligatoirement sur plusieurs domaines et ceux concernant le domaine intellectuel, le domaine de la connaissance en physique, sont très importants. D’autant que la maitrise des instruments en question implique une maitrise technologique du plus haut niveau. Je cite :

« La Chine envisage sérieusement de construire un équivalent du LHC de 100 kilomètres de circonférence et semble bien décidée à réaliser, déjà à l'horizon 2030, un collisionneur électron-positron de taille équivalente en prélude, comme l'avaient fait les Européens avec le LEP. L'utilité de ces machines ne va malheureusement pas de soi...

La Chine vient de faire savoir qu'elle avait toujours l'intention de ravir aux Européens le leadership dans la course aux hautes énergies en physique des particules. »

Comme le rappelait Futura dans un article précédent, les Européens ont, eux aussi, dans leur carton des études pour un LHC de 100 km de circonférence et un projet, non pas de collisionneur circulaire mais linéaire d'électrons et de positrons, a déjà été mené à son terme pour des études préliminaires depuis des années et attend un feu vert pour être construit. Il s'agit de l'International Linear Collider (ILC). Les Japonais en particulier s'y sont très impliqués (sic). Toutefois, on peut se demander aujourd'hui si la construction de ces machines est bien sérieuse. Je cite à nouveau l’article de Futura Science : Masquer cette publicitéÀ propos des cookieshttps://bvt.r66net.com/vi/options-arrow.png

« Nous pouvons transmettre un ou plusieurs cookies sous forme de petits fichiers texte contenant des caractères alphanumériques qui identifient votre navigateur Internet. Ils sont utilisés pour suivre des habitudes d’utilisation sur nos sites partenaires, de manière non personnellement identifiable.

Votre historique de cookies sera supprimé.

Déjà en 2016, le physicien chinois Chen-Ning Yang - célèbre physicien pour avoir décroché avec son collègue Tsung-Dao Lee le prix Nobel de physique pour ses travaux sur la violation de la parité en physique des particules et avoir été à l'origine des fameuses théories de Yang-Mills à la base de toute la physique du modèle standard - avait fait savoir qu'il n'était pas favorable à la réalisation du SPPC.

Bien que l'on puisse nuancer et même réfuter certaines des critiques faites par Yang pour la construction des deux machines, comme l'expliquait le physicien et mathématicien John Baez, on ne peut s'empêcher de pencher en faveur de Yang.

En effet, au moment où le LHC est entré en service, on avait de multiples et bonnes raisons de s'attendre à une révolution majeure en physique fondamentale. En effet, plusieurs arguments théoriques très crédibles laissaient espérer la découverte, en quelques années tout au plus, de nouvelles particules prédites par la théorie de la supersymétrie, la théorie des cordes et surtout la production de micro-trous noirs s'évaporant par effet Hawking à des énergies de l'ordre de quelques TeV.

Le LHC a fait de façon routinière des collisions à 13 TeV, avec une luminosité de faisceaux déjà élevée... et aucune nouvelle particule n'a montré ne serait-ce que le bout de son nez. Nous n'avons pas d'arguments théoriques laissant espérer vraiment des nouvelles particules au-delà de 10 TeV, à part quelques-unes prédites par la split supersymétrie, mais des résultats d'expériences récentes sur le moment dipolaire des électrons sont plutôt une douche froide à cet égard. Pire, la faible masse du boson de Higgs laisse entendre que le modèle standard pourrait bien être valable jusqu'à l'énergie de Planck, ce qui veut bien dire qu'aucune nouvelle physique ne devrait apparaître dans les collisionneurs que pourrait construire l'humanité, ou pour le moins aucune nouvelle particule.

On peut donc légitimement se demander, en l'absence de nouveaux arguments théoriques et expérimentaux et devant la crise à laquelle l'humanité est confrontée avec le réchauffement climatique, l’énergie et les ressources, si des milliards ne seront pas mieux utilisés pour la mise au point de nouveaux réacteurs nucléaires, par exemple au thorium. Il est vrai cependant que la Chine s'est aussi engagée dans ce type de recherche (sic). »

 

 

 

Partager cet article

Repost0
30 décembre 2018 7 30 /12 /décembre /2018 06:16

Ces observations à l’avant-garde de compréhensions futures.

           

            J’ai sélectionné trois observations dans l’univers qui devraient être des sources nouvelles de compréhension de ce qui se produit dans le cosmos. Chacune de celles-ci sont dues à l’exploitation d’instruments de plus en plus sophistiqués, performants, surtout quand leurs usages sont combinés.

            Une fontaine de dimension galactique observée en pleine magnificence.

            A un milliard d'années-lumière de la terre se trouve l'une des structures répertoriées les plus massives de l'univers : une galaxie elliptique géante entourée d'un amas tentaculaire d'autres galaxies connues sous le nom d'Abell 2597. Au cœur de la galaxie centrale, un trou noir supermassif alimente une fontaine monumentale de dimension cosmique. Là, de vastes quantités de gaz tombent vers un trou noir supermassif, où une combinaison de forces gravitationnelles et électromagnétiques pulvérise la majeure partie du gaz loin du trou noir dans un cycle continu qui dure plusieurs dizaines de millions d'années.

Les astronomes ont longtemps théorisé à propos de fontaines comme celle-ci faisant circuler continuellement le combustible stellaire d'une galaxie.

Les observations d'Abell 2597 par le réseau millimétrique/submillimétrique (ALMA) montrent les premières preuves claires et convaincantes de l'afflux simultané et de l'écoulement du gaz entraîné par un trou noir supermassif.

            « Le trou noir supermassif au centre de cette galaxie géante agit comme une « pompe » mécanique dans une fontaine d'eau. » a déclaré Grant Tremblay, un astrophysicien au Harvard-Smithsonian Center for astrophysique à Cambridge. "C'est l'un des premiers systèmes dans lesquels nous trouvons des preuves claires de l'afflux de gaz moléculaires froids vers le trou noir et l'écoulement ou le soulèvement des jets que le trou noir, lui-même, propulse. "

Selon les chercheurs, tout ce système fonctionne via une boucle de rétroaction qui s’autorégule. Le matériel de remplissage fournit la puissance à la fontaine puisqu’il se canalise vers le trou noir central, comme l'eau entrant dans la pompe d'une fontaine. Ce gaz de remplissage réactive une surchauffe du trou noir qui provoque la propulsion de jets de matériels surchauffés à grande vitesse hors de la galaxie. Pendant qu'il voyage, ce matériel pousse des paquets et des flots de gaz dans le halo expansif de la galaxie, où il finit éventuellement par pleuvoir en retour en direction du trou noir, déclenchant ainsi le renouvellement du processus.

Au total, de l’ordre de 3 milliards de masses solaires de gaz moléculaire sont impliqués dans le fonctionnement de cette fontaine, formant ainsi un filament nébulaire qui occupe sur plus de 100 000 années-lumière l’intérieur de la galaxie.

Bien que cette observation concerne une seule galaxie, il est logique de considérer que ce processus vaut dans les galaxies en général et que cela, fondamentalement, contribue à la dynamique de leur évolution.

Je pense que l’on aura l’occasion de re-évoquer cette extraordinaire machinerie mise en évidence pour la première fois. On découvre aussi une dynamique propre, autarcique, au sein des amas de galaxies comme s’il y avait des mini-univers autonomes dans l’univers.  

                        -----------------------------------------------------------------------

Le télescope Aussie a presque doublé le nombre connu des mystérieux ‘Eclats  Radios Rapides’ ; 'Fast radio bursts' : ‘FRB’s’, qui sont des flashs puissants d’ondes radios provenant de l’espace lointain.

Les découvertes de l'équipe incluent, à la fois, les plus rapides et les plus brillants ‘Eclats Radios’ jamais détectés.

Les conclusions récentes rapportées nous disent que les ‘FRB’s’ viennent de partout dans le ciel et durent seulement quelques millisecondes.

Les scientifiques ne savent pas ce qui les cause (sic), mais cela doit impliquer une énergie incroyable : équivalente à la quantité libérée par le soleil en 80 ans.

 "Nous avons trouvé 20 ‘FRB’s’ en un an, presque le double du nombre détecté dans le monde entier depuis qu'ils ont été découverts en 2007," a déclaré l'auteur principal de l’article : Dr. Ryan Shannon, de l'Université Swinburne de technologie.

Il a été également prouvé que des ‘FRB’s’ viennent de l'autre côté de l'univers plutôt que de notre propre voisinage galactique et que ceux-ci voyagent pendant des milliards d'années et donc ils traversent occasionnellement des nuages de gaz. Chaque fois que cela se produit, les différentes longueurs d'onde qui composent un éclat sont ralenties par des quantités différentes. Eventuellement, l'’éclat’ atteint la Terre avec une dispersion de ses longueurs d'onde qui arrivent sur le télescope à des moments légèrement différents, comme les nageurs sur une ligne d'arrivée. Chronométrer l'arrivée des différentes longueurs d'onde nous dit la quantité de matière que le ‘FRB’ a traversé durant son voyage.

 Et puisqu’il a été montré que les ‘FRB’s’ viennent de loin, nous pouvons les utiliser pour détecter toute la matière manquante située dans l'espace entre les galaxies ce qui constitue une découverte vraiment intéressante.

Nous savons maintenant que les ‘FRB’s’ proviennent d'environ la moitié de l'univers, mais nous ne savons toujours pas ce qui peut les provoquer pas plus de quelles galaxies ils proviennent.

Le prochain défi de l'équipe est de localiser la provenance de ces ‘éclats’ dans le ciel.

 "Nous serons en mesure de localiser ces ‘éclats’ à mieux d'un millième d’un degré, " nous précise R. Shannon.

 "C'est à peu près la largeur d'un cheveu humain vu à dix mètres de distance, et assez précis pour relier chaque éclat à une galaxie particulière. "

L’ensemble des moyens d’observations est situé à l’Ouest de l’Australie et constitue un élément précurseur du ‘SKA’ : ‘Square Kilometer Array’ ; ‘le Réseau (d’antennes) sur un Kilomètre Carré’.

                        --------------------------------------------------------------------------

ANITA détecte un autre nouvel événement ressemblant à un rayon cosmique inversé.

Une fontaine de particules de haute énergie ressemblant à une cascade de rayons cosmiques à l'envers est détectée pour la deuxième fois par l'’Antenne Transitoire Impulsionnelle de l'Antarctique’ : ‘ANITA’. 

Le recensement de ce deuxième événement en 13 ans conduit à conjecturer sur ce que cela peut bien signifier.

Nous savons que les particules de rayons cosmiques à haute énergie bombardent constamment la terre. Quand une de ces particules entre en collision avec les molécules dans notre atmosphère, elle déclenche une cascade de particules secondaires, collectivement connues sous le nom de cascade atmosphérique de rayon cosmique. Mais ce n'est pas la seule façon dont les particules de haute énergie interagissent avec la terre. Ainsi le 28 décembre 2006, l'antenne transitoire impulsionnelle de l'Antarctique (ANITA) a détecté une cascade atmosphérique « ascendante » : une fontaine de particules de haute énergie qui surgissait du sol glacial de l'Antarctique. L'équipe signale maintenant l'observation d'un deuxième événement de ce type, qui s'est produit le 12 décembre 2014.

ANITA a été conçue pour détecter les cascades atmosphériques à rayons cosmiques via les signaux radio-ondes qu'elles émettent. ANITA détecte les ondes radio soit sur leur chemin vers le bas ou, plus fréquemment, sur leur chemin de retour vers le haut après avoir rebondi sur la glace. Ce rebond inverse la phase des ondes radioélectriques, permettant de distinguer les deux séries de vagues par leur direction et leur phase (sic).

Mais en 2006 et en 2014, ANITA a détecté un signal inattendu : des ondes radioélectriques provenant de la glace avec une phase non inversée. Ces détections suggèrent que les signaux provenaient de particules en mouvement ascendant ayant traversé la Terre avant de surgir de la glace. Mais il n’est pas envisagé que les rayons cosmiques puissent le faire en grand nombre, laissant ainsi planer le mystère sur la source de ces signaux. Une possibilité serait que les rayons cosmiques d'une supernova brillante soufflent leur chemin à travers le globe terrestre. Mais seulement la détection de 2014 a coïncidé avec un tel événement. Une autre possibilité serait que ANITA ait détecté des ondes radio émises provoquées par une particule non comptabilisée au sein du modèle standard.

L'équipe d’ANITA nous dit que d'autres détections de ces signaux bizarres sont nécessaires avant de produire une conclusion définitive quant à leur origine. Toutefois une discussion scientifique est ouverte et un article de A. Cho sur le site de Nature l’anime :

A première vue, que des signaux aient été produits par des cascades atmosphériques par un déploiement ascendant et déclenchées par des particules qui ont traversé la Terre comme dans un tunnel, ce n'est pas un problème pour le modèle standard car les neutrinos interagissent à peine avec la matière, donc quelques neutrinos cosmiques pourraient avoir fusé à travers la planète avant de percuter un noyau atomique dans la glace et enclencher une cascade atmosphérique ascendante.

Cependant, lorsqu'on l'examine en détail, cette explication s'effondre, arguent D. Fox et ses collègues. Étant donné les directions des cascades, les particules qui les ont produites doivent avoir parcouru plus de 5700 kilomètres de la Terre, estiment les chercheurs. Cependant, les grandes tailles des cascades montrent que les particules auraient dû avoir eu des énergies supérieures à 0,5 exa-électron volts (1 exa = 1018 eV = 106 TeV) soit 70.000 fois l'énergie obtenue avec l'accélérateur de particules le plus puissant. Une telle énergie extrême augmente la probabilité que les neutrinos interagissent au cours de leur traversée du globe terrestre, donc il n'y a aucune chance qu'un tel neutrino avec une telle énergie puisse traverser sans interagir avec de la matière terrestre durant son parcours.

Ces événements sont plus facilement expliqués par de la nouvelle physique, nous disent les chercheurs. Un rayon cosmique ultra-haute énergie sur le côté lointain de la Terre aurait pu donner naissance à un nouveau type de particule, environ 500 fois plus massive que le proton, qui a percé la planète avant de se décomposer pour produire une cascade atmosphérique ascendante, disent-ils. Un cadre théorique appelé la supersymétrie offre des candidats qui feraient l'affaire, nous dit D. Fox. Il ajoute que l'interprétation reçoit également un certain soutien de la part de l’équipe d'IceCube : un gigantesque éventail de détecteurs de particules enfouis dans la glace de l'Antarctique, qui voit régulièrement des signaux, certes plus faibles, d'événements ascendants inhabituels.

Toutefois D. Besson : membre de l’équipe d’ANITA refuse de signer l’article qui émet des conclusions hâtives : « Ma position personnelle est que nous faisons trop de ces événements qui dépendent complètement d'un argument de polarisation.

Partager cet article

Repost0
18 décembre 2018 2 18 /12 /décembre /2018 04:54

Ne pas tomber dans la facilité ni dans le trou noir

            J’aurais pu intituler cet article : ‘Troublant’ mais cela aurait été trop facile, bien que cela le soit néanmoins car il s’agit de cerner ce que serait un trou noir, ce qu’il advient au sein d’un trou noir et quel est le futur d’un tel objet. Peut-être faut-il utiliser le pluriel car il se pourrait que suivant leurs masses et leurs dynamiques propres (en rotation ou non, actif ou passif) les paramètres qui les caractériseraient seraient notablement différents.

            Toutes ces questions se posent maintenant que nous disposons de quelques informations depuis que nous avons détecté les ondes gravitationnelles correspondant à dix collisions-fusions de vingt trous noirs. Ces informations sont pauvres car ce que les interféromètres ont enregistré ne sont que des tremblements de l’espace-temps très atténués arrivés sur la planète Terre après avoir parcouru des milliards d’année-lumière.

            Heureusement, il y eut entre-temps un enregistrement d’ondes gravitationnelles provoqué par la fusion de deux étoiles à neutrons. Or, il fut accompagné d’autres informations car ces objets célestes appelés aussi ‘Pulsars’ lorsqu’ils émettent du rayonnement de façon très cadencée, ont à l’occasion de leur fusion émis des rayons gammas, et d’autres rayonnements électromagnétiques sur des longueurs d’ondes différentes. De plus cette fusion a provoqué des réactions nucléaires observables (avec production d’éléments lourds comme de l’or, du platine, du césium). C’est exactement ce que l’on appelle un événement multimessages. Donc la fusion de pulsars semble se produire avec la mise en évidence de propriétés de la matière en collision que nous décryptons assez aisément.

            Une étoile à neutrons correspond à un état d’équilibre de la matière subissant une très, très, forte interaction gravitationnelle depuis son centre, avant qu’éventuellement elle ne devienne un trou noir. Sa densité de matière est de l’ordre de 107 T/litre. Lorsqu’intervient une raison qui annule cet état d’équilibre (par ex. : captation de matière dans l’environnement), elle devient trou noir qui nous apparait comme un état d’équilibre final. Dans ce cas on ne plus parler de densité de matière puisqu’elle tend vers l’infini et on ne sait rien de ce qu’il advient de la matière. On pourrait penser que dans ce cas la matière est de plus en plus compressée, mais cette hypothèse est difficilement soutenable puisqu’impossible à constater.

L’hypothèse de l’existence de trous noirs est justifiée par la loi de la Relativité Générale et plus particulièrement avec la singularité mathématique (terme devenant infini dans une certaine condition numérique par ex : l’inverse de zéro) que l’on rencontre en utilisant la métrique de Schwarzschild. Quand de la matière ou d’autres aspects de l’énergie se trouve capturée par un trou noir au niveau de ce que l’on appelle l’horizon du trou noir dont son rayon est justement le rayon de Schwarzschild qui provoque la singularité, proportionnelle à sa masse, et bien celle-ci ne peut tendre que vers le centre de ce trou noir à cause d’une interaction gravitationnelle de plus en plus élevée et puis… qu’en est-il de la matière ou de l’énergie originelle.

Stricto-sensu, la relativité générale nous dit qu’un trou noir formé est éternel, et donc les physiciens théoriciens très croyants en leurs équations mathématiques affirment qu’au centre de cet objet il y a rupture temporelle et spatiale et c’est vide. Même si mathématiquement on est obligé de l’admettre, c’est physiquement difficile de comprendre comment la matière ou l’énergie constitutive a pu disparaître. Globalement on peut considérer que l’hypothèse du trou noir est une hypothèse de la physique classique car on doit considérer que la loi de la relativité générale est fondée sur des hypothèses classiques dans le sens où elles ne comprennent aucune de celles relatives à la mécanique quantique. Ce n’est qu’après coup, comme l’a fait, par exemple, S Hawking, que l’on ajoute des hypothèses quantiques pour enrichir quelques aspects phénoménologiques possibles sur ces objets. C’est ce que nous propose Carlo Rovelli pour mettre en avant son hypothèse que les trous noirs ont un avenir en devenant des trous blancs.

Je développe ci-après cet aspect des choses mais avant tout il faut rappeler que la loi de la relativité générale contient cette solution mathématique pour cause de symétrie de renversement du temps classique ce qui fut constaté très rapidement dans les années 1920 mais solution qui n’a jamais été prise au sérieux d’un point de vue de la physique. N’oublions pas que ce fut identique pour la solution trou noir pour cause de singularité. Einstein lui-même n’accordait aucun crédit à cette chose qui lui apparaissait comme une impureté des équations mathématiques. 

Carlo Rovelli, directeur de recherche à l’université d’Aix-Marseille a publié un premier article le 10/12 sur le site Physics.aps.com : ‘Black Hole Evolution Traced Out with Loop Quantum Gravity.’ ; ‘l’évolution du trou noir suivie avec la gravité quantique à boucle’.

« La gravité quantique à boucle – une théorie qui étend la relativité générale en quantifiant l’espace-temps – prédit que les trous noirs évoluent en trous blancs. »

« Les trous noirs sont de remarquables entités. D’un certain point de vue, ils sont devenus maintenant des objets astrophysiques familiers qui ont été observés en grands nombres et de façons multiples ; nous avons l’évidence de trous de masse stellaire dansant autour d’une étoile compagnon, de gigantesques trous au centre des galaxies attirant de la matière au sein de disques en spirales, et des paires de trous noirs fusionnant dans un jet d’ondes gravitationnelles. Tout ceci est remarquablement rendu compte par l’ancienne théorie d’Einstein centenaire de la relativité générale. Mais d’un autre point de vue, les trous noirs restent hautement mystérieux. Nous observons la matière tomber dans son intérieur, mais nous sommes dans l’obscurité à propos de ce qu’il advient de cette matière quand elle atteint le centre de ce trou.

« … Abhay Ashtekar, Javier Olmedo et Parampreet Singh viennent de franchir une étape qui répond à cette question. Ils ont montré que la gravité quantique à boucle — une théorie candidate pour fournir une description quantique de la gravité — prédit que l'espace-temps continue à travers le centre du trou dans une nouvelle région qui existe dans le futur et qui a la géométrie de l'intérieur d’un trou blanc. Un trou blanc est l'image par le temps inversé d'un trou noir : en elle, la matière ne peut que se déplacer vers l'extérieur. Le passage "à travers le centre" dans une région future est contre-intuitif ; Il est possible grâce à la forte distorsion de la géométrie spatio-temporelle à l'intérieur du trou qui est permise par la relativité générale. Ce résultat repose sur une hypothèse en cours d'investigation par de nombreux groupes de recherche : l'avenir de tous les trous noirs pourrait être de se convertir en vrais trous blancs, d'où la matière qui est tombée à l'intérieur peut rebondir. Cependant, les théories existantes n'ont pas été en mesure de montrer pleinement un moyen pour que ce rebond se produise. Puisque la gravité quantique à boucles parvient à le faire, cela indique que cette théorie a suffisamment mûri pour s’attaquer aux situations du monde réel (sic).

La raison pour laquelle nous sommes dans l'obscurité sur les aspects de la physique du trou noir est que les phénomènes quantiques dominent au centre et dans l'avenir de ces objets. La relativité générale classique prédit qu'un trou noir vit à jamais et que son centre est une « singularité » où l'espace et temps finissent. Ces prédictions ne sont pas réalistes car elles ne tiennent pas compte des effets quantiques. Pour lutter contre ces effets, nous avons besoin d'une théorie quantique de la gravité. Nous n'avons pas encore de consensus (sic) sur une telle théorie, mais nous avons des candidats, dont certains ont maintenant atteint le point de permettre des calculs réels sur le comportement quantique des trous noirs. La gravité quantique à boucles, qui a une structure conceptuelle propre et une formulation mathématique bien définie basée sur la représentation du tissu de l'espace comme un réseau de spin qui évolue dans le temps, constitue une telle théorie.

Approximativement parlant, le phénomène complet est analogue à celui du rebondissement d'une balle. Une balle tombe au sol, rebondit, puis se déplace vers le haut. Le mouvement ascendant après le rebond est la version inversée de la balle qui tombe. De même, un trou noir "rebondit" et il émerge lorsque le temps s’inverse : un trou blanc. L'effondrement de la matière ne disparaît pas au centre : elle rebondit à travers le trou blanc. L'énergie et l'information qui sont tombées dans le trou noir émergent du trou blanc. La configuration où la compression est maximale, qui sépare le trou noir du trou blanc, est appelée « étoile de Planck[1] ». En raison de la distorsion énorme du temps permise par la relativité, le temps de la production de ce processus peut être court (microsecondes) lorsqu'il est mesuré à l'intérieur du trou, mais long (milliards d'années) lorsqu'il est mesuré à l'extérieur[2]. Les trous noirs peuvent être des étoiles rebondissantes vues dans un ralenti extrême. »

Ensuite C. Rovelli tente de nous convaincre qu’il sera peut-être possible de vérifier par les voies de l’observation des ‘Fasts Radios Bursts’ (FRBs), ou de certains rayons cosmiques de très hautes énergies, que cette thèse des trous blancs est crédible. Ensuite il ajoute un zest de matière noire. On n’infère rien de probant à propos de ces sujets et de ces phénomènes, alors ajouter de l’inconnu à ce qui n’est que théorique depuis plus de vingt ans sans qu’il y ait le moindre indice d’une prédiction positive n’enrichit pas nos capacités de compréhension de ce qui se fabrique dans notre univers.

Ce qui est certain c’est que la détection des ondes gravitationnelles constitue un énorme progrès mais même avec l’augmentation prévisible à assez court terme de ces détections si on n’arrive pas à décrypter plus subtilement les ‘chirps’[3] obtenus, on va faire du surplace quant à la compréhension de la phénoménologie qui advient dans les trous noirs. On peut conjecturer, étant donné que l’état de trou noir est un état d’équilibre, en tous les cas pour ceux dont on a enregistré la fusion, que durant le processus de la fusion cet équilibre interne respectif, aujourd’hui insondable, n’est plus, et en conséquence la matière des deux trous noirs telle que nous la connaissons, à nouveau s’exprime furtivement d’une façon ou d’une autre. Par exemple par des fusions nucléaires inédites, par des rayonnements exceptionnels et cela pourrait peut-être se voir dans l’analyse poussée de la structure du ‘chirp’.

Les ondes gravitationnelles nous informent partiellement sur l’espace-temps dans lequel évolue les trous noirs, mais c’est une information sur leur environnement très proche. Il est souhaitable que nous ayons l’ambition de trouver le(s) biais par le(s)quel(s) on pourra progressivement, même si c’est pour la durée d’un éclair, obtenir des indices sur ce qui se joue à l’intérieur d’un trou noir en général. Ainsi n

 

[1] Lorsqu’une étoile cesse de s'effondrer, parce que la densité de matière a atteint la densité de Planck, la gravitation devient répulsive, de sorte que le trou noir stellaire explose en un trou blanc.

[2] Le tic-tac d’une horloge ralentit lorsque dans son voisinage le champ gravitationnel augmente, au cœur du trou noir ce ralentissement atteint son paroxysme au point qu’avec l’horloge en dehors du trou noir il y ait ce rapport de contraction de l’écoulement du temps comme évoqué par Rovelli. Ce résultat de la variation de l’écoulement du temps fonction de l’amplitude du champ gravitationnel est celui de la relativité générale et son essence se trouve explicitée par les tirets de : ‘Matière-Espace-Temps’ qui marquent cette interdépendance.

[3] On appelle ‘chirp’, ce signal, très éphémère, ondulant que l’on obtient sur les interféromètres qui pourrait simuler le son ‘chirp’.

Partager cet article

Repost0
9 décembre 2018 7 09 /12 /décembre /2018 12:15

Le syndrome de l’oiseau-lyre

            A la fin d’octobre un article dans le New Scientist annonçait : ‘Doutes graves sur les ondes gravitationnelles découvertes’, par le détecteur LIGO, produites par la fusion de deux trous noirs. Le 15 octobre 2015, l’interféromètre LIGO (situé aux Etats Unis) avait réalisé cet enregistrement et la publication officielle de ce résultat fut assurée en février 2016 après de long mois d’auscultation et de traitement du signal enregistré afin de garantir une valeur scientifique à l’événement.

            Ce fut avec beaucoup de stupeur quand le doute fut publiquement instillé, 2 ans et ½ après, par une équipe de chercheurs de l’Institut Niels Bohr de Copenhague. Ils instillèrent l’idée que l’équipe de LIGO avait exploité une technique « autoréalisatrice ». Ce type d’équivoque n’est pas impossible, surtout quand il s’agit d’une première détection annoncée comme théoriquement possible depuis plus d’un siècle. Mais après lecture de l’article démolisseur, je n’avais pas été convaincu par les arguments semant le doute car il y avait un mélange d’arguments critiquant la méthode avec d’autres qui semblaient chercher la petite bête et donc non recevables. Le risque d’une technique autoréalisatrice n’est pas négligeable car préalablement à la détection et à la publication ont été simulés tous les cas de figures de fusion de trous noirs à toutes les distances possibles de la terre. Cette base de données constituée pendant une dizaine d’années a été réalisée en exploitant les équations de la Relativité Générale, seul outil théorique actuellement à notre disposition. Cette base de données est riche de tous les ‘signaux calibres’ de vibrations possibles de l’espace-temps engendrées par la fusion de trous noirs. Et c’est lorsqu’il y a une très bonne superposition entre le signal enregistré par l’instrument et celui de la base de données que l’on considère être face à un événement réel doté des paramètres publiés. Est-ce suffisant ? pas tout à fait car après tout, un signal peut avoir un certain nombre de caractéristiques qui font penser à… sans qu’il soit pour autant à ce que l’on pense.

            Heureusement, il y eut un autre événement bien plus riche en informations reçus par plusieurs détecteurs de natures différentes. Cela s’est produit le 17/08/2017 et cet événement a correspondu à une fusion de 2 étoiles à neutrons. Cette fusion a produit en plus de la vibration gravitationnelle (vibration de l’espace-temps), des flashs de lumière avec des longueurs d’onde différentes et leurs propagations ont été réceptionnées par plusieurs télescopes alertés de cette occurrence et de plus l’observation d’une fusion nucléaire éphémère a été constatée. Cet événement multimessages a en même temps, évidemment, fiabilisé les résultats précédents obtenus par LIGO. Enfin, et c’est très important, cette fusion peut être situé spatio-temporellement avec une très grande précision ce qui permet d’organiser un suivi des phénomènes secondaires.

Malgré la valeur nouvelle et renforcée, à cette occasion, à la fois du résultat, de la fiabilité de l’instrument, de la technique et de la méthode du travail de l’équipe LIGO, l’équipe de Copenhague continue de maintenir ses griefs.

Pendant ce temps, une équipe Australienne avec d’autres, a obtenu de réanalyser toutes les données enregistrées par LIGO en 2017 et grâce à des techniques de calcul encore améliorées, et après 15 mois de recherche, d’auscultation méticuleuse des données, elle a découvert 4 fusions supplémentaires de trous noirs enregistrés entre fin juillet et fin aout 2017 (sic). Dont l’une est phénoménale (29/07/2017) puisque le trou noir résultant est de 80 masses solaires avec la conversion instantanée de 5 masses solaires en une énergie qui a violemment secoué l’espace-temps environnant et donné naissance aux ondes gravitationnelles qui ont commencé à se propager. Il a été aussi calculé que la fusion s’est produite il y a plus de 5 milliards d’années, soit avant que notre propre système solaire ne se forme dans la Voie Lactée. Les trois autres fusions de trous noirs ont été détectées entre le 9 et le 23 Août 2017 situées entre 3 à 6 milliards d’années et produisant des trous noirs finaux avec une masse de 50 à 60 fois celle de notre soleil. Avec l’observation de ces phénomènes on rencontre une parfaite illustration du paradigme explicite inscrit dans la loi de la Relativité Générale : Matière (énergie) – Espace – Temps, les traits d’unions rappellent l’interdépendance entre la matière, l’espace et le temps.

On peut s’étonner de cette fréquence de fusions de trous noirs, puisqu’avant octobre 2015 on n’avait jamais rien observé, et les chercheurs de Copenhague exploitent cette situation pour étayer leurs arguments qui expriment un doute négatif car pour eux ce serait la preuve de la détection de bien d’autres sources de vibrations (par ex. tremblement de terre ou autres secousses dans l’espace). On peut aussi avoir un sentiment de doute… mais positif car il n’est pas impossible qu’au bout du compte il y ait dans l’univers un tel tumulte d’événements cataclysmiques. C’est un avenir proche qui nous le dira car nous sommes encore dans la préhistoire de la détection des ondes gravitationnelles. Plusieurs autres détecteurs (3) sont en cours de construction et lorsqu’ils seront mis en réseau cela permettra d’obtenir d’excellents progrès.

La publication de ces résultats tout neufs du 4/12, s’est faite avec précaution, avec force d’arguments et de pédagogies. Un tableau récapitulant les 11 signaux significatifs enregistrés par LIGO depuis 2015 a été publié. La méthode permettant d’annoncer ces résultats avec une grande fiabilité scientifique a été préalablement exposée à des pairs au cours d’ateliers de travail. C’est tout bénéfice pour nous parce que l’équipe LIGO est obligée de fournir des informations plus complètes qui justifient leurs annonces sous la pression de ceux qui les contestent.

Un article de David Blair datant du 04/12 est révélateur de cette volonté de rendre publique tout le contexte dans lequel l’équipe travaille afin d’écarter toute publication d’un fait alors qu’il ne serait qu’une illusion. J’en propose une traduction partielle ci-après :

« Ainsi quel est notre degré de confiance lorsque nous détectons des ondes gravitationnelles et que ce n’est pas une illusion ?

Tous les bons scientifiques comprennent que l’examen méticuleux et le scepticisme constituent le pouvoir de la science. Toutes les théories et les connaissances sont provisoires, elles évoluent au fur et à mesure d’un processus d’un meilleur accès à la vérité. Il n’y a aucune certitude, il y a seulement probabilité et signification statistique.

Il y a de nombreuses années, l’équipe de recherche de LIGO a calculé préalablement le niveau de signification statistique nécessaire pour faire l’annonce d’une détection.

Pour chaque signal nous déterminons le rapport de l’alarme qui serait erroné. Cela nous donne combien d’années nous avons besoin d’attendre avant qu’il y ait une chance d’un signal aléatoire imitant le signal réel. Le signal le plus faible détecté jusqu’à maintenant peut avoir une fausse alarme chaque 5 années, donc il y a toujours une chance qu’il aurait pu être accidentel.

Les autres signaux sont plus robustes. Pour les 3 plus forts signaux détectés jusqu’à maintenant on devrait attendre entre 1000 fois et des milliards de fois l’âge de l’univers pour qu’ils se produisent par chance !!

Savoir quoi écouter.

La détection des ondes gravitationnelles est un peu semblable à de l’acoustique ornithologique. Imaginons que nous étudions les oiseaux et que nous voulions déterminer une population d’oiseaux dans la forêt. Nous connaissons le chant de chacune des espèces d’oiseaux.

Quand un chant d’oiseau correspond au chant prédéterminé, nous sommes satisfaits. Sa force nous dit à quelle distance il se trouve. S’il est très faible à l’égard du bruit de fond nous sommes incertains.

Mais de toute façon nous devons considérer l’oiseau lyre qui imite les autres espèces. Comment savons-nous que le chant du Kookaburra n’est pas produit par l’oiseau lyre ? Nous devons être très rigoureux avant de déclarer qu’il y a un kookaburra dans la forêt. Malgré cela nous devons être en confiance si nous faisons de nouvelles détections.

Dans le cas des ondes gravitationnelles nous utilisons des sons mémorisés appelés gabarits. Il y a un unique son pour la fusion de chaque combinaison des masses et des rotations possibles de trou noir. Chaque gabarit est créé en utilisant la théorie d’Einstein de l’émission des ondes gravitationnelles.

Pour éviter que des signaux nous échappent ou pour éviter d’annoncer des faux positifs enregistrés, la plus grande rigueur est nécessaire pour analyser les données. Des équipes importantes scrutent les données, cherchent les défauts, se critiquent entre elles, vérifient les codes informatiques et finalement revoient les publications pour plus de précisions. Les équipes séparées utilisent des méthodes différentes d’analyses et finalement comparent leurs résultats.

Avant que LIGO fasse sa première annonce publique, 2 signaux supplémentaires avaient été détectés d’une façon crédible. Ceci avait augmenté notre confiance et nous indiqua qu’il y avait une population de trous noirs qui entraient en collision dans le cosmos. Le premier était si correspondant à un gabarit, mais faible, que nous avons passé beaucoup de temps à nous assurer que ce n’était pas un hacker qui nous avait délibérément joué un mauvais tour.   

Notre bilan : pour chaque signal nous avons déterminé la masse des deux trous noirs entrant en collision, la masse du nouveau trou noir créé, et assez approximativement la distance et la direction de la collision.

Huit des 20 trous noirs initiaux ont des masses entre 30 et 40 masses solaires, six sont dans la vingtaine, trois dans l’adolescence et seulement deux sont dans les 7 à 8 masses solaires. Seulement un est proche des 50, le plus gros des trous noirs jamais détecté.

LIGO et VIRGO (interféromètre Européen situé en Italie mais n’ayant jusqu’à présent aucune autonomie de détection) améliorent leur sensibilité respective année après année et trouveront beaucoup plus d’événements à partir d’avril 2019, lorsqu’ils seront à nouveau en état de fonctionner. Avec d’autres nouveaux détecteurs en construction nous anticipons une sensibilité dix fois plus grande. Alors nous espérons être en mesure de détecter des signaux à peu près chaque 5 minutes(sic). »

Partager cet article

Repost0
5 décembre 2018 3 05 /12 /décembre /2018 10:06

Cette particule qui focalise nos ignorances persistantes sur les neutrinos.

Les physiciens nomment cette particule : le neutrino stérile. Peut-être que cette particule existe ou n’existe pas. Selon mon point de vue elle est très certainement le foyer de la convergence de toutes les ignorances accumulées en ce qui concerne les neutrinos dès le premier acte de création de ceux-ci en 1930 par W. Pauli. Ignorances qui se sont accumulées parce que dès qu’il y avait une hypothèse à formuler à leur propos, elle l’était toujours dans le cadre du modèle standard en cours de conception et en aucun cas elle n’était appropriée. De fait, cette hypothèse ajoutait de l’ignorance. Je crois que la plus néfaste est celle qui malheureusement fait presque l’unanimité chez les physiciens : puisqu’il y a oscillation des saveurs entre les trois neutrinos, alors ils sont dotés d’une masse d’inertie. Effectivement, nous disposons des moyens mathématiques pour rendre compte de cette oscillation en leur attribuant une mi mais c’est là le recours à une facilité qui a un coût très élevé. Je considère que les neutrinos sont les vecteurs d’une autre physique c’est-à-dire que tant que l’approche des propriétés physiques des neutrinos est pensée dans le cadre du modèle standard elle est totalement biaisée.

Cet article fait suite à celui du 24/07/2018 et comme vous pouvez le constater les énigmes s’accumulent. C’est une bonne raison pour garder un contact étroit avec celles-ci car c’est de cette façon que finira par surgir l’eurêka : « Mais oui ! mais c’est bien sûr »

Dans cet article je fais plusieurs références à celui du 21/11/2018 dans le NewScientist, « Comment une particule oubliée, fantôme, pourrait sauver la physique. » ; « Il y a plusieurs années, elle fut théorisée, mais jamais observée. Maintenant il semble que le neutrino stérile pourrait fixer les failles de la physique fondamentale – si seulement on pouvait l’observer. »

            Attribuer aux neutrinos la propriété de se transformer l’un dans l’autre résout le problème du neutrino solaire, mais d’autres mystères restent. Le plus vexant de ceux-là datent des années 1990, quand une expérience appelée : « Liquid Scintillator Neutrino Detector (LNSD), à Los Alamos, New Mexico » a trouvé que les antineutrinos muoniques oscillaient en des antineutrinos électroniques plus rapidement que prévu. Ce résultat a été confirmé par une deuxième expérience, MiniBooNE, qui a fonctionné au Fermilab, Illinois, de 2002 à 2017.

            Soit ces expériences sont marquées par le même défaut, ou bien quelque chose de plus profond se produit. « L’anomalie : LNSD/MiniBooNE est un mystère authentique ».

            Une autre base de résultats confondants est fournie par la désintégration radioactive dans les réacteurs nucléaires. Un peu comme dans le soleil, cette désintégration est une très grande source de neutrinos. Pour une raison inexplicable, les réacteurs nucléaires sur terre fournissent de l’ordre de 6% moins d’antineutrinos électroniques que ne le prédit le modèle standard.

            Donc : trop d’antineutrinos électroniques produit d’un coté et pas assez de l’autre. Qu’est-ce qui se passe sur la terre ?

            C’est là où le neutrino stérile intervient. Au lieu d’un trio net de neutrinos, l’idée est d’en inventer un quatrième, de saveur ‘stérile’ mais capable de se confondre par oscillation avec les trois autres. Cela est une gageure sachant que les neutrinos des trois générations : électronique, muonique, tauique, sont partie prenante du modèle standard, en même temps ce nombre continue d’être un mystère mais inventer une nouvelle génération ou bien considérer que le neutrino stérile est une anomalie isolée, assure la pérennité du casse-tête.

            Contrairement à ses jumeaux, qui eux interagissent via l’interaction faible, le neutrino stérile ressentirait seulement l’interaction gravitationnelle. L’idée a été proposée en 1958 par B. Pontecorvo, comme une possibilité pour les neutrinos de se transformer en antineutrinos. Mais la stérilité de cette particule proposée signifie qu’il serait presque indétectable. Son intérêt a donc rapidement faibli, jusqu’à ce que les anomalies le réactivent.

            La logique commande que les expériences MiniBooNE et LSND voient plus de neutrinos électroniques que prédits parce que les neutrinos stériles supplémentaires se désintègrent dans cette sorte. Et la raison pour laquelle les réacteurs en produisent moins s’explique du fait que les neutrinos électroniques se seraient désintégrés en la contrepartie stérile.

            Convoquer l’existence du neutrino stérile pourrait aussi bien exorciser un bon nombre d’autres problèmes. Les masses des neutrinos sont minuscules, plus d’un million de fois plus faible que l’électron (sic). Les raisons de cet écart sont inconnues, mais un quatrième plus massif pourrait offrir une solution. Via un processus reconnu comme le mécanisme de seesaw (balançoire), sa masse accrue conduirait les masses des autres vers le bas, comme pour les tout-petits qui montent et descendent sur une balançoire.

            Les mêmes particules ont été proposées en tant que candidats plausibles de la matière noire (sic). D’autres physiciens disent que le(s) neutrino(s) stérile(s) pourraient résoudre la question du : pourquoi l’antimatière, produite en quantité égale avec la matière, au début de l’univers, a maintenant complètement disparue. Si cela était ainsi : trois casse-têtes de la physique seraient résolus grâce à une seule théorie.

            Hélas, rien de ce qui implique le neutrino n’est simple.

            A chaque expérience suggérant des signaux d’un neutrino stérile, il y a une autre indication qui nous conduit à sa non-existence. Le plus concerné par cette situation est l’univers lui-même : l’arrangement présent des étoiles et des galaxies, et les faibles échos survivant du big bang. Comme le confirme le physicien Raymond Volkas (université de Melbourne) : « Si des neutrinos stériles ont existé et ont traversé l’histoire de l’univers, alors leurs présences auraient causé un cosmos avec une apparence différente que celle qui nous apparaît courante. »

            Il y a plus, l’anomalie relevée auprès des réacteurs a été récemment remise en question. Plusieurs expériences maintenant en fonctionnement placent les détecteurs de neutrinos plus près des réacteurs nucléaires qu’avant et favorisent en conséquence une plus précise disparition de l’antineutrino électronique. Bien que les analyses statistiques des données ne soient pas encore suffisantes, les résultats préliminaires suggèrent que les anomalies auraient disparues (sic).

            Les derniers résultats de MiniBooNE fournis au début de l’année, embrouillent les choses encore plus : Ils indiquent une anomalie plus importante qu’avant. Certains déclarent qu’il y a donc une forte évidence de l’existence de cette particule hypothétique. Mais si un neutrino stérile existe, le neutrino muonique ne devrait pas se transformer uniquement en neutrinos électroniques durant son parcours jusqu’au détecteur car certains devraient disparaitre aussi.  

            Jusqu’à présent la disparition du neutrino muonique n’a jamais été constaté. « Le récent renforcement de l’actuelle anomalie de MiniBooNE provoque une situation bien pire, parce que le signal d’apparition plus fort implique tout autant un signal de disparition plus fort. » nous dit R. Volkas.

            Durant les 15 années pendant lesquelles MiniBooNE était hors course, les physiciens ont organisé un bon nombre de petites expériences pour tenter de tester cette disparition explicitement. Une des plus importantes appelée MINOS+, est installée au Fermilab. Durant 10 ans celle-ci et ces prédécesseurs ont fonctionné et le neutrino muonique a résolument refusé de disparaître. Ceci pose des limites sévères ce sur quoi peut ressembler un quelconque neutrino stérile potentiel, si éventuellement il existe.

             Janet Conrad (MIT) nous dit que les expériences qui sont conformes à nos attentes comme MINOS+, sont historiquement moins examinées que celles comme LSND et MiniBooNE qui nous donnent des signaux non attendus. « Les limites appellent beaucoup moins d’examens que les anomalies. »

            Toutefois, ces temps-ci, Bill Louis, physicien au Fermilab a décidé de procéder à l’examen des résultats de MINOS+ et de la façon dont l’équipe les a analysés. La collaboration MINOS+ a travaillé très durement pour analyser les données. Ceci étant dit, il pense que des erreurs dans les données ont pu être négligées, conduisant l’équipe à éliminer les disparitions avec une grande certitude non justifiées.

            Le plus récent article de MINOS+ a dû attendre pour publication jusqu’à Octobre de l’année dernière, retardé pour inclure les résultats fournis par Louis. Bill Louis a recensé la moitié des problèmes évidents. L’équipe MINOS a travaillé avec Louis et d’autres et a affiné ses résultats.

Faisons le point : si les résultats de MiniBooNE et MINOS+ survivent après les examens approfondis, alors le neutrino stérile par lui-même ne tranchera rien. Nous avons besoin de quelque chose d’autre pour expliquer pourquoi la même particule provoque la survenance des neutrinos électroniques et muoniques, mais provoque uniquement la disparition des neutrinos électroniques. Quelques modèles théoriques inventent une nouvelle force qui pourrait résoudre le désaccord. Ou bien, peut être que nous n’avons pas besoin d’inventer quoi que ce soit au-delà du modèle standard. « Cela se pourrait qu’ainsi est la physique nucléaire, que nous ne comprenons pas bien. », dit J. Conrad.

Quand dans des expériences comme MiniBooNE sont cherchées des oscillations de neutrinos, la nature des oscillations dépend de l’énergie du neutrino observé dans le détecteur. Mais les neutrinos peuvent interagir avec d’autres particules sur leur trajet et changer leur énergie. Nous assumons que la plupart des neutrinos interagissent avec les neutrons libres dans le noyau atomique, mais quelques neutrinos peuvent aussi heurter une paire neutron proton, et ceci change la valeur de leur énergie. J. Conrad ajoute que nous ne comprenons pas encore complètement cet effet, donc nos analyses peuvent faire apparaître des oscillations alors qu’il n’y en a pas. Si c’était le cas, nous n’aurons pas besoin du neutrino stérile, mais tout simplement améliorer notre calcul.

Tandis que des théoriciens développent encore plus d’idées exotiques, les expérimentateurs cherchent, utilisant des détecteurs dans toutes les parties du monde, de la Russie au Royaume Unis, sous la glace de l’Antarctique, ils espèrent établir des liens plus étroits sur la disparition du neutrino muonique et le neutrino électronique, tout aussi bien la fréquence avec laquelle l’un oscille dans l’autre. Il va falloir attendre plusieurs années.

La vie secrète des muons.

Les neutrinos ont toujours été les moutons noirs de la famille des particules fondamentales. Ils apparaissent sous trois saveurs, chacune est associée à son cousin plus massif appelé électron, muon et tau. Ces particules plus massives (leptons) sont connues depuis longtemps mais il semble que le muon possède un secret très profond.

En 2001, une expérience au Brookhaven National Lab. à New York a mesuré un moment magnétique du muon excessif par rapport à la prévision théorique. Des expériences plus sensibles sont prévues l’année prochaine. De même au CERN des anomalies sont signalées dans la désintégration du méson Beau qui devrait se désintégrer également en muons et en électrons ce qui n’est pas le cas, il y a moins de désintégrations en muons. Ces deux anomalies pourraient être connectées !!!

P. S. extrait d’un cours enseigné, il y a 15 ans

Les neutrinos, curiosités de la physique depuis 1930 jusqu’à aujourd’hui.

              1920                                                1940                             1960                         1920                          1930                         1938              1956                   1964

           A. Eddington propose       Wolfang Pauli postule   Hans Bethe analyse les      F. Reines, Cl. Cowan    J. Bacall calcule  une origine thermonucléaire               l’existence d’1particule      processus nucléaires         sont les premiers à         le flux théorique pour rendre compte     nouvelle le neutrino : ν        qui prévalent dans le       détecter des ν émis par      des ν solaires. de l’énergie du soleil.                                                                        cœur du soleil.                  un réacteur nucléaire.                    

 

                                                             1980                                   2000

1967               1969                              1978 et 1985                1998                   2002              2002

R. Davis              Vl. Gribov et              ST. Mikheyev, A. Smirnov      L’expérience de     L’expérience du    L’expérience

réalise la 1er         B. Pontecorvo           indiquent que les                         Super-Kamiokande    SNO apporte la    Kamland détecte

mesure du flux    proposent le méca-     interactions des ν et de                   confirme les            preuve des       les oscillations

des ν solaires.   nisme des oscillations    la matière  intensifient            oscillations des ν     oscillations des νe      d’anti-ν produits

                             pour expliquer le                 les oscillations.                produits au sein du    émis par le soleil.   ds les réacteurs.

                             déficit des ν solaires.                                                             cosmos.

 

                         

   

Partager cet article

Repost0
28 novembre 2018 3 28 /11 /novembre /2018 11:27

La plus belle histoire de l’intelligence.

Des origines aux neurones artificiels : vers une étape de l’évolution.

L’intelligence a une histoire qui est celle de sa progression. Reconnaitre et comprendre cette histoire est le signe d’une intelligence qui s’éclaire car elle intègre dans la dimension d’un devenir les connaissances que dans la période présente elle établit. Je crois fermement que cette perspective permanente de l’évolution des connaissances établies, les nôtres, est une des conditions du plaisir de savoir. C’est le même processus que la marche, une fois qu’un pied prend un ferme appui sur le sol, immédiatement l’autre s’engage pour assurer l’appui suivant, et des paysages nouveaux sont à voir. C’est pourquoi, je suis toujours guidé par l’idée et la conviction : « au sein d’une éternité parmi tous les possibles, Anthrôpos ne cesse de creuser, sans fin, sa connaissance de l’univers. Univers qui ne peut être clos c’est-à-dire qu’il ne peut être définitivement connu, autrement Anthrôpos se figerait. » Aujourd’hui s’esquisse la prochaine étape de l’évolution du Sapiens que nous sommes, concomitamment à cette évolution de nouveaux espaces de sens seront conquis, cela implique le prolongement du déploiement de notre espace-temps physique actuel. Les bornes de l’univers jusqu’à présent dessinées seront repoussées et la phénoménologie mécaniste que l’on prête à cet univers sera probablement dépassée. Bref, le nouveau Sapiens en cours concevra un univers, un habitat qui sera à la dimension de cette prochaine étape de l’évolution.

Le titre de l’article est emprunté à celui du livre que je vous recommande, (un cadeau de Noël enthousiasmant), edit. Robert Laffont, correspondant à un interview et dialogue de S. Dehaene et Y. Le Cun ( qui ne sont plus à présenter) que l’on peut résumer ainsi, p.30: « L’intelligence humaine et l’artificielle se rencontrent, se fertilisent, se nourrissent l’une de l’autre. Mais quel est le futur ? Le cerveau humain pourra-t-il toujours dominer sa propre création ? Faut-il nous réjouir ou nous inquiéter de voir cette intelligence si insaisissable échapper au contrôle humain ? Dans une troisième partie, S. Dehaene et Y. Le Cun débattent de l’avenir des intelligences, porteuses d’autant d’espoir que d’inquiétudes, et qui sont incontestablement en train d’initier une rupture dans l’évolution d’Homo Sapiens, peut-être aussi considérable que celle du passage à la bipédie (sic). »

J’insiste en précisant que nous, qui sommes intéressés et concernés par la connaissance scientifique et plus particulièrement celle relative à la connaissance en physique, nous devons lire et réfléchir à ce que nous disent S. Dehaene et Y. Le Cun.

p. 255 et plus : « J’aimerais que l’on parle de l’irrationnel, qui fait partie intégrante de notre vie et de notre communication consciente. Où se situe cette attitude dans l’intelligence ? »

S.D. : « C’est intéressant de parler de ça maintenant parce que, à mon avis, c’est la conséquence de l’exploration qui nous caractérise : les êtres humains sautent souvent un peu trop vite aux conclusions, sans avoir suffisamment mis leurs hypothèses à l’épreuve. Notre cerveau apprend tellement vite que, parfois, sur la base de très peu d’informations, il tire des conclusions exagérées. Nous avons tendance à voir des causes cachées là où il n’y a que du hasard, parce que notre espace d’hypothèses est très orienté vers la causalité. Il dit : « Si j’ai vu une ou deux fois A suivi de B, il est possible que A soit la cause de B. » Et l’on colle des hypothèses erronées sur le monde extérieur. Nous en revenons à cette notion d’un cadre inné ou figé (sic) que nous plaquons sur le monde. »

« C’est cependant quelque chose qui nous a fait avancer. »

S.D. : « Oui, mais pendant longtemps, en voyant un orage, l’humanité a dit qu’il y avait un dieu de l’orage caché dans le ciel et qui envoyait des éclairs. Sans doute parce que l’orage excite notre système de détection des objets animés plutôt que du monde physique inanimé. »

Y.L.C. : « C’est la source de beaucoup de religions. D’ailleurs, ça s’appelle l’animisme. »

S.D. : « Cependant, je crois qu’au départ, il y a un fondement de rationalité, lié à notre évolution : l’idée que le monde se partage entre objets animés et inanimés est très efficace pour le comprendre. On applique juste ce schéma un peu trop loin. Il n’est pas impossible que des intelligences artificielles succombent à ce même travers. »

Des scientifiques artificiels (sic)

Y.L.C. : « C’est très possible. Nous sommes poussés, pour notre survie, à faire des prévisions à partir d’informations limitées et donc à attribuer des relations de cause à effet qui n’existent pas[1]. Ainsi, lorsqu’on demande à de très jeunes enfants ce qui produit le vent, ils répondent souvent que ce sont les feuilles qui font du vent en bougeant. Une relation causale à l’envers, née d’une observation. Normalement, pour obtenir une relation causale, il faut influencer le système afin de savoir si le fait de changer une variable modifie les autres. Ainsi, pour tester un médicament on crée un groupe placebo qui permet de comparer et, éventuellement, de constater un effet. Obtenir des relations causales par la simple observation constitue actuellement un domaine de recherches assez actif, aussi bien en statistiques qu’en machine learning et en intelligence artificielle. »

S.D. « En fait, l’humanité a développé un algorithme d’apprentissage multi-individus afin de poser ce genre de questions : on l’appelle tout simplement la « recherche scientifique » ! C’est un dispositif extraordinaire efficace sur le long terme, qui a fait progresser notre intelligence à une échelle jamais imaginée auparavant, et qui a permis en quelques milliers d’années de dépasser le stade irrationnel. Pour moi, c’est une interrogation : aurons-nous la chance, un jour, de voir apparaître en informatique une sorte de « scientifique artificiel » qui posera mieux que nous les bonnes questions sur l’organisation de la physique du monde et de la biochimie, et qui pourrait nous aider à résoudre des problèmes d’environnement par exemple ? »

p.258, Y.L.C. : « Cela existe déjà un petit peu… »

S.D. : « Mais les statisticiens se contentent d’observer les données. Ils ne font pas les expériences. »

Y.L.C. : « … Je pense tout de même que le scientifique artificiel autonome n’est pas pour demain. Même si, déjà, dans certaines découvertes les statistiques et l’apprentissage automatique ont joué un rôle prépondérant. Celles du boson de Higgs, par exemple… »

S.D. : « La science est une sorte d’algorithme. Il existe une méthode pour essayer de faire des découvertes, et on distribue les données sur des millions de processeurs qui sont les scientifiques. Certains adoptent des positions assez radicales et ils se disputent, parfois jusqu’à leur mort, sans jamais pouvoir se réconcilier sur la nature des données. D’une certaine manière, ça marche : l’intelligence collective[2] est le meilleur algorithme que l’on ait trouvé pour faire des découvertes. »

Y.L.C. : « Je fais partie de ceux qui pensent que l’intelligence artificielle va permettre à l’intelligence humaine de se développer (sic). Elle sera un amplificateur. Chaque apparition d’une nouvelle technologie a permis de libérer l’esprit pour des activités qui n’étaient pas accessibles auparavant. La maîtrise du feu et les quelques technologies dont nous disposions il y a quarante millénaires ont permis les premières expressions artistiques sur les parois de grottes. L’art s’est développé d’autant plus que les sociétés étaient mieux organisées et consacraient moins de temps à leur survie[3]. »

Attention à ce que nous dit Le Cun car préalablement à l’existence de moyens, de techniques, il faut qu’il y ait un besoin, un désir, d’expressions qualifiées aujourd’hui d’‘artistiques’ sur les parois des grottes (poussée de l’émergence de la condition humaine (voir note 3)). Mon impression quand j’admire les scènes de la grotte Chauvet, c’est que les animaux dessinés sont au bout des doigts des hommes de l’époque, ils sont dans la plus grande proximité visuelle et charnelle. Etant soit des proies, soit des prédateurs, il s’en faut de peu pour être soit l’un soit l’autre, il faut donc interpréter en une fraction de temps l’essentiel de ce que signifie le regard de l’ordre, le souffle, la posture de l’autre, et c’est pourquoi, ils nous apparaissent être dans un mouvement si irrépressible. C’est aujourd’hui qu’il faut être un artiste pour représenter avec une telle économie de moyens des choses si fortes car nos besoins ne sont plus les mêmes et notre proximité avec la nature et les habitants de la nature n’est plus.

Pour nous physiciens, astrophysiciens, observateurs, il y a matière à méditer et intérioriser ce qui est dit dans le paragraphe : ‘Voir pour savoir’, p.40 :

Il y aurait un lien entre l’évolution de l’œil et celle du cerveau ?

S.D. : « Il est clair que l’apparition de la vision a constitué une étape clé. On pense que cela s’est passé au cambrien, il y a en gros cinq cent quarante et un million d’années. Cette époque a connu l’explosion de nombreuses formes de vie très différentes. L’œil serait apparu au cours de cette ère. En tout cas, ce progrès a représenté un moment crucial… Grâce à la vision, l’organisme est devenu capable de se représenter des objets distants : le rayonnement électromagnétique, les photons qui parvenaient jusqu’à l’œil pouvaient venir de loin. »

Donc, la capacité de recevoir de nombreuses informations du monde extérieur constitue une nouvelle étape. Les cinq sens sont à l’origine d’une nouvelle forme d’intelligence.

S.D. : « Voilà. Mais à condition, bien entendu, d’être capable de se représenter ces informations et de les manipuler mentalement. Ce qui revient à dire : « Je cartographie le monde extérieur et j’en crée une représentation mentale. Une représentation détachée de la perception immédiate. »

Une carte virtuelle ?

S.D. : « Si l’on veut. Je peux fermer les yeux, je peux perdre les informations que me transmettent mes sens, je vais quand même réussir à les retrouver à l’intérieur de ma tête. On a découvert que les souris, par exemple, disposent d’une sorte de carte de leur environnement et d’un véritable GPS dans le cerveau. Ce fut l’objet du prix Nobel 2014 des époux Moser et de John O’Keefe. Ils ont montré qu’il y a des cellules dans le cerveau de l’animal, dans l’hippocampe en particulier, qui constituent une sorte de carte de l’environnement. Si bien que la souris sait à chaque instant où elle est. » Sur ce sujet voir article du 24/10.

Même s’il n’y a aucun point de repère ?

S. D. : « Même sans repères ! Même s’il s’agit d’une région plate, désertique, l’animal emporte avec lui cette carte mentale. Même dans le noir, la carte se met constamment à jour lorsqu’il se promène. Grâce à elle, il sait toujours retrouver, par exemple, les coordonnées de son nid. »

 

[1] Cela pourrait convenir à la description de la situation suivante : en cosmologie nous sommes obligés d’inventer la matière noire (la majorité des physiciens ne savent pas penser autrement) qui serait la cause de l’organisation structurelle de notre cosmos en galaxies, en amas de galaxies et superamas, elle serait aussi la cause de l’observation de la stabilité des galaxies et de la dynamique des amas de galaxies, etc. Cette matière noire n’a jamais été observée pourtant il n’est pas possible pour les physiciens d’intégrer l’idée que cette situation serait due au fait que notre information est limitée à cause de notre conception limitée voire erronée de notre univers qui serait clos et déterminé d’un point de vue spatio-temporel, vu comme un bloc univers, conséquence de la Relativité Générale.

[2] Voir article du 11/07/2012 et c’est pourquoi je propose des articles qui font références à la paléoanthropologie, à la philosophie, à la métaphysique, aux mathématiques, aux neurosciences.

[3] Cette affirmation de Le Cun est une source de débats tendus entre paléoanthropologues, ainsi dans l’article du 07/11, j’indique l’existence d’articles dans ‘Pour la Science’ qui privilégient : « La culture, moteur de l’évolution humaine. » P. Picq dans son livre, ‘Premiers hommes’, 2016, a un point de vue contraire, p. 336 : « Aujourd’hui encore, une majorité de paléoanthropologues et surtout des préhistoriens considèrent que notre évolution est plus cultuelle que biologique. Rien de plus faux ! Il n’en est rien, que ce soit pour Homo erectus ou, bien plus tard… » ; « Ce qui fait que notre évolution devienne humaine depuis Homo erectus ne vient pas de l’invention des outils, de la chasse, du partage de nourritures…mais de l’émergence de la condition humaine. Homo, est un transformateur de monde par sa pensée et ses actions… Cette puissance écologique d’Homo repose en outre sur une puissance biologique, physiologique et cognitive qui provient – fait inédit de l’histoire de la vie – de ses innovations techniques et culturelles, comme le feu et la cuisson. »

Partager cet article

Repost0
19 novembre 2018 1 19 /11 /novembre /2018 07:53

Il y a un pépin au bord de l’univers qui pourrait amener à reconsidérer la physique.

Ceci est le titre d’un article de Michael Brooks, que je soumets à votre réflexion car il souligne la fragilité des valeurs sur lesquelles nos modèles standards physiques sont bâtis. Fragiles, parce qu’on ne sait toujours pas : « pourquoi ces valeurs plutôt que d’autres ? » et l’explication anthropique n’étant plus acceptable actuellement, la théorie du multivers offre, entre autres, une réponse à cette question.

Un nombre mystérieux détermine comment la physique, la chimie et la biologie fonctionnent. Mais des indices expérimentaux controversés suggèrent que ce n'est pas un nombre du tout.

Ce nombre c’est α : la constante de structure fine = e2/hc (α s’exprime selon cette égalité moyennant un certain nombre de conventions unanimement acceptées, e représente la charge de l’électron, h est la constante de Planck/2π et c est la vitesse de la lumière). La constante de structure fine étant sans dimension, son existence même implique l'existence d'un mécanisme sous-jacent fixant sa valeur, et depuis les années 1920, donner une explication à cette valeur a été un défi lancé à la physique moderne et l'énigme reste toujours entière à ce jour. En électrodynamique quantique, la constante de structure fine joue le rôle de constante de couplage, représentant la force d'interaction électromagnétique et décrit les interactions entre la lumière et la matière. Sa valeur :  0.00729735 à quelque chose près = 1/137 nombre sans dimension ne peut pas être prédite par la théorie mais seulement déterminée par des résultats expérimentaux.

Si on change ce nombre d’un petit brin on change l'univers. Si on l’augmente trop, les protons se repoussent si fortement que les petits noyaux atomiques ne peuvent pas tenir ensemble. Si on l’augmente encore un peu plus, alors la fusion nucléaire à l'intérieur des étoiles ne peut plus produire du carbone, l'élément sur lequel la vie est basée. Rendre α beaucoup plus petit, et les liaisons moléculaires s'effondrent à des températures plus basses, altérant ainsi de nombreux processus essentiels à la vie.

Ce problème ne se pose pas uniquement pour α mais cela concerne 19 nombres pour définir le modèle standard de la physique des particules dont parmi la poignée de ces constantes : la masse du boson de Higgs, et une foule d'autres caractérisant les masses particulaires et les forces d'interaction. Ces constantes s’imposent dans la théorie, et nous devons injecter ces nombres arbitraires, ils sont juste là et, essentiels, nous les évaluons par l’expérience.

De plus, le modèle standard de la cosmologie nécessite 12 autres paramètres, y compris la constante de Hubble, qui décrit le taux d'expansion de l'univers, et les facteurs en rapport avec la matière noire et la densité d’énergie sombre.

Sur terre, au moins, alpha se maintient dans des limites strictes. Les expériences de laboratoire montrent qu’au plus elle pourrait varier de quelques parties par 10 milliards. Cela est 100 000 fois plus précis que G : la constante de Newton.

Dès 1937, Paul Dirac (1902-1984) avait formulé l’hypothèse que α aurait pu varier au cours du temps cosmologique. Peut-être que les interactions électromagnétiques étaient plus faibles ou plus fortes dans le passé ou encore sont-elles présentement différentes dans certaines parties distantes de l’univers ? La question se pose puisqu’actuellement les physiciens semblent avoir atteint une impasse dans leurs efforts pour dévoiler des vérités plus profondes à propos de la réalité. En conséquence si on mesurait une variation de α cela ouvrirait la voie pour une nouvelle physique (sic).

« Dans ce cas cela pourrait inclure, par exemple, la présence de dimensions supplémentaires. La théorie des cordes, un pari bien sauvegardé pour une théorie de la physique de la prochaine génération (sic), propose l'existence de minuscules dimensions bouclées que nous ne pouvons pas voir. Mais elles ont des effets sur des choses comme alpha. L'état des quantités que nous appelons des constantes est quelque peu dégradé si vous croyez qu'il y a des dimensions supplémentaires, dit le cosmologue John Barrow à l'Université de Cambridge. "S'il y a vraiment neuf ou dix dimensions de l'espace, avec seulement trois grandes, alors les vraies constantes immuables de la nature vivent dans le nombre total de dimensions et les ombres tridimensionnelles que nous observons ne sont pas de vraies constantes (sic)."

Pour le physicien John Webb, la possibilité d'un alpha variable est devenue une question quasi-obsessionnelle depuis deux décennies. Depuis 1996, il tente de trouver une réponse en se demandant si la lumière recueillie par certains de nos plus puissants télescopes serait capable de régler cette question. Plus récemment, les avancées technologiques ont rendu possible l'évaluation de α  α {\displaystyle \alpha } à une plus grande distance et avec une meilleure précision. En 1999, l'équipe de John K. Webb de l'Université de Nouvelle-Galles du Sud a affirmé avoir détecté une variation de α. α {\displaystyle \alpha } . ;. En utilisant les télescopes Keck (Île d’Hawaï) et une série de données sur 128 quasars avec un décalage vers le rouge de 0,5 < z < 3, Webb et al ont trouvé[1] que les spectres correspondaient à une faible augmentation relative de α = -0,57 + ou – 0,1×10α {\displaystyle \alpha } -5 sur 10-12 milliards d'années. Δ α α   = d e f   α t h e n − α n o w α n o w = − 0 , 57 ± 0 , 10 × 10 − 5 {\displaystyle {\frac {\Delta \alpha }{\alpha }}\ {\stackrel {\mathrm {def} }{=}}\ {\frac {\alpha _{\mathrm {then} }-\alpha _{\mathrm {now} }}{\alpha _{\mathrm {now} }}}=-0{,}57\pm 0{,}10\times 10^{-5}}

Une étude plus récente de 23 systèmes absorbants de raies spectrales menée par Chand et al en utilisant le Very Large Télescope montre qu'il n'y a aucune variation mesurable.

John Webb a accès maintenant au VLT et dorénavant il prétend avoir le résultat suivant au sujet de α : sa valeur change graduellement et approximativement linéairement avec la distance de la terre. « Si nous parcourons une distance correspondant à la distance que la lumière a parcouru depuis le Big Bang, nous nous trouvons dans une partie de l'univers où la physique commence tout juste à être sensiblement différente », dit Webb. L'univers a été en expansion depuis le Big Bang, cependant, de sorte que le cosmos s'étend encore plus loin que cela. La progression linéaire suggère que dans ces régions invisibles, alpha pourrait varier assez au point que l'univers lui-même commence à apparaître très différent. « C'est peut-être si différent que la vie telle que nous la connaissons ne peut pas exister », nous dit Webb.Δ α α e m = − 0 , 6 ± 0 , 6 × 10 – 6 {\displaystyle {\frac {\Delta \alpha }{\alpha _{\mathrm {em} }}}=-0{,}6\pm 0{,}6\times 10^{-6}}

Pour dépasser ce stade de l’incertitude et de la spéculation, il est prévu que d’ici la fin 2019, soit installé et fonctionnel un nouvel instrument : ‘EXPRESSO’ (Echelle Spectrograph for Rocky Exoplanet and Stable Spectroscopic Observation) sur le VLT. Etant donné le niveau de la performance attendu de cet instrument, l’observation de la variation significative d’α depuis le Big Bang sera tranchée et à partir de cette connaissance nouvelle, si elle s’impose, effectivement une nouvelle physique pourra surgir. 

            P.S. Je vous dois un mea culpa. Dans le précédent article du 14/11/ j’aurai dû rappeler que le physicien Roger Penrose pense avoir trouvé une preuve de son modèle de « cosmologie cyclique conforme ». Des « points de Hawking » seraient visibles dans le rayonnement fossile, témoignant de l'évaporation de trous noirs supermassifs survenue avant le Big Bang, dans un monde qui aurait précédé le nôtre.

L’hypothèse de l’empreinte d’un univers du multivers ou du multivers lui-même, dans le rayonnement fossile est proposée par d’autres physiciens. Tout cela est très ténu, raison de plus pour que je ne permette pas d’accroitre pour vous la fragilité de ces hypothèses très avant-gardistes.

 

[1] Durant son voyage vers la terre une partie de la lumière émise, il y a 12 milliards d’années, par des noyaux de galaxies extrêmement lumineux ou quasars, a traversé des nuages de gaz qui absorbent certaines longueurs d'ondes. Cela donne un moyen d’évaluation crucial de la valeur d’alpha : « Si vous changez alpha, vous changez le degré d'attraction entre l'électron et le noyau. », dit Webb. Cela change les longueurs des ondes absorbées par un atome donné - ce qui signifie que le spectre d'absorption crée une sorte de code-barres unique correspondant à la valeur d'alpha lorsque le spectre a été créé. »

Partager cet article

Repost0
14 novembre 2018 3 14 /11 /novembre /2018 16:36

L’Espace-Temps : une création d’acteurs bien connus ?

Ceci est le titre d’un article que j’ai obtenu sur le site de Phys.org. Je l’ai traduit et il est ci-joint, ci-dessous, dans son intégralité et en deuxième partie je commente les points sur lesquels je suis particulièrement attentif étant donné l’état de ma réflexion sur le sujet de l’Espace-Temps.

« Tout comme les interactions entre les grains de sable forment une surface lisse sur la plage, l'espace-temps connu par nous pourrait être le résultat de relations entre quarks et leurs conglomérats.

La plupart des physiciens estiment que la structure de l'espace-temps est formée d'une manière inconnue à l’échelle de Planck, c'est-à-dire à une échelle proche d'un milliardième de milliardième de milliardième de mètre. Cependant, des considérations pertinentes compromettent cette prédiction. En effet, il y a des arguments en faveur de l’émergence de l'espace-temps à la suite de processus qui se déroulent au niveau des quarks et de leurs conglomérats.

Qu'est-ce que l'espace-temps ? L'absolu, l’immuable, arène des événements ? Ou peut-être est-ce une création dynamique, qui émerge d'une certaine manière à une certaine échelle de distance, de temps ou d'énergie. Les références à l’absolu ne sont pas les bienvenus dans la physique d'aujourd'hui. A l’heure actuelle il est largement considéré que l'espace-temps est émergent. Ce n’est pas clair, cependant, où le processus de l’émergence se déroule. La majorité des physiciens tendent à supposer que l'espace-temps est créé à l’échelle de Planck, à une distance proche d'un milliardième de milliardième de milliardième de mètre (~ 10-35 m). Dans son article dans Fondations de la Science, professeur Piotr Zenczykowski de l'Institut de physique nucléaire de l'Académie Polonaise des Sciences à Cracovie systématise les observations de nombreux auteurs sur la formation de l'espace-temps, et soutient que l'hypothèse de sa formation à l'échelle des quarks et des hadrons (ou agrégats de Quarks) est tout à fait raisonnable pour un certain nombre de raisons.

Les questions sur la nature de l'espace et du temps ont laissé perplexe l'humanité depuis au moins l'antiquité. Est-ce que l'espace et le temps sont séparés de la matière, créant un "container ", un contenant, pour les mouvements et les événements se produisant avec la participation des particules, comme Démocrite l’a proposé au Ve siècle av. J.-C. ? Ou bien ils sont les attributs de la matière et ne peuvent pas exister sans elle, comme Aristote l’a suggéré un siècle plus tard ? Malgré le passage des millénaires, ces questions n'ont pas été encore résolues. En outre, les deux approches, bien que contradictoires, sont profondément enracinées dans les piliers de la physique moderne.

En mécanique quantique, les événements se déroulent dans une arène rigide avec un temps d'écoulement uniforme. Tandis que, dans la théorie de la relativité générale, la matière déforme l'espace-temps élastique (étirement et torsion), et l'espace-temps indique aux particules comment se déplacer. En d'autres termes, dans une théorie, les acteurs entrent dans une scène déjà prête pour jouer leur rôle, tandis que dans l’autre théorie, ils créent leur scène au cours de la performance, qui à son tour influe sur leur comportement.

En 1899, le physicien allemand Max Planck remarqua qu’avec certaines combinaisons de certaines constantes de la nature, des unités de mesure très fondamentales pourraient être obtenues. Seulement trois constantes – la vitesse de la lumière c, la constante gravitationnelle G et de Planck constante h — suffisaient à créer des unités de distance, de temps et de masse, égaux (respectivement) à 1,62 · 10-35m, 5,39 · 10-44s et 2,18 · 10-5g. Selon la croyance courante d'aujourd'hui, l'espace-temps serait créé à la longueur de Planck. En fait, il n’y a aucun argument de fond quant à la rationalité de cette hypothèse (sic).

A la fois les expériences les plus sophistiquées et les descriptions théoriques atteignent l'échelle des quarks, c'est-à-dire, le niveau de 10-18m. Alors, comment savons-nous que sur le chemin de la longueur de Planck – plus d'une douzaine d’ordres de grandeur consécutifs, toujours plus petits, de magnitude — l'espace-temps conserve sa structure ? En fait, Nous ne sommes même pas sûrs si le concept de l'espace-temps est rationnel au niveau des hadrons ! Les divisions ne peuvent pas être réalisées indéfiniment, parce que à un certain stade, la question de la prochaine partie plus petite cesse de faire sens. Un exemple parfait ici est la température. Ce concept fonctionne très bien sur une macro-échelle, mais quand, après les divisions suivantes de la matière, nous atteignons l'échelle des particules individuelles, il perd sa raison d’être.

 "Actuellement, nous cherchons d'abord à construire une quantification, un espace-temps discret, puis « remplir » avec de la matière discrète. Cependant, si l'espace-temps était un produit des quarks et des hadrons, la dépendance serait inversée — le caractère discret de la matière devrait alors appliquer la discrétion de l'espace-temps" dit le professeur Zenczykowski. "Planck a été guidé par les mathématiques. Il voulait créer des unités avec le plus petit nombre de constantes possibles. Mais les mathématiques sont une chose, et la relation avec le monde réel est autre chose. Par exemple, la valeur de la masse de Planck semble suspecte. On s'attendrait à ce qu'elle ait une valeur bien plus caractéristique du monde des quanta. En attendant, elle correspond à environ un dixième de la masse d'une puce, ce qui est certainement un objet classique."

Puisque nous voulons décrire le monde physique, nous devons nous pencher sur la physique plutôt que sur des arguments mathématiques. Ainsi, lorsque nous utilisons les équations d’Einstein, nous décrivons l'univers aux grandes échelles, et il devient nécessaire d'introduire une constante gravitationnelle additionnelle, connue sous le nom de la constante cosmologique lambda. Par conséquent, toujours dans le but de construire des unités fondamentales, si nous élargissons l’ensemble original de trois constantes avec lambda, dans le cas de masses, nous obtenons non pas une mais trois valeurs fondamentales : 1,39 · 10-65g, 2,14 · 1056 g, et 0,35 · 10-24g. La première de celle-ci est interprétée comme un quantum de masse, la seconde est au niveau de la masse de l'univers observable, et la troisième est similaire aux masses de hadrons (par exemple, la masse d'un neutron est de 1,67 · 10-24g). De même, après avoir pris en compte lambda une unité de distance de 6.37 · 10-15m (6.37 Fermi) apparaît, très proche de la dimension des hadrons.

"Jouer avec les constantes, cependant, peut être risqué, parce que beaucoup dépend des constantes que nous choisissons. Par exemple, si l'espace-temps était en effet un produit des quarks et des hadrons, alors ses propriétés, y compris la vitesse de la lumière, devraient être également émergente. Cela signifie que la vitesse de la lumière ne doit pas être parmi les constantes de base" dit le Prof. Zenczykowski.

Un autre facteur en faveur de la formation de l'espace-temps à l'échelle des quarks et des hadrons sont les propriétés des particules élémentaires elles-mêmes. Par exemple, le modèle standard n’explique pas pourquoi il y a trois générations de particules, d’où leurs masses proviennent, ou pourquoi Il y a ce qu'on appelle les nombres quantiques internes, qui incluent l’isospin, l’hypercharge et la couleur. Dans la représentation assurée par le Prof. Zenczykowski, ces valeurs peuvent être liées à un certain espace à 6 dimensions créé par les positions des particules et leurs impulsions. L'espace ainsi construit assigne la même importance aux positions des particules (matière) et à leurs mouvements (processus). Il s’avère que les propriétés des masses ou des nombres quantiques internes peuvent alors être une conséquence des propriétés algébriques de l'espace 6-D. De plus, ces propriétés expliqueraient aussi l'incapacité d’observer les quarks libres.

 "L'émergence de l'espace-temps peut être associée aux changements dans l'organisation de la matière se produisant à l’échelle des quarks et des hadrons dans le plus primaire espace de phase en six dimensions. Cependant, il n'est pas très clair ce qu'il faut faire ensuite avec cette image. Chaque étape subséquente nécessiterait d'aller au-delà de ce que nous savons. Et nous ne connaissons même pas les règles du jeu que la nature joue avec nous — il nous faut continuer de les deviner. Cependant, il semble très raisonnable que toutes les constructions commencent par la matière, parce que c'est quelque chose de physique et disponible expérimentalement. Dans cette approche, l'espace-temps ne serait que notre idéalisation de relations entre les éléments de la matière "dit le professeur Zenczykowski.

Plus d'informations : Piotr Zenczykowski, Quarks, Hadrons, et l'Espace-Temps Emergent, Fondations de la Science (2018). »

L’intérêt de cet article est franchement évident car il formule une hypothèse de la formation (émergence) de l’espace-temps originale. Que l’on adhère ou pas à l’hypothèse de Zenczykowski, son point de vue original mérite d’être analysé d’autant plus qu’il arrive à des ordres de grandeurs qui sont les miens. On peut considérer que ce genre de convergence n’est pas fortuit.

Lorsque l’auteur remarque qu’en mécanique quantique : les événements se déroulent dans une arène rigide, il nous rappelle que l’équation de Schrödinger, est une équation de la physique classique, indiquant que nous devons, faute d’alternative, décrire la mécanique quantique avec des outils mathématiques du monde classique car notre intelligence et nos connaissances se sont forgées dans une relation avec le monde de la nature à l’échelle de nos sens qui sont classiques. On peut dire que l’être humain est, brut de fonderie, un être classique. Lorsque l’auteur évoque la relation entre matière-espace-temps qui s’exprime avec la relativité générale, on peut aussi considérer que ceci est dans l’ordre des choses car l’être humain (et ses ancêtres) ne peut pas avoir une expérience du déplacement spatio-temporel ou de son immobilité sans que la force de gravitation soit effective. Ses points de vue sont basiques et utiles à rappeler.

Quand Zenczykowski affirme : « En fait, il n’y a aucun argument de fond quant à la rationalité de cette hypothèse. », il a parfaitement raison et il est vrai que l’on peut s’étonner de la persistance avec laquelle on continue d’attribuer du sens physique à ses grandeurs. Personnellement, je les ai toujours considérées comme des grandeurs hors-sols.

Ensuite, il indique que la longueur de 10-18m[1] pourrait avoir la valeur d’une longueur limite. Moi-même, avec des considérations différentes j’arrive à la même valeur limite des distances ainsi que pour le temps de l’ordre de 10-25 ou 10-26s comme valeur limite en deçà de laquelle l’intelligence humaine devient aveugle et ne peut plus opérer. Actuellement le point aveugle physique est de l’ordre de 10-21s. Constat qui est obtenu dans les détecteurs avec le Boson de Higgs. Il me semble que techniquement on peut encore gagner en précision mais le coût de ces gains de précision sont très élevés, ils le seront de plus en plus, et il y aura une valeur limite.

J’ai inféré cette valeur limite de l’intervalle de temps en considérant que sur la flèche du temps on peut aisément concevoir l’intervalle de 1 seconde[2] de l’instant présent qui sépare le temps passé du temps futur. Les deux bornes qui délimitent la partie du passé de la partie du futur sont disjointes par la durée d’une seconde. Si on subdivise indéfiniment cette durée d’une seconde on obtient un état où les deux bornes se touchent et le temps passé se déverserait directement dans le temps futur. Or celui qui mesure le temps, il le fait durant l’instant présent, en sa présence, entre passé et futur donc il doit toujours y avoir une durée présente indivisible qui est celui de la présence humaine active, le physicien, qui interdit que les deux bornes délimitant la flèche du temps en deux valeurs distinctes ne se touchent. Mais il y aura à coup sûr une limite qui ne pourra jamais être dépassée. Quels que soient les moyens techniques mis en œuvre, on butera sur un intervalle de temps indivisible car une présence est requise pour assurer la mesure et faire de la physique. L’opération de mesure ne peut pas être instantanée, c’est-à-dire ne peut pas se faire pendant une « durée » effective strictement égale à zéro seconde.

Mon raisonnement est développé en regard des contraintes de l’observateur, celui de Zenczykowski est développé en regard des contraintes de la matière mais nos conclusions convergent.

Quand il est prononcé dans l’article la phrase suivante : « Mais les mathématiques sont une chose, et la relation avec le monde réel est autre chose. » Cette appréciation est loin d’être banale car elle précise un clivage très important tout autant entre physiciens qu’entre mathématiciens. En effet la majorité de ceux-ci pensent que la relation avec le monde réel ce sont les mathématiques. Cette pensée est colportée depuis Platon, relayée par Galilée, puis Descartes, puis Kant, etc… ; etc… C’est une minorité qui considère que les mathématiques ne sont que des outils formels. Ces points de vue philosophico-épistémologique différents sont très déterminants sur la façon dont on pense a priori les lois de la nature et la représentation que l’on se figure de cette nature.

« Cela signifie que la vitesse de la lumière ne doit pas être parmi les constantes de base » dit le Prof. Zenczykowski. Puisque l’auteur interroge le bien fondé de considérer la vitesse de la lumière comme constante de base car elle serait déterminée par les conditions et les causes de l’émergence de l’espace-temps, je propose que l’on réfléchisse au statut de l’universalité de cette constante. Statut qui semble figé jusqu’à présent. Ce qui est assuré, c’est que l’univers que nous sommes capables actuellement de décrire, d’objectiver, est celui qui comprend de la matière baryonique et c’est de celle-ci dont toutes les parties de notre corps sont constituées et nous sommes en conséquence déterminés par les lois internes qui régissent ses constituants élémentaires et ses assemblages avec toutes les complexités possibles. Nous sommes donc en tant qu’émetteur et récepteur de lumière parfaitement sensibles aux rayonnements de cette matière de base. Notre intelligence prospective ne peut se référer qu’aux rayonnements de cette nature. Cela semble être pour nous une détermination absolue et vouloir la surpasser est donc totalement iconoclaste (voir article du 31/07/2013 : Être de lumière et intelligence des lumières ?). Je prétends qu’il est possible de la surpasser et nous sommes peut-être déjà au seuil de ce dépassement avec nos capacités actuelles de spéculer sur l’hypothèse du multivers. Je m’explique, l’idée qu’il existerait d’autres univers avec des propriétés physiques autres que celle de l’univers qu’actuellement nous concevons, n’est plus (en tous les cas, l’est moins) rejetée et je considère que cela progresse avec rigueur dans le bon sens[3]. Je considère que dès que nous aurons réuni suffisamment d’indications sur l’existence de tels autres univers, ils seront, de fait, intégrés dans notre nouvel univers qui résultera de la somme des nouveaux compris par notre intelligence en évolution et de celui qui est le piédestal actuel de notre spéculation. Dans ce cadre nouveau la vitesse de la lumière en tant que rayonnement n’aura plus le statut de constante universelle.

« Dans cette approche, l'espace-temps ne serait que notre idéalisation des relations entre les éléments de la matière » Pour conclure, je suis d’accord avec cette affirmation car il est évident que nous projetons, et nous ne pouvons pas faire autrement que de projeter nos connaissances qui sont les plus avancées des relations entre les éléments de la matière. Les relations entre les éléments de la matière telles que notre discours scientifique en dit, correspondent à l’état de nos connaissances actuelles et ne doivent pas être considérées comme correspondant à une quelconque ontologie.

Ce que l’auteur nous dit aussi c’est que l’espace-temps est un référentiel essentiel pour décrire ces relations. Cet espace-temps est notre ‘propre’, il n’est pas donné dans la nature, et c’est à partir de celui-ci que notre pensée, se structure, structure, prospecte et spécule avec le plus juste propos. 

 

 

[1] Cette distance limite peut être aussi pensée en considérant la dimension de l’électron. C’est par cette voie là que j’ai déduit cette même distance limite. Enfin elle est parfaitement compatible avec mon temps limite (TpS) de 10-26s car TpS = 10-18m/C.

[2] Toutes les mesures réalisées indiquent qu’il faut 1/3 de seconde pour qu’une personne ait une conscience de quelque chose. Avec l’âge cette durée augmente.

[3] R. Penrose aurait déjà décelé une trace d’un autre univers grâce à la zone froide ‘visible’ sur l’image du fond diffus cosmologique publiée par l’équipe ‘Planck’. Actuellement je suis plus convaincu par les arguments d’Aurélien Barrau voir article précédent du 24/10/2018.  

Partager cet article

Repost0
7 novembre 2018 3 07 /11 /novembre /2018 17:04

Nature(s) et Sapiens pensant, toujours à découvrir.

Dans les années précédentes, j’ai commis les 2 articles suivants : ‘Décrypter la physique comme science de l’interface de l’être humain et de la Nature !’ le 18/03/2015, ainsi que : ‘Décrire comment les humains interagissent avec la nature ? Comment ils évoluent grâce à cette interaction ?’ le 23/08/2016.

Ces derniers jours, il a été publié un livre sous la direction de Philippe Descola : ‘Les Natures en question’, édit. O. Jacob, qui présente ce livre en 4e de couverture : « Revêtue de significations multiples, la nature a longtemps formé le pôle principal d’une série d’oppositions dans la pensée européenne : nature et culture, nature et surnature, nature et art, nature et esprit, nature et histoire… Des études de plus en plus nombreuses, dont le livre se fait l’écho, mettent en doute la généralité de ces catégories et leur pertinence. L’effritement des limites de la nature est-il total, ou doit-on reconnaître la persistance de certaines discontinuités fondamentales entre humains et non humains ?

Issu du colloque de rentrée qui s’est tenu au Collège de France en octobre 2017, ce livre propose une réflexion interdisciplinaire sur les questions soulevées par les déplacements et les brouillages de frontière entre déterminations naturelles et déterminations humaines (sic). »

D’emblée je cite ce qui est rappelé dans l’introduction : « Heidegger l’a bien vu, la nature y a fonctionné comme le terme cardinal puisqu’elle spécifiait les caractéristiques de chacune des notions auxquelles on l’opposait. Ce qui se distingue de la nature reçoit d’elle sa détermination (sic) – la culture comme ce qui n’est pas transmis par l’héritage biologique, l’art comme ce qui relève de l’artifice et non du spontané, la société comme ce qui repose sur des conventions particulières et non universelles ; en sorte que nombre de concepts structurant la pensée européenne (sic) paraissent nés d’un effort sans cesse renouvelé pour se démarquer du mot nature dont le sens propre est terriblement vague. » Ainsi on mesure l’impact que peut provoquer les investigations des physiciens qui ont comme objectif prioritaire de dévoiler les lois de la nature c’est-à-dire de progressivement réduire le caractère terriblement vague du mot nature.

Selon ma thèse lorsqu’une propriété, une loi de la nature est découverte, elle devient de facto une composante qui enrichit le patrimoine des connaissances humaines, elle devient une composante du patrimoine culturelle, elle est donc d’une certaine façon ‘humanisée’. Dans le cadre de cette dynamique, je conçois que l’être-dans-la-nature qui habite l’être humain surplombe la nature avec une visibilité (intelligence) accrue tandis que concomitamment l’être-de-la-nature un peu plus dévoilé perd de sa sourde influence. Selon ma thèse les discontinuités fondamentales, qu’évoque Ph. Descola, ne disparaissent pas ni ne s’effritent au sens premier du terme mais c’est leur influence respective qui évolue dès qu’elles sont objectivées c’est-à-dire dès qu’elles sont humanisées. En même temps il ne faut pas oublier que cette humanisation spécifique n’est jamais close, n’est jamais aboutie, pensons à la loi de Newton qui est englobée par la suite par la loi de la relativité générale d’Einstein et celle-ci sera englobée par une autre loi encore à découvrir.

Je rencontre avec beaucoup d’intérêt sous la plume de l’auteur les notions auxquelles je me réfère régulièrement, celles de déterminations naturelles et de déterminations humaines. Selon mon schéma les déterminations naturelles que véhiculent l’être de la nature sont moins prégnantes dès qu’elles sont élucidées par l’intelligence humaine. Elles continuent d’être naturelles mais leur nature comprise est intégrée et définitivement appropriée par l’être dans la nature. Ainsi lorsque l’être humain, ici plus spécifiquement les physiciens s’approprieront de l’idée que l’espace-temps est un propre de l’homme[1] du fait de son évolution au sein de la nature depuis les profondeurs du temps bien des propriétés de la mécanique quantique aujourd’hui toujours bizarres deviendront compréhensibles.

A la page 8 du livre, dans l’introduction, Descola nous dit : « … certaines espèces sont parvenues à se hisser (sic) au-dessus de leur condition « naturelle ». C’est en premier lieu sous l’influence de l’éthologie que cet aggiornamento s’est produit, lorsque fut mise en cause l’absolue singularité des humains en tant qu’espèce apte à produire de la différence culturelle. ». Avec cette citation, je me permets de considérer que l’auteur adopte une semblable dynamique à la mienne. C’est en tant qu’anthropologue que logiquement il adopte cette conception, quant à moi c’est en visitant avec une curiosité ouverte l’histoire de la pensée en physique et de ses succès que j’ai adopté cette conception du ‘hissement’ (surplomb progressif) pour l’être humain.

Rappelons que la pluralité des définitions de la nature n’est pas nouvelle ainsi à l’époque des Lumières, Denis Diderot le pannaturaliste désigne : « le système qui considère la nature comme principe fondamental, pour lequel rien n’existe en dehors de la nature », les autres articles sur la « Nature » de l’Encyclopédie sont fortement influencés par Newton. Ainsi, la nature ne serait pas caractérisée par la pluralité des objets, mais par l’unité des sciences qu’elle postule. De Descartes à D’Alembert, un même principe architectonique préside à l’enquête sur la nature. Le domaine des mathématiques est en pleine expansion grâce à la rencontre entre physique et mathématiques initiée au XVIIe siècle. Mais ce projet d’unification de la nature par la mathématisation ne va pas sans résistance dans le monde savant. Denis Diderot défendra contre D’Alembert l’idée d’une nature plus riche, plus diversifiée et en conséquence largement rétive à la mise en équation…

Ce livre réunit un ensemble d’interventions que je conseille, bien évidemment, d’étudier. Ici dans l’article, je privilégie l’intervention de Claudine Tiercelin qui a pour titre : ‘Comment situer l’esprit dans la nature ?’. Vaste sujet, que ce soit dans le cadre d’une conception dualiste[2] ou dans le cadre d’une conception réductionniste physicaliste[3]. Mais ce sujet est taraudant dès que l’on est convaincu que la sphère du sens est proprement humaine. Il est à mon sens parfois vivifiant de ressasser des questions qui n’ont pas de réponse immédiate voire même n’auront aucune réponse suffisante car elles ont la vocation de nous mettre en garde contre la tentation de produire des conclusions hâtives. Ainsi page 238, C. Tiercelin nous interpelle avec cette interrogation :

« Quelle est la place de notre liberté dans la Nature ? Nous pensons spontanément que nous ne sommes des agents libres que si nous pouvons agir sur le monde physique en vertu de nos décisions et, plus généralement, en vertu de nos états et processus mentaux, en d’autres termes, si nous admettons le principe d’une forme de « causalité mentale » ou « descendante ».

Cette causalité mentale descendante n’est pas envisageable dans le cadre du physicalisme car étant in fine réductible à des lois physiques le mental serait donc physique et notre liberté dans la Nature serait un leurre.

 C. Tiercelin ajoute : « En d’autres termes, et telle est sans doute la raison majeure de notre réaction épidermique au réductionnisme physicaliste : comment l’esprit peut-il exercer ses pouvoirs causaux dans un monde dont nous sommes prêts, par ailleurs, à admettre, qu’il est physiquement clos ? Pourquoi et comment peut-il exister quelque chose comme un organisme vivant, un esprit, une conscience dans un monde intégralement régi par la physique ? »

En effet dans le cas de figure privilégié ci-dessus l’esprit ne peut pas exercer de pouvoirs causaux puisqu’il serait pris lui-même dans le filet de la causalité, il n’en serait qu’un maillon, il serait donc précédé par une cause et produirait un effet qu’il ne maîtriserait pas. La problématique, du monde physiquement clos, soulevée par Tiercelin, n’est valable aujourd’hui que dans un contexte restreint étant donné l’état actuel de la connaissance et il est dommage que dans un colloque datant de l’année dernière, il ne soit pas évoqué les théories qui justement ouvrent le monde des possibles en physique parce que ce dont l’auteur cite comme unique référence apparaît, est déjà apparu, comme un non-sens et certains physiciens ont vécu, ont compris, que cette tension était plutôt le fruit d’une pensée insuffisante que le fruit d’une pensée bien placée en cosmologie. Je fais donc référence à l’hypothèse du multivers[4] ainsi qu’à la théorie du rebond. Comme quoi chaque domaine de réflexion à sa propre inertie, parce qu’il est humainement toujours difficile de repenser, de remettre en cause, ce qui fait de soi un(e) intellectuel(le) doté(e) d’une aura professionnelle. L’académisme peut malheureusement être une prison pour la pensée.

La lecture de l’ensemble de l’intervention provoque l’émergence d’une réelle inquiétude car je découvre qu’un excès d’érudition peut s’opposer à l’expression d’une pensée propre qui expose un supplément de réflexion, au-delà voire au-dessus des références des études dont se nourrit l’auteur. Dire ce qui est déjà pensé, comment cela est déjà pensé, n’est pas suffisant pour promouvoir une pensée nouvelle originale. De plus rappeler des catégories pour dire qu’elles sont dépassées et/ou d’autres sont immuables assèche l’enthousiasme de prolonger le suivi de la réflexion de l’auteur. Je cite : «… ne pas réintroduire en douce, quelque élan vital bergsonien, ou autre billevesée panpsychiste (thèse selon laquelle toutes les propriétés sont mentales : voir articles du 16/02/2018 et du 25/02/2018) ; … restons fermes sur les principes de l’unité de la science, de la clôture causale du physique et de l’exclusion causale du mental, conséquence de l’impossible surdétermination causale. »

  Par contre, j’ai pu lire aussi des mises en garde pertinentes telle que : « Il serait imprudent d’affirmer trop vite que telle ou telle théorie cognitive va opérer un découpage correct du monde mental : il n’est pas évident que le cerveau soit le miroir exact des articulations de notre esprit. D’où l’importance d’une démarche que je qualifierais volontiers de véritable ontologie cognitive exploratoire, qui consisterait à déterminer, moins à quoi, dans le cerveau, correspond telle activité mentale que ce dont on parle lorsqu’on considère qu’il y a certains processus mentaux qui se déroulent, en distinguant en particulier aussi finement que possible, au sein de l’esprit, les niveaux subdoxastiques, doxastiques, métadoxastiques et surdoxastiques (sic). »

Je reprends sur le rappel par C. Tiercelin de la nécessité de rester ferme sur des principes de l’unité de la science, de la clôture causale du physique, etc… Pourquoi faudrait-il que des connaissances robustes impliquent une clôture, un absolu, une certitude quant à leurs valeurs définitives ? Nous ne pouvons pas oublier que le Sapiens pensant que nous sommes n’est pas, lui-même, vraiment connu, compris, en tant que concepteur et émetteur de connaissances et comme nous le verrons plus loin cela est positivement intrigant. A cet égard nous devons conserver une ouverture d’esprit pour saisir à propos des nouveautés de connaissances, de compréhensions, toutes les ouvertures conséquentes. Cela n’implique pas le relativisme, ni ne fragilise ce que nous sommes présentement, au contraire cela permettra de rendre progressivement plausible ce qui est encore aujourd’hui de l’ordre de la métaphysique. Opportunément le N° de ‘Pour la Science’ du mois de Novembre (que je conseille d’étudier) traite du sujet suivant : ‘Ce qui distingue Sapiens des autres animaux’ accompagné de l’introduction suivante : « Culture, langage, cognition… : l’espèce à laquelle nous appartenons est singulière, tout le monde en convient. Et cette singularité nous intrigue depuis toujours. De fait d’innombrables penseurs ont tenté de définir ce qui fait le propre de l’homme. Avec hélas peu de résultats convaincants et durables face aux découvertes de l’éthologie. Néanmoins, le progrès de la science aidant, nous connaissons aujourd’hui mieux les différences essentielles entre les humains et les autres animaux, et nous comprenons mieux leurs origines… Bref l’état des lieux provisoire montre que le fait culturel joue un rôle capital. »

Le premier article : « La culture, moteur de l’évolution humaine ». Je cite ce qui retient particulièrement mon attention : Si notre espèce brille par son intelligence et sa créativité, c’est parce que nous sommes avant tout des animaux sociaux. Langage, empathie, enseignement… : ces éléments qui facilitent les interactions sociales et le partage des connaissances auraient été autant de clés au succès évolutif d’Homo sapiens.

La culture aurait fait grandir notre cerveau.

Que les activités culturelles de nos ancêtres aient fait peser une pression de sélection sur leurs corps et leurs esprits – un processus de coévolution gène-culture – est maintenant (sic) bien étayé. Des analyses théoriques, anthropologiques et génomiques concordent pour indiquer que le savoir transmis socialement, notamment celui permettant la fabrication et l’usage d’outils, a engendré en retour une sélection naturelle qui a transformé l’anatomie et la cognition… L’enseignement et le langage ont complètement rebattu les cartes pour notre lignée. La coopération à grande échelle est apparue dans les sociétés humaines grâce à nos facultés uniques d’apprentissage social et d’enseignement…

Des Êtres qui sont en partie le produit d’eux-mêmes[5].

Deuxième article : « Des pensées emboîtées… et partagées. » Je cite :

Les recherches ont mis en relief deux distinctions majeures : notre capacité à imaginer des scénarios imbriqués et le partage de pensées et le partage de pensées avec autrui. Réunies, ces aptitudes sous-tendent des facultés humaines primordiales telles que le langage, la culture, la moralité, l’anticipation du futur, la capacité à lire dans la pensée des autres.

Troisième article : « Comment le langage s’est imposé » je cite :

Parmi toutes les formes de communication rencontrées dans le monde animal, le langage humain fait figure d’exception. Comment a-t-il émergé ? Les particularités biologiques et cognitives des humains ne sont pas les seules en jeu : de plus en plus, les scientifiques soulignent le rôle décisif qu’a joué la culture.

On n’a rien trouvé d’unique en nous qui explique le langage humain (sic).

Les recherches sur l’évolution du langage constituent un champ scientifique encore jeune. Les chercheurs n’ont pas atteint le graal escompté, à savoir un évènement crucial expliquant l’apparition du langage, mais leurs travaux montrent que cette quête est probablement vaine. L’émergence du langage est un processus plus multifactoriel qu’on ne le pensait.

A ce stade des citations de ‘Pour la science’, on constate que ce qui constitue une aptitude qui caractérise l’être humain n’aurait pas de cause première, mais serait le fruit d’une évolution multifactorielle nous interdisant de considérer qu’une quelconque réduction serait envisageable, réduction qui nous permettrait d’isoler la souche spécifique à l’engendrement de l’humain. La richesse naturelle (peut-être pouvons-nous la nommer contingence !) qui est à l’origine de ce qui conduit à l’humain doit être toujours pensée lorsqu’il y a une volonté irrépressible de clôture car elle est en opposition à ce qui est de l’ordre de l’humain. La seule raison qui peut justifier l’idée de clôture… provisoire c’est la nécessité d’une pause pour reprendre un élan. C’est ainsi qu’il faut comprendre, à mon sens, l’hypothèse du big bang de l’univers qui n’est qu’une étape permettant à la pensée d’évaluer le caractère infondé, artificiel, mais provisoirement sécurisante, de cette hypothèse et après évaluation permettant ainsi d’ouvrir l’hypothèse d’une ouverture, d’une respiration, intellectuelle nouvelle avec la théorie du multivers.

A propos du langage humain, il faut rappeler que Noam Chomsky a tenu la corde longtemps avec son hypothèse que le langage était dû à une dotation génétique du même type que celle qui spécifie la structure de notre système visuel ou celle de notre système circulatoire. Cette hypothèse est en opposition avec celle du multifactorielle. De même N. Chomsky affirme que le langage est ‘conçu’ pour penser, la communication n’étant que secondaire. Donc ceci contredisant l’article de Pour la Science, peut être retrouvé dans le N° de La Recherche Hors-Série que j’ai cité dans les derniers précédents articles. En conclusion le Sapiens pensant, que nous sommes aujourd’hui, a des perspectives de connaissances ouvertes pour comprendre sa raison d’être, tout comme pour comprendre concomitamment le : là étendu où il se situe.

Quatrième article : ‘Un cerveau hors catégorie’, je cite :

Un encéphale particulièrement gros, un cortex particulièrement plissé, des connexions neuronales particulièrement nombreuses… le cerveau humain est singulier dans le monde animal.

Le registre fossile des homininés met en évidence une tendance générale de croissance du volume crânien au cours des six derniers millions d’années environ. Cela correspond à la séparation de notre lignée de celle des chimpanzés et des bonobos.

Fort développement de certaines aires cérébrales. Certaines régions du cerveau, responsables de fonctions cognitives supérieures, ont augmenté de taille de façon disproportionnée chez les humains, comparées aux mêmes aires chez les chimpanzés. Il s’agit notamment du cortex préfrontal, du cortex associatif temporal et du cortex associatif pariétal.

Le cerveau d’Homo habilis (entre 3,3 et 2,1 millions d’années), 646 cm3 ; le cerveau d’Homo erectus (entre 1,9 million d’années à 143 000 ans), 952 cm; le cerveau d’Homo neanderthalensis (400 000 à 40 000 ans), 1404 cm3 ; le cerveau d’Homo sapiens 300 000 ans à aujourd’hui, 1500 cm3.

 

[1] Voir dans l’article précédent la citation de l’article : ‘Code neural du temps’ ; Voir aussi la nouvelle publication d’octobre 2018 de J.G. Heys et D.A. Dombeck dans Nature Neuroscience : ‘Evidence d’un sous circuit dans le cortex entorhinal médian représentant le temps s’écoulant pendant l’immobilité’.

[2] En philosophie, le dualisme est un point de vue strict affirmant que l’univers est constitué d'un constituant physique et d'un constituant mental. Le dualisme se réfère à une vision de la relation matière-esprit fondée sur l'affirmation que les phénomènes mentaux possèdent des caractéristiques qui sortent du champ de la physique

 

[3] Le physicalisme constitue une version extrême et paradigmatique de réductionnisme hétérogène car il considère que tous les niveaux de la réalité sont réductibles, en dernière instance, à son niveau le plus fondamental qui est celui de la physique. Cette forme de réductionnisme est intimement liée à une conception ontologique et non pas simplement méthodologique ou épistémologique de l'unité de la science. Les objets apparemment divers dont s'occupent les différentes sciences empiriques relèveraient ultimement d'une ontologie unitaire et la microphysique (sic) serait le dépositaire de cette ontologie

[4] L’hypothèse du multivers bénéficie d’une certaine façon de fondements de la physique théorique qui a fait ses preuves. Mais effectivement elle n’est pas prédite par des équations, par contre cette hypothèse ne peut pas être exclue, loin de là, par l’avancement, la compréhension nouvelle approfondie, de cette physique théorique qui finalement, au bout du compte, bénéficie d’une consolidation grâce à cet approfondissement.

[5] Dans le livre récent : ‘Dernières nouvelles de Sapiens’ édit. Flammarion, les auteurs considèrent qu’Homo sapiens serait un « animal autodomestique » et la culture jouerait un rôle dans sa conformation biologique : l’homme ne vit pas dans la nature (sic) mais dans la société. Comme avant eux, l’anthropologue Maurice Godelier l’a souligné et analysé, les humains ne se contentent pas de vivre en société, ils doivent « produire de la société » pour vivre.

Partager cet article

Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens