Overblog
Suivre ce blog Administration + Créer mon blog
2 janvier 2019 3 02 /01 /janvier /2019 11:32

Les physiciens des hautes énergies perdent la main.

            Depuis le début des années 1980 les physiciens des hautes énergies envisageaient sérieusement découvrir d’une façon linéaire tous les constituants de ce qu’ils nomment le Modèle Standard des particules élémentaires et lorsqu’ils auront atteint cet objectif l’au-delà du Modèle Standard (MS) sera fléché par les failles et les incomplétudes qui se révèleront au sein même du MS. A partir de là, il (était) est pensé qu’il suffit de disposer de collisionneur atteignant des niveaux d’énergie de plus en plus élevés, au centre de masse de la collision : particules-particules ou particules-antiparticules, pour qu’il soit observé dans les détecteurs de plus en plus performants les éléments constitutifs de l’au-delà du MS.

            Cette perspective d’une progression linéaire irrémédiable de découvertes (était) est alimentée par la perspective qu’il y (avait) a un chemin qui conduit à l’obtention d’une unification des forces fondamentales et des particules fondamentales qui agissent dans notre univers et ceci est en accord avec la théorie du Big Bang puisque le premier souffle de l’univers est celui d’un rayonnement extraordinaire.

            En 2003 un livre de très grande qualité a été publié : ‘Large Hadron Collider Phenomenolgy’ ; ‘La phénoménologie au cœur du Grand Collisionneur d’Hadrons’, et remarquablement il annonçait avec une très grande précision tout ce qui était prévu d’observer dès que le LHC fonctionnera et en plus : comment on ira au-delà, bref le chemin était tout tracé. On annonçait aussi quels étaient les futurs instruments qu’il fallait concevoir pour prolonger ce qui assurément se laisserait voir dans le LHC.

            Etonnamment le premier, sérieux, grain de sable c’est que le boson de Higgs observé péniblement en 2012 est parfaitement conforme à la prédiction théorique du MS, sans aucune autre indication. En fait ce succès est frustrant et l’impression qu’une impasse est atteinte est de plus en plus partagée maintenant par la communauté des physiciens des hautes énergies. Pas d’alternatives à l’horizon.

            Jusqu’à maintenant ces physiciens avaient obtenu assez facilement les budgets nécessaires pour construire et faire fonctionner ces énormes machines qui nous permettaient de comprendre de mieux en mieux la structure la plus élémentaire de la matière ainsi que les forces qui régissent notre univers. Le problème c’est que maintenant il n’y a plus d’extraordinaires perspectives à faire valoir auprès des décideurs publics pour mobiliser les premiers milliards de dollars nécessaires à ces projets.

            Ainsi le 23/12/2018, un article, sur le site Nature, indiquait que l’heure de vérité s’approchait et l’optimisme n’était pas de mise. J’en propose une traduction et des commentaires ci-dessous :

Le projet du prochain grand collisionneur de particules au monde subit un revers important.

Le Comité scientifique japonais interroge le montant du coût du projet de plusieurs milliards de dollars, mais la décision incombe au gouvernement.

Le projet de construire un collisionneur de particules au Japon pour succéder au LHC a subi un revers significatif. Un rapport influent de scientifiques japonais a conclu qu'il n’était pas possible de soutenir le projet de construire le collisionneur linéaire international (ILC) dans le pays. L’ILC a été étudié et conçu depuis de nombreuses années et il est censé permettre l’étude du boson de Higgs découvert en 2012 qui est considéré comme la dernière pièce du puzzle pour les physiciens des particules du 'modèle standard'.

Mais les découvertes prévues pour justifier la construction de l’ILC ne sont pas pleinement à la mesure du coût de près de 7 milliards de dollars, a déclaré un comité du Conseil Scientifique du Japon dans un rapport publié le 19 décembre, selon les comptes rendus de la presse. En tant que pays hôte, le Japon serait censé financer de l’ordre de la moitié du coût total. Le comité, qui conseille le gouvernement, a ajouté que l'incertitude quant à savoir si les partenaires internationaux partageraient les coûts du projet augmente ses préoccupations. L'accélérateur proposé — qui serait de plus de 20 kilomètres de long — permettrait aux physiciens de détecter précisément les produits des collisions entre les électrons et les positrons.

Le gouvernement utilisera maintenant ce rapport, qui reflète les opinions de la communauté académique au Japon et pas seulement celles des physiciens des hautes énergies, pour guider sa décision sur l'opportunité d'héberger l'installation. Une décision est attendue pour le 7 mars (sic), lorsque le groupe international qui supervise le développement de l’ILC : le ‘Linear Collider Board’, se réunira à Tokyo.

Les physiciens se sont déclarés préoccupés par les conclusions du Comité. "Ce sont de très mauvaises nouvelles, car cela rend très improbable que l’ILC sera construit au Japon et probablement pas du tout." a tweeté Axel Maas, un physicien théoricien de l'Université de Graz en Autriche.

« Cependant, le Comité a déclaré que le fondement scientifique pour la construction de l’ILC était solide », déclare Hitoshi Yamamoto, physicien à l'Université de Tohoku à Sendai et membre de la collaboration ILC. Le Comité a également reconnu que le collisionneur est considéré par la communauté de la physique des particules comme la priorité absolue parmi les projets futurs possibles, ajoute-t-il.

Le projet a maintenant besoin de bonnes nouvelles, dit Yamamoto. Avec des financements serrés dans le monde entier, « la situation de l’ILC s'aggrave rapidement », dit-il. « Une annonce positive du gouvernement japonais inversera la tendance et amènera soudainement l’ILC au niveau de projet prioritaire. », dit Yamamoto.

Toutes les craintes que d'autres domaines de la science au Japon pourraient souffrir si ce projet coûteux va de l'avant est compréhensible, dit Brian Foster, un physicien à l'Université d'Oxford, et membre de l'équipe de la conception de l'installation. Mais il précise que la position pessimiste du Conseil ne signifie pas nécessairement que le gouvernement ne soutiendra pas le projet. « Si le gouvernement veut le faire, il le fera », affirme-t-il.

Nation solitaire.

Le Japon est la seule nation jusqu'à présent à manifester de l'intérêt pour le collisionneur, et une décision sur la question de savoir s'il accueillera l'installation est attendue depuis longtemps. Des physiciens japonais ont proposé à la communauté internationale de construire l'installation au Japon en 2012, après que les scientifiques du LHC découvrirent le boson de Higgs, particule impliquée dans le mécanisme par lequel toutes les autres particules fondamentales acquièrent leur masse.

Les physiciens voulaient utiliser la nouvelle installation pour étudier tous les phénomènes que le LHC aurait découvert. Ils savent que le modèle standard est incomplet et espèrent que des particules d'énergie plus élevée inconnues pourraient aider à expliquer des mystères très anciens tels que par exemple : la nature de la matière noire.

Mais les plans pour le collisionneur ont stagné parce qu'aucune des Nations n'ont offert de financement, et en raison de l'incapacité du LHC à trouver de nouveaux phénomènes au-delà du boson de Higgs (sic). En 2017, les physiciens ont réduit leurs ambitions pour l'ILC, proposant une conception plus courte et moins consommatrice en énergie qui se concentrerait uniquement sur le Higgs

Pour les physiciens, une « usine à Higgs » serait encore extrêmement précieuse. Puisque les électrons et les positrons sont des particules fondamentales, leurs collisions seraient plus propres que les collisions proton – proton au LHC. En ciblant les collisions à la bonne énergie, le collisionneur projeté produirait des millions de bosons de Higgs pour des études qui pourraient révéler une nouvelle physique indirectement, en explorant comment le boson de Higgs interagit avec les autres particules connues.

Les chercheurs en Chine, qui ont récemment proposé de construire une usine à Higgs en forme d’anneau de 100 kilomètres de diamètre, examineront aussi attentivement le rapport. Ils ont besoin de financements des gouvernements chinois et étrangers pour construire cette installation. Bien que les physiciens des particules aimeraient voir les deux collisionneurs construits, les partenaires internationaux sont susceptibles de ne financer qu’une seule usine à Higgs. Si l’ILC reçoit le soutien de toute la communauté de la physique des hautes énergies, cela peut réduire les chances pour le collisionneur chinois d’être construit, bien que le pays pourrait décider aussi d’y aller seul.

Sur le site de ‘Futura Science’, à la date du 23/11/2018, fut publié un article : « La Chine envisage la construction d’un LHC de 100 km de circonférence. »

Comme cela est indiqué, les enjeux scientifiques ne sont pas vraiment prioritaires mais les enjeux géopolitiques le sont. Comprenons bien que l’intention d’accéder au rôle de leader dans le monde se joue obligatoirement sur plusieurs domaines et ceux concernant le domaine intellectuel, le domaine de la connaissance en physique, sont très importants. D’autant que la maitrise des instruments en question implique une maitrise technologique du plus haut niveau. Je cite :

« La Chine envisage sérieusement de construire un équivalent du LHC de 100 kilomètres de circonférence et semble bien décidée à réaliser, déjà à l'horizon 2030, un collisionneur électron-positron de taille équivalente en prélude, comme l'avaient fait les Européens avec le LEP. L'utilité de ces machines ne va malheureusement pas de soi...

La Chine vient de faire savoir qu'elle avait toujours l'intention de ravir aux Européens le leadership dans la course aux hautes énergies en physique des particules. »

Comme le rappelait Futura dans un article précédent, les Européens ont, eux aussi, dans leur carton des études pour un LHC de 100 km de circonférence et un projet, non pas de collisionneur circulaire mais linéaire d'électrons et de positrons, a déjà été mené à son terme pour des études préliminaires depuis des années et attend un feu vert pour être construit. Il s'agit de l'International Linear Collider (ILC). Les Japonais en particulier s'y sont très impliqués (sic). Toutefois, on peut se demander aujourd'hui si la construction de ces machines est bien sérieuse. Je cite à nouveau l’article de Futura Science : Masquer cette publicitéÀ propos des cookieshttps://bvt.r66net.com/vi/options-arrow.png

« Nous pouvons transmettre un ou plusieurs cookies sous forme de petits fichiers texte contenant des caractères alphanumériques qui identifient votre navigateur Internet. Ils sont utilisés pour suivre des habitudes d’utilisation sur nos sites partenaires, de manière non personnellement identifiable.

Votre historique de cookies sera supprimé.

Déjà en 2016, le physicien chinois Chen-Ning Yang - célèbre physicien pour avoir décroché avec son collègue Tsung-Dao Lee le prix Nobel de physique pour ses travaux sur la violation de la parité en physique des particules et avoir été à l'origine des fameuses théories de Yang-Mills à la base de toute la physique du modèle standard - avait fait savoir qu'il n'était pas favorable à la réalisation du SPPC.

Bien que l'on puisse nuancer et même réfuter certaines des critiques faites par Yang pour la construction des deux machines, comme l'expliquait le physicien et mathématicien John Baez, on ne peut s'empêcher de pencher en faveur de Yang.

En effet, au moment où le LHC est entré en service, on avait de multiples et bonnes raisons de s'attendre à une révolution majeure en physique fondamentale. En effet, plusieurs arguments théoriques très crédibles laissaient espérer la découverte, en quelques années tout au plus, de nouvelles particules prédites par la théorie de la supersymétrie, la théorie des cordes et surtout la production de micro-trous noirs s'évaporant par effet Hawking à des énergies de l'ordre de quelques TeV.

Le LHC a fait de façon routinière des collisions à 13 TeV, avec une luminosité de faisceaux déjà élevée... et aucune nouvelle particule n'a montré ne serait-ce que le bout de son nez. Nous n'avons pas d'arguments théoriques laissant espérer vraiment des nouvelles particules au-delà de 10 TeV, à part quelques-unes prédites par la split supersymétrie, mais des résultats d'expériences récentes sur le moment dipolaire des électrons sont plutôt une douche froide à cet égard. Pire, la faible masse du boson de Higgs laisse entendre que le modèle standard pourrait bien être valable jusqu'à l'énergie de Planck, ce qui veut bien dire qu'aucune nouvelle physique ne devrait apparaître dans les collisionneurs que pourrait construire l'humanité, ou pour le moins aucune nouvelle particule.

On peut donc légitimement se demander, en l'absence de nouveaux arguments théoriques et expérimentaux et devant la crise à laquelle l'humanité est confrontée avec le réchauffement climatique, l’énergie et les ressources, si des milliards ne seront pas mieux utilisés pour la mise au point de nouveaux réacteurs nucléaires, par exemple au thorium. Il est vrai cependant que la Chine s'est aussi engagée dans ce type de recherche (sic). »

 

 

 

Partager cet article
Repost0
30 décembre 2018 7 30 /12 /décembre /2018 06:16

Ces observations à l’avant-garde de compréhensions futures.

           

            J’ai sélectionné trois observations dans l’univers qui devraient être des sources nouvelles de compréhension de ce qui se produit dans le cosmos. Chacune de celles-ci sont dues à l’exploitation d’instruments de plus en plus sophistiqués, performants, surtout quand leurs usages sont combinés.

            Une fontaine de dimension galactique observée en pleine magnificence.

            A un milliard d'années-lumière de la terre se trouve l'une des structures répertoriées les plus massives de l'univers : une galaxie elliptique géante entourée d'un amas tentaculaire d'autres galaxies connues sous le nom d'Abell 2597. Au cœur de la galaxie centrale, un trou noir supermassif alimente une fontaine monumentale de dimension cosmique. Là, de vastes quantités de gaz tombent vers un trou noir supermassif, où une combinaison de forces gravitationnelles et électromagnétiques pulvérise la majeure partie du gaz loin du trou noir dans un cycle continu qui dure plusieurs dizaines de millions d'années.

Les astronomes ont longtemps théorisé à propos de fontaines comme celle-ci faisant circuler continuellement le combustible stellaire d'une galaxie.

Les observations d'Abell 2597 par le réseau millimétrique/submillimétrique (ALMA) montrent les premières preuves claires et convaincantes de l'afflux simultané et de l'écoulement du gaz entraîné par un trou noir supermassif.

            « Le trou noir supermassif au centre de cette galaxie géante agit comme une « pompe » mécanique dans une fontaine d'eau. » a déclaré Grant Tremblay, un astrophysicien au Harvard-Smithsonian Center for astrophysique à Cambridge. "C'est l'un des premiers systèmes dans lesquels nous trouvons des preuves claires de l'afflux de gaz moléculaires froids vers le trou noir et l'écoulement ou le soulèvement des jets que le trou noir, lui-même, propulse. "

Selon les chercheurs, tout ce système fonctionne via une boucle de rétroaction qui s’autorégule. Le matériel de remplissage fournit la puissance à la fontaine puisqu’il se canalise vers le trou noir central, comme l'eau entrant dans la pompe d'une fontaine. Ce gaz de remplissage réactive une surchauffe du trou noir qui provoque la propulsion de jets de matériels surchauffés à grande vitesse hors de la galaxie. Pendant qu'il voyage, ce matériel pousse des paquets et des flots de gaz dans le halo expansif de la galaxie, où il finit éventuellement par pleuvoir en retour en direction du trou noir, déclenchant ainsi le renouvellement du processus.

Au total, de l’ordre de 3 milliards de masses solaires de gaz moléculaire sont impliqués dans le fonctionnement de cette fontaine, formant ainsi un filament nébulaire qui occupe sur plus de 100 000 années-lumière l’intérieur de la galaxie.

Bien que cette observation concerne une seule galaxie, il est logique de considérer que ce processus vaut dans les galaxies en général et que cela, fondamentalement, contribue à la dynamique de leur évolution.

Je pense que l’on aura l’occasion de re-évoquer cette extraordinaire machinerie mise en évidence pour la première fois. On découvre aussi une dynamique propre, autarcique, au sein des amas de galaxies comme s’il y avait des mini-univers autonomes dans l’univers.  

                        -----------------------------------------------------------------------

Le télescope Aussie a presque doublé le nombre connu des mystérieux ‘Eclats  Radios Rapides’ ; 'Fast radio bursts' : ‘FRB’s’, qui sont des flashs puissants d’ondes radios provenant de l’espace lointain.

Les découvertes de l'équipe incluent, à la fois, les plus rapides et les plus brillants ‘Eclats Radios’ jamais détectés.

Les conclusions récentes rapportées nous disent que les ‘FRB’s’ viennent de partout dans le ciel et durent seulement quelques millisecondes.

Les scientifiques ne savent pas ce qui les cause (sic), mais cela doit impliquer une énergie incroyable : équivalente à la quantité libérée par le soleil en 80 ans.

 "Nous avons trouvé 20 ‘FRB’s’ en un an, presque le double du nombre détecté dans le monde entier depuis qu'ils ont été découverts en 2007," a déclaré l'auteur principal de l’article : Dr. Ryan Shannon, de l'Université Swinburne de technologie.

Il a été également prouvé que des ‘FRB’s’ viennent de l'autre côté de l'univers plutôt que de notre propre voisinage galactique et que ceux-ci voyagent pendant des milliards d'années et donc ils traversent occasionnellement des nuages de gaz. Chaque fois que cela se produit, les différentes longueurs d'onde qui composent un éclat sont ralenties par des quantités différentes. Eventuellement, l'’éclat’ atteint la Terre avec une dispersion de ses longueurs d'onde qui arrivent sur le télescope à des moments légèrement différents, comme les nageurs sur une ligne d'arrivée. Chronométrer l'arrivée des différentes longueurs d'onde nous dit la quantité de matière que le ‘FRB’ a traversé durant son voyage.

 Et puisqu’il a été montré que les ‘FRB’s’ viennent de loin, nous pouvons les utiliser pour détecter toute la matière manquante située dans l'espace entre les galaxies ce qui constitue une découverte vraiment intéressante.

Nous savons maintenant que les ‘FRB’s’ proviennent d'environ la moitié de l'univers, mais nous ne savons toujours pas ce qui peut les provoquer pas plus de quelles galaxies ils proviennent.

Le prochain défi de l'équipe est de localiser la provenance de ces ‘éclats’ dans le ciel.

 "Nous serons en mesure de localiser ces ‘éclats’ à mieux d'un millième d’un degré, " nous précise R. Shannon.

 "C'est à peu près la largeur d'un cheveu humain vu à dix mètres de distance, et assez précis pour relier chaque éclat à une galaxie particulière. "

L’ensemble des moyens d’observations est situé à l’Ouest de l’Australie et constitue un élément précurseur du ‘SKA’ : ‘Square Kilometer Array’ ; ‘le Réseau (d’antennes) sur un Kilomètre Carré’.

                        --------------------------------------------------------------------------

ANITA détecte un autre nouvel événement ressemblant à un rayon cosmique inversé.

Une fontaine de particules de haute énergie ressemblant à une cascade de rayons cosmiques à l'envers est détectée pour la deuxième fois par l'’Antenne Transitoire Impulsionnelle de l'Antarctique’ : ‘ANITA’. 

Le recensement de ce deuxième événement en 13 ans conduit à conjecturer sur ce que cela peut bien signifier.

Nous savons que les particules de rayons cosmiques à haute énergie bombardent constamment la terre. Quand une de ces particules entre en collision avec les molécules dans notre atmosphère, elle déclenche une cascade de particules secondaires, collectivement connues sous le nom de cascade atmosphérique de rayon cosmique. Mais ce n'est pas la seule façon dont les particules de haute énergie interagissent avec la terre. Ainsi le 28 décembre 2006, l'antenne transitoire impulsionnelle de l'Antarctique (ANITA) a détecté une cascade atmosphérique « ascendante » : une fontaine de particules de haute énergie qui surgissait du sol glacial de l'Antarctique. L'équipe signale maintenant l'observation d'un deuxième événement de ce type, qui s'est produit le 12 décembre 2014.

ANITA a été conçue pour détecter les cascades atmosphériques à rayons cosmiques via les signaux radio-ondes qu'elles émettent. ANITA détecte les ondes radio soit sur leur chemin vers le bas ou, plus fréquemment, sur leur chemin de retour vers le haut après avoir rebondi sur la glace. Ce rebond inverse la phase des ondes radioélectriques, permettant de distinguer les deux séries de vagues par leur direction et leur phase (sic).

Mais en 2006 et en 2014, ANITA a détecté un signal inattendu : des ondes radioélectriques provenant de la glace avec une phase non inversée. Ces détections suggèrent que les signaux provenaient de particules en mouvement ascendant ayant traversé la Terre avant de surgir de la glace. Mais il n’est pas envisagé que les rayons cosmiques puissent le faire en grand nombre, laissant ainsi planer le mystère sur la source de ces signaux. Une possibilité serait que les rayons cosmiques d'une supernova brillante soufflent leur chemin à travers le globe terrestre. Mais seulement la détection de 2014 a coïncidé avec un tel événement. Une autre possibilité serait que ANITA ait détecté des ondes radio émises provoquées par une particule non comptabilisée au sein du modèle standard.

L'équipe d’ANITA nous dit que d'autres détections de ces signaux bizarres sont nécessaires avant de produire une conclusion définitive quant à leur origine. Toutefois une discussion scientifique est ouverte et un article de A. Cho sur le site de Nature l’anime :

A première vue, que des signaux aient été produits par des cascades atmosphériques par un déploiement ascendant et déclenchées par des particules qui ont traversé la Terre comme dans un tunnel, ce n'est pas un problème pour le modèle standard car les neutrinos interagissent à peine avec la matière, donc quelques neutrinos cosmiques pourraient avoir fusé à travers la planète avant de percuter un noyau atomique dans la glace et enclencher une cascade atmosphérique ascendante.

Cependant, lorsqu'on l'examine en détail, cette explication s'effondre, arguent D. Fox et ses collègues. Étant donné les directions des cascades, les particules qui les ont produites doivent avoir parcouru plus de 5700 kilomètres de la Terre, estiment les chercheurs. Cependant, les grandes tailles des cascades montrent que les particules auraient dû avoir eu des énergies supérieures à 0,5 exa-électron volts (1 exa = 1018 eV = 106 TeV) soit 70.000 fois l'énergie obtenue avec l'accélérateur de particules le plus puissant. Une telle énergie extrême augmente la probabilité que les neutrinos interagissent au cours de leur traversée du globe terrestre, donc il n'y a aucune chance qu'un tel neutrino avec une telle énergie puisse traverser sans interagir avec de la matière terrestre durant son parcours.

Ces événements sont plus facilement expliqués par de la nouvelle physique, nous disent les chercheurs. Un rayon cosmique ultra-haute énergie sur le côté lointain de la Terre aurait pu donner naissance à un nouveau type de particule, environ 500 fois plus massive que le proton, qui a percé la planète avant de se décomposer pour produire une cascade atmosphérique ascendante, disent-ils. Un cadre théorique appelé la supersymétrie offre des candidats qui feraient l'affaire, nous dit D. Fox. Il ajoute que l'interprétation reçoit également un certain soutien de la part de l’équipe d'IceCube : un gigantesque éventail de détecteurs de particules enfouis dans la glace de l'Antarctique, qui voit régulièrement des signaux, certes plus faibles, d'événements ascendants inhabituels.

Toutefois D. Besson : membre de l’équipe d’ANITA refuse de signer l’article qui émet des conclusions hâtives : « Ma position personnelle est que nous faisons trop de ces événements qui dépendent complètement d'un argument de polarisation.

Partager cet article
Repost0
18 décembre 2018 2 18 /12 /décembre /2018 04:54

Ne pas tomber dans la facilité ni dans le trou noir

            J’aurais pu intituler cet article : ‘Troublant’ mais cela aurait été trop facile, bien que cela le soit néanmoins car il s’agit de cerner ce que serait un trou noir, ce qu’il advient au sein d’un trou noir et quel est le futur d’un tel objet. Peut-être faut-il utiliser le pluriel car il se pourrait que suivant leurs masses et leurs dynamiques propres (en rotation ou non, actif ou passif) les paramètres qui les caractériseraient seraient notablement différents.

            Toutes ces questions se posent maintenant que nous disposons de quelques informations depuis que nous avons détecté les ondes gravitationnelles correspondant à dix collisions-fusions de vingt trous noirs. Ces informations sont pauvres car ce que les interféromètres ont enregistré ne sont que des tremblements de l’espace-temps très atténués arrivés sur la planète Terre après avoir parcouru des milliards d’année-lumière.

            Heureusement, il y eut entre-temps un enregistrement d’ondes gravitationnelles provoqué par la fusion de deux étoiles à neutrons. Or, il fut accompagné d’autres informations car ces objets célestes appelés aussi ‘Pulsars’ lorsqu’ils émettent du rayonnement de façon très cadencée, ont à l’occasion de leur fusion émis des rayons gammas, et d’autres rayonnements électromagnétiques sur des longueurs d’ondes différentes. De plus cette fusion a provoqué des réactions nucléaires observables (avec production d’éléments lourds comme de l’or, du platine, du césium). C’est exactement ce que l’on appelle un événement multimessages. Donc la fusion de pulsars semble se produire avec la mise en évidence de propriétés de la matière en collision que nous décryptons assez aisément.

            Une étoile à neutrons correspond à un état d’équilibre de la matière subissant une très, très, forte interaction gravitationnelle depuis son centre, avant qu’éventuellement elle ne devienne un trou noir. Sa densité de matière est de l’ordre de 107 T/litre. Lorsqu’intervient une raison qui annule cet état d’équilibre (par ex. : captation de matière dans l’environnement), elle devient trou noir qui nous apparait comme un état d’équilibre final. Dans ce cas on ne plus parler de densité de matière puisqu’elle tend vers l’infini et on ne sait rien de ce qu’il advient de la matière. On pourrait penser que dans ce cas la matière est de plus en plus compressée, mais cette hypothèse est difficilement soutenable puisqu’impossible à constater.

L’hypothèse de l’existence de trous noirs est justifiée par la loi de la Relativité Générale et plus particulièrement avec la singularité mathématique (terme devenant infini dans une certaine condition numérique par ex : l’inverse de zéro) que l’on rencontre en utilisant la métrique de Schwarzschild. Quand de la matière ou d’autres aspects de l’énergie se trouve capturée par un trou noir au niveau de ce que l’on appelle l’horizon du trou noir dont son rayon est justement le rayon de Schwarzschild qui provoque la singularité, proportionnelle à sa masse, et bien celle-ci ne peut tendre que vers le centre de ce trou noir à cause d’une interaction gravitationnelle de plus en plus élevée et puis… qu’en est-il de la matière ou de l’énergie originelle.

Stricto-sensu, la relativité générale nous dit qu’un trou noir formé est éternel, et donc les physiciens théoriciens très croyants en leurs équations mathématiques affirment qu’au centre de cet objet il y a rupture temporelle et spatiale et c’est vide. Même si mathématiquement on est obligé de l’admettre, c’est physiquement difficile de comprendre comment la matière ou l’énergie constitutive a pu disparaître. Globalement on peut considérer que l’hypothèse du trou noir est une hypothèse de la physique classique car on doit considérer que la loi de la relativité générale est fondée sur des hypothèses classiques dans le sens où elles ne comprennent aucune de celles relatives à la mécanique quantique. Ce n’est qu’après coup, comme l’a fait, par exemple, S Hawking, que l’on ajoute des hypothèses quantiques pour enrichir quelques aspects phénoménologiques possibles sur ces objets. C’est ce que nous propose Carlo Rovelli pour mettre en avant son hypothèse que les trous noirs ont un avenir en devenant des trous blancs.

Je développe ci-après cet aspect des choses mais avant tout il faut rappeler que la loi de la relativité générale contient cette solution mathématique pour cause de symétrie de renversement du temps classique ce qui fut constaté très rapidement dans les années 1920 mais solution qui n’a jamais été prise au sérieux d’un point de vue de la physique. N’oublions pas que ce fut identique pour la solution trou noir pour cause de singularité. Einstein lui-même n’accordait aucun crédit à cette chose qui lui apparaissait comme une impureté des équations mathématiques. 

Carlo Rovelli, directeur de recherche à l’université d’Aix-Marseille a publié un premier article le 10/12 sur le site Physics.aps.com : ‘Black Hole Evolution Traced Out with Loop Quantum Gravity.’ ; ‘l’évolution du trou noir suivie avec la gravité quantique à boucle’.

« La gravité quantique à boucle – une théorie qui étend la relativité générale en quantifiant l’espace-temps – prédit que les trous noirs évoluent en trous blancs. »

« Les trous noirs sont de remarquables entités. D’un certain point de vue, ils sont devenus maintenant des objets astrophysiques familiers qui ont été observés en grands nombres et de façons multiples ; nous avons l’évidence de trous de masse stellaire dansant autour d’une étoile compagnon, de gigantesques trous au centre des galaxies attirant de la matière au sein de disques en spirales, et des paires de trous noirs fusionnant dans un jet d’ondes gravitationnelles. Tout ceci est remarquablement rendu compte par l’ancienne théorie d’Einstein centenaire de la relativité générale. Mais d’un autre point de vue, les trous noirs restent hautement mystérieux. Nous observons la matière tomber dans son intérieur, mais nous sommes dans l’obscurité à propos de ce qu’il advient de cette matière quand elle atteint le centre de ce trou.

« … Abhay Ashtekar, Javier Olmedo et Parampreet Singh viennent de franchir une étape qui répond à cette question. Ils ont montré que la gravité quantique à boucle — une théorie candidate pour fournir une description quantique de la gravité — prédit que l'espace-temps continue à travers le centre du trou dans une nouvelle région qui existe dans le futur et qui a la géométrie de l'intérieur d’un trou blanc. Un trou blanc est l'image par le temps inversé d'un trou noir : en elle, la matière ne peut que se déplacer vers l'extérieur. Le passage "à travers le centre" dans une région future est contre-intuitif ; Il est possible grâce à la forte distorsion de la géométrie spatio-temporelle à l'intérieur du trou qui est permise par la relativité générale. Ce résultat repose sur une hypothèse en cours d'investigation par de nombreux groupes de recherche : l'avenir de tous les trous noirs pourrait être de se convertir en vrais trous blancs, d'où la matière qui est tombée à l'intérieur peut rebondir. Cependant, les théories existantes n'ont pas été en mesure de montrer pleinement un moyen pour que ce rebond se produise. Puisque la gravité quantique à boucles parvient à le faire, cela indique que cette théorie a suffisamment mûri pour s’attaquer aux situations du monde réel (sic).

La raison pour laquelle nous sommes dans l'obscurité sur les aspects de la physique du trou noir est que les phénomènes quantiques dominent au centre et dans l'avenir de ces objets. La relativité générale classique prédit qu'un trou noir vit à jamais et que son centre est une « singularité » où l'espace et temps finissent. Ces prédictions ne sont pas réalistes car elles ne tiennent pas compte des effets quantiques. Pour lutter contre ces effets, nous avons besoin d'une théorie quantique de la gravité. Nous n'avons pas encore de consensus (sic) sur une telle théorie, mais nous avons des candidats, dont certains ont maintenant atteint le point de permettre des calculs réels sur le comportement quantique des trous noirs. La gravité quantique à boucles, qui a une structure conceptuelle propre et une formulation mathématique bien définie basée sur la représentation du tissu de l'espace comme un réseau de spin qui évolue dans le temps, constitue une telle théorie.

Approximativement parlant, le phénomène complet est analogue à celui du rebondissement d'une balle. Une balle tombe au sol, rebondit, puis se déplace vers le haut. Le mouvement ascendant après le rebond est la version inversée de la balle qui tombe. De même, un trou noir "rebondit" et il émerge lorsque le temps s’inverse : un trou blanc. L'effondrement de la matière ne disparaît pas au centre : elle rebondit à travers le trou blanc. L'énergie et l'information qui sont tombées dans le trou noir émergent du trou blanc. La configuration où la compression est maximale, qui sépare le trou noir du trou blanc, est appelée « étoile de Planck[1] ». En raison de la distorsion énorme du temps permise par la relativité, le temps de la production de ce processus peut être court (microsecondes) lorsqu'il est mesuré à l'intérieur du trou, mais long (milliards d'années) lorsqu'il est mesuré à l'extérieur[2]. Les trous noirs peuvent être des étoiles rebondissantes vues dans un ralenti extrême. »

Ensuite C. Rovelli tente de nous convaincre qu’il sera peut-être possible de vérifier par les voies de l’observation des ‘Fasts Radios Bursts’ (FRBs), ou de certains rayons cosmiques de très hautes énergies, que cette thèse des trous blancs est crédible. Ensuite il ajoute un zest de matière noire. On n’infère rien de probant à propos de ces sujets et de ces phénomènes, alors ajouter de l’inconnu à ce qui n’est que théorique depuis plus de vingt ans sans qu’il y ait le moindre indice d’une prédiction positive n’enrichit pas nos capacités de compréhension de ce qui se fabrique dans notre univers.

Ce qui est certain c’est que la détection des ondes gravitationnelles constitue un énorme progrès mais même avec l’augmentation prévisible à assez court terme de ces détections si on n’arrive pas à décrypter plus subtilement les ‘chirps’[3] obtenus, on va faire du surplace quant à la compréhension de la phénoménologie qui advient dans les trous noirs. On peut conjecturer, étant donné que l’état de trou noir est un état d’équilibre, en tous les cas pour ceux dont on a enregistré la fusion, que durant le processus de la fusion cet équilibre interne respectif, aujourd’hui insondable, n’est plus, et en conséquence la matière des deux trous noirs telle que nous la connaissons, à nouveau s’exprime furtivement d’une façon ou d’une autre. Par exemple par des fusions nucléaires inédites, par des rayonnements exceptionnels et cela pourrait peut-être se voir dans l’analyse poussée de la structure du ‘chirp’.

Les ondes gravitationnelles nous informent partiellement sur l’espace-temps dans lequel évolue les trous noirs, mais c’est une information sur leur environnement très proche. Il est souhaitable que nous ayons l’ambition de trouver le(s) biais par le(s)quel(s) on pourra progressivement, même si c’est pour la durée d’un éclair, obtenir des indices sur ce qui se joue à l’intérieur d’un trou noir en général. Ainsi n

 

[1] Lorsqu’une étoile cesse de s'effondrer, parce que la densité de matière a atteint la densité de Planck, la gravitation devient répulsive, de sorte que le trou noir stellaire explose en un trou blanc.

[2] Le tic-tac d’une horloge ralentit lorsque dans son voisinage le champ gravitationnel augmente, au cœur du trou noir ce ralentissement atteint son paroxysme au point qu’avec l’horloge en dehors du trou noir il y ait ce rapport de contraction de l’écoulement du temps comme évoqué par Rovelli. Ce résultat de la variation de l’écoulement du temps fonction de l’amplitude du champ gravitationnel est celui de la relativité générale et son essence se trouve explicitée par les tirets de : ‘Matière-Espace-Temps’ qui marquent cette interdépendance.

[3] On appelle ‘chirp’, ce signal, très éphémère, ondulant que l’on obtient sur les interféromètres qui pourrait simuler le son ‘chirp’.

Partager cet article
Repost0
9 décembre 2018 7 09 /12 /décembre /2018 12:15

Le syndrome de l’oiseau-lyre

            A la fin d’octobre un article dans le New Scientist annonçait : ‘Doutes graves sur les ondes gravitationnelles découvertes’, par le détecteur LIGO, produites par la fusion de deux trous noirs. Le 15 octobre 2015, l’interféromètre LIGO (situé aux Etats Unis) avait réalisé cet enregistrement et la publication officielle de ce résultat fut assurée en février 2016 après de long mois d’auscultation et de traitement du signal enregistré afin de garantir une valeur scientifique à l’événement.

            Ce fut avec beaucoup de stupeur quand le doute fut publiquement instillé, 2 ans et ½ après, par une équipe de chercheurs de l’Institut Niels Bohr de Copenhague. Ils instillèrent l’idée que l’équipe de LIGO avait exploité une technique « autoréalisatrice ». Ce type d’équivoque n’est pas impossible, surtout quand il s’agit d’une première détection annoncée comme théoriquement possible depuis plus d’un siècle. Mais après lecture de l’article démolisseur, je n’avais pas été convaincu par les arguments semant le doute car il y avait un mélange d’arguments critiquant la méthode avec d’autres qui semblaient chercher la petite bête et donc non recevables. Le risque d’une technique autoréalisatrice n’est pas négligeable car préalablement à la détection et à la publication ont été simulés tous les cas de figures de fusion de trous noirs à toutes les distances possibles de la terre. Cette base de données constituée pendant une dizaine d’années a été réalisée en exploitant les équations de la Relativité Générale, seul outil théorique actuellement à notre disposition. Cette base de données est riche de tous les ‘signaux calibres’ de vibrations possibles de l’espace-temps engendrées par la fusion de trous noirs. Et c’est lorsqu’il y a une très bonne superposition entre le signal enregistré par l’instrument et celui de la base de données que l’on considère être face à un événement réel doté des paramètres publiés. Est-ce suffisant ? pas tout à fait car après tout, un signal peut avoir un certain nombre de caractéristiques qui font penser à… sans qu’il soit pour autant à ce que l’on pense.

            Heureusement, il y eut un autre événement bien plus riche en informations reçus par plusieurs détecteurs de natures différentes. Cela s’est produit le 17/08/2017 et cet événement a correspondu à une fusion de 2 étoiles à neutrons. Cette fusion a produit en plus de la vibration gravitationnelle (vibration de l’espace-temps), des flashs de lumière avec des longueurs d’onde différentes et leurs propagations ont été réceptionnées par plusieurs télescopes alertés de cette occurrence et de plus l’observation d’une fusion nucléaire éphémère a été constatée. Cet événement multimessages a en même temps, évidemment, fiabilisé les résultats précédents obtenus par LIGO. Enfin, et c’est très important, cette fusion peut être situé spatio-temporellement avec une très grande précision ce qui permet d’organiser un suivi des phénomènes secondaires.

Malgré la valeur nouvelle et renforcée, à cette occasion, à la fois du résultat, de la fiabilité de l’instrument, de la technique et de la méthode du travail de l’équipe LIGO, l’équipe de Copenhague continue de maintenir ses griefs.

Pendant ce temps, une équipe Australienne avec d’autres, a obtenu de réanalyser toutes les données enregistrées par LIGO en 2017 et grâce à des techniques de calcul encore améliorées, et après 15 mois de recherche, d’auscultation méticuleuse des données, elle a découvert 4 fusions supplémentaires de trous noirs enregistrés entre fin juillet et fin aout 2017 (sic). Dont l’une est phénoménale (29/07/2017) puisque le trou noir résultant est de 80 masses solaires avec la conversion instantanée de 5 masses solaires en une énergie qui a violemment secoué l’espace-temps environnant et donné naissance aux ondes gravitationnelles qui ont commencé à se propager. Il a été aussi calculé que la fusion s’est produite il y a plus de 5 milliards d’années, soit avant que notre propre système solaire ne se forme dans la Voie Lactée. Les trois autres fusions de trous noirs ont été détectées entre le 9 et le 23 Août 2017 situées entre 3 à 6 milliards d’années et produisant des trous noirs finaux avec une masse de 50 à 60 fois celle de notre soleil. Avec l’observation de ces phénomènes on rencontre une parfaite illustration du paradigme explicite inscrit dans la loi de la Relativité Générale : Matière (énergie) – Espace – Temps, les traits d’unions rappellent l’interdépendance entre la matière, l’espace et le temps.

On peut s’étonner de cette fréquence de fusions de trous noirs, puisqu’avant octobre 2015 on n’avait jamais rien observé, et les chercheurs de Copenhague exploitent cette situation pour étayer leurs arguments qui expriment un doute négatif car pour eux ce serait la preuve de la détection de bien d’autres sources de vibrations (par ex. tremblement de terre ou autres secousses dans l’espace). On peut aussi avoir un sentiment de doute… mais positif car il n’est pas impossible qu’au bout du compte il y ait dans l’univers un tel tumulte d’événements cataclysmiques. C’est un avenir proche qui nous le dira car nous sommes encore dans la préhistoire de la détection des ondes gravitationnelles. Plusieurs autres détecteurs (3) sont en cours de construction et lorsqu’ils seront mis en réseau cela permettra d’obtenir d’excellents progrès.

La publication de ces résultats tout neufs du 4/12, s’est faite avec précaution, avec force d’arguments et de pédagogies. Un tableau récapitulant les 11 signaux significatifs enregistrés par LIGO depuis 2015 a été publié. La méthode permettant d’annoncer ces résultats avec une grande fiabilité scientifique a été préalablement exposée à des pairs au cours d’ateliers de travail. C’est tout bénéfice pour nous parce que l’équipe LIGO est obligée de fournir des informations plus complètes qui justifient leurs annonces sous la pression de ceux qui les contestent.

Un article de David Blair datant du 04/12 est révélateur de cette volonté de rendre publique tout le contexte dans lequel l’équipe travaille afin d’écarter toute publication d’un fait alors qu’il ne serait qu’une illusion. J’en propose une traduction partielle ci-après :

« Ainsi quel est notre degré de confiance lorsque nous détectons des ondes gravitationnelles et que ce n’est pas une illusion ?

Tous les bons scientifiques comprennent que l’examen méticuleux et le scepticisme constituent le pouvoir de la science. Toutes les théories et les connaissances sont provisoires, elles évoluent au fur et à mesure d’un processus d’un meilleur accès à la vérité. Il n’y a aucune certitude, il y a seulement probabilité et signification statistique.

Il y a de nombreuses années, l’équipe de recherche de LIGO a calculé préalablement le niveau de signification statistique nécessaire pour faire l’annonce d’une détection.

Pour chaque signal nous déterminons le rapport de l’alarme qui serait erroné. Cela nous donne combien d’années nous avons besoin d’attendre avant qu’il y ait une chance d’un signal aléatoire imitant le signal réel. Le signal le plus faible détecté jusqu’à maintenant peut avoir une fausse alarme chaque 5 années, donc il y a toujours une chance qu’il aurait pu être accidentel.

Les autres signaux sont plus robustes. Pour les 3 plus forts signaux détectés jusqu’à maintenant on devrait attendre entre 1000 fois et des milliards de fois l’âge de l’univers pour qu’ils se produisent par chance !!

Savoir quoi écouter.

La détection des ondes gravitationnelles est un peu semblable à de l’acoustique ornithologique. Imaginons que nous étudions les oiseaux et que nous voulions déterminer une population d’oiseaux dans la forêt. Nous connaissons le chant de chacune des espèces d’oiseaux.

Quand un chant d’oiseau correspond au chant prédéterminé, nous sommes satisfaits. Sa force nous dit à quelle distance il se trouve. S’il est très faible à l’égard du bruit de fond nous sommes incertains.

Mais de toute façon nous devons considérer l’oiseau lyre qui imite les autres espèces. Comment savons-nous que le chant du Kookaburra n’est pas produit par l’oiseau lyre ? Nous devons être très rigoureux avant de déclarer qu’il y a un kookaburra dans la forêt. Malgré cela nous devons être en confiance si nous faisons de nouvelles détections.

Dans le cas des ondes gravitationnelles nous utilisons des sons mémorisés appelés gabarits. Il y a un unique son pour la fusion de chaque combinaison des masses et des rotations possibles de trou noir. Chaque gabarit est créé en utilisant la théorie d’Einstein de l’émission des ondes gravitationnelles.

Pour éviter que des signaux nous échappent ou pour éviter d’annoncer des faux positifs enregistrés, la plus grande rigueur est nécessaire pour analyser les données. Des équipes importantes scrutent les données, cherchent les défauts, se critiquent entre elles, vérifient les codes informatiques et finalement revoient les publications pour plus de précisions. Les équipes séparées utilisent des méthodes différentes d’analyses et finalement comparent leurs résultats.

Avant que LIGO fasse sa première annonce publique, 2 signaux supplémentaires avaient été détectés d’une façon crédible. Ceci avait augmenté notre confiance et nous indiqua qu’il y avait une population de trous noirs qui entraient en collision dans le cosmos. Le premier était si correspondant à un gabarit, mais faible, que nous avons passé beaucoup de temps à nous assurer que ce n’était pas un hacker qui nous avait délibérément joué un mauvais tour.   

Notre bilan : pour chaque signal nous avons déterminé la masse des deux trous noirs entrant en collision, la masse du nouveau trou noir créé, et assez approximativement la distance et la direction de la collision.

Huit des 20 trous noirs initiaux ont des masses entre 30 et 40 masses solaires, six sont dans la vingtaine, trois dans l’adolescence et seulement deux sont dans les 7 à 8 masses solaires. Seulement un est proche des 50, le plus gros des trous noirs jamais détecté.

LIGO et VIRGO (interféromètre Européen situé en Italie mais n’ayant jusqu’à présent aucune autonomie de détection) améliorent leur sensibilité respective année après année et trouveront beaucoup plus d’événements à partir d’avril 2019, lorsqu’ils seront à nouveau en état de fonctionner. Avec d’autres nouveaux détecteurs en construction nous anticipons une sensibilité dix fois plus grande. Alors nous espérons être en mesure de détecter des signaux à peu près chaque 5 minutes(sic). »

Partager cet article
Repost0
5 décembre 2018 3 05 /12 /décembre /2018 10:06

Cette particule qui focalise nos ignorances persistantes sur les neutrinos.

Les physiciens nomment cette particule : le neutrino stérile. Peut-être que cette particule existe ou n’existe pas. Selon mon point de vue elle est très certainement le foyer de la convergence de toutes les ignorances accumulées en ce qui concerne les neutrinos dès le premier acte de création de ceux-ci en 1930 par W. Pauli. Ignorances qui se sont accumulées parce que dès qu’il y avait une hypothèse à formuler à leur propos, elle l’était toujours dans le cadre du modèle standard en cours de conception et en aucun cas elle n’était appropriée. De fait, cette hypothèse ajoutait de l’ignorance. Je crois que la plus néfaste est celle qui malheureusement fait presque l’unanimité chez les physiciens : puisqu’il y a oscillation des saveurs entre les trois neutrinos, alors ils sont dotés d’une masse d’inertie. Effectivement, nous disposons des moyens mathématiques pour rendre compte de cette oscillation en leur attribuant une mi mais c’est là le recours à une facilité qui a un coût très élevé. Je considère que les neutrinos sont les vecteurs d’une autre physique c’est-à-dire que tant que l’approche des propriétés physiques des neutrinos est pensée dans le cadre du modèle standard elle est totalement biaisée.

Cet article fait suite à celui du 24/07/2018 et comme vous pouvez le constater les énigmes s’accumulent. C’est une bonne raison pour garder un contact étroit avec celles-ci car c’est de cette façon que finira par surgir l’eurêka : « Mais oui ! mais c’est bien sûr »

Dans cet article je fais plusieurs références à celui du 21/11/2018 dans le NewScientist, « Comment une particule oubliée, fantôme, pourrait sauver la physique. » ; « Il y a plusieurs années, elle fut théorisée, mais jamais observée. Maintenant il semble que le neutrino stérile pourrait fixer les failles de la physique fondamentale – si seulement on pouvait l’observer. »

            Attribuer aux neutrinos la propriété de se transformer l’un dans l’autre résout le problème du neutrino solaire, mais d’autres mystères restent. Le plus vexant de ceux-là datent des années 1990, quand une expérience appelée : « Liquid Scintillator Neutrino Detector (LNSD), à Los Alamos, New Mexico » a trouvé que les antineutrinos muoniques oscillaient en des antineutrinos électroniques plus rapidement que prévu. Ce résultat a été confirmé par une deuxième expérience, MiniBooNE, qui a fonctionné au Fermilab, Illinois, de 2002 à 2017.

            Soit ces expériences sont marquées par le même défaut, ou bien quelque chose de plus profond se produit. « L’anomalie : LNSD/MiniBooNE est un mystère authentique ».

            Une autre base de résultats confondants est fournie par la désintégration radioactive dans les réacteurs nucléaires. Un peu comme dans le soleil, cette désintégration est une très grande source de neutrinos. Pour une raison inexplicable, les réacteurs nucléaires sur terre fournissent de l’ordre de 6% moins d’antineutrinos électroniques que ne le prédit le modèle standard.

            Donc : trop d’antineutrinos électroniques produit d’un coté et pas assez de l’autre. Qu’est-ce qui se passe sur la terre ?

            C’est là où le neutrino stérile intervient. Au lieu d’un trio net de neutrinos, l’idée est d’en inventer un quatrième, de saveur ‘stérile’ mais capable de se confondre par oscillation avec les trois autres. Cela est une gageure sachant que les neutrinos des trois générations : électronique, muonique, tauique, sont partie prenante du modèle standard, en même temps ce nombre continue d’être un mystère mais inventer une nouvelle génération ou bien considérer que le neutrino stérile est une anomalie isolée, assure la pérennité du casse-tête.

            Contrairement à ses jumeaux, qui eux interagissent via l’interaction faible, le neutrino stérile ressentirait seulement l’interaction gravitationnelle. L’idée a été proposée en 1958 par B. Pontecorvo, comme une possibilité pour les neutrinos de se transformer en antineutrinos. Mais la stérilité de cette particule proposée signifie qu’il serait presque indétectable. Son intérêt a donc rapidement faibli, jusqu’à ce que les anomalies le réactivent.

            La logique commande que les expériences MiniBooNE et LSND voient plus de neutrinos électroniques que prédits parce que les neutrinos stériles supplémentaires se désintègrent dans cette sorte. Et la raison pour laquelle les réacteurs en produisent moins s’explique du fait que les neutrinos électroniques se seraient désintégrés en la contrepartie stérile.

            Convoquer l’existence du neutrino stérile pourrait aussi bien exorciser un bon nombre d’autres problèmes. Les masses des neutrinos sont minuscules, plus d’un million de fois plus faible que l’électron (sic). Les raisons de cet écart sont inconnues, mais un quatrième plus massif pourrait offrir une solution. Via un processus reconnu comme le mécanisme de seesaw (balançoire), sa masse accrue conduirait les masses des autres vers le bas, comme pour les tout-petits qui montent et descendent sur une balançoire.

            Les mêmes particules ont été proposées en tant que candidats plausibles de la matière noire (sic). D’autres physiciens disent que le(s) neutrino(s) stérile(s) pourraient résoudre la question du : pourquoi l’antimatière, produite en quantité égale avec la matière, au début de l’univers, a maintenant complètement disparue. Si cela était ainsi : trois casse-têtes de la physique seraient résolus grâce à une seule théorie.

            Hélas, rien de ce qui implique le neutrino n’est simple.

            A chaque expérience suggérant des signaux d’un neutrino stérile, il y a une autre indication qui nous conduit à sa non-existence. Le plus concerné par cette situation est l’univers lui-même : l’arrangement présent des étoiles et des galaxies, et les faibles échos survivant du big bang. Comme le confirme le physicien Raymond Volkas (université de Melbourne) : « Si des neutrinos stériles ont existé et ont traversé l’histoire de l’univers, alors leurs présences auraient causé un cosmos avec une apparence différente que celle qui nous apparaît courante. »

            Il y a plus, l’anomalie relevée auprès des réacteurs a été récemment remise en question. Plusieurs expériences maintenant en fonctionnement placent les détecteurs de neutrinos plus près des réacteurs nucléaires qu’avant et favorisent en conséquence une plus précise disparition de l’antineutrino électronique. Bien que les analyses statistiques des données ne soient pas encore suffisantes, les résultats préliminaires suggèrent que les anomalies auraient disparues (sic).

            Les derniers résultats de MiniBooNE fournis au début de l’année, embrouillent les choses encore plus : Ils indiquent une anomalie plus importante qu’avant. Certains déclarent qu’il y a donc une forte évidence de l’existence de cette particule hypothétique. Mais si un neutrino stérile existe, le neutrino muonique ne devrait pas se transformer uniquement en neutrinos électroniques durant son parcours jusqu’au détecteur car certains devraient disparaitre aussi.  

            Jusqu’à présent la disparition du neutrino muonique n’a jamais été constaté. « Le récent renforcement de l’actuelle anomalie de MiniBooNE provoque une situation bien pire, parce que le signal d’apparition plus fort implique tout autant un signal de disparition plus fort. » nous dit R. Volkas.

            Durant les 15 années pendant lesquelles MiniBooNE était hors course, les physiciens ont organisé un bon nombre de petites expériences pour tenter de tester cette disparition explicitement. Une des plus importantes appelée MINOS+, est installée au Fermilab. Durant 10 ans celle-ci et ces prédécesseurs ont fonctionné et le neutrino muonique a résolument refusé de disparaître. Ceci pose des limites sévères ce sur quoi peut ressembler un quelconque neutrino stérile potentiel, si éventuellement il existe.

             Janet Conrad (MIT) nous dit que les expériences qui sont conformes à nos attentes comme MINOS+, sont historiquement moins examinées que celles comme LSND et MiniBooNE qui nous donnent des signaux non attendus. « Les limites appellent beaucoup moins d’examens que les anomalies. »

            Toutefois, ces temps-ci, Bill Louis, physicien au Fermilab a décidé de procéder à l’examen des résultats de MINOS+ et de la façon dont l’équipe les a analysés. La collaboration MINOS+ a travaillé très durement pour analyser les données. Ceci étant dit, il pense que des erreurs dans les données ont pu être négligées, conduisant l’équipe à éliminer les disparitions avec une grande certitude non justifiées.

            Le plus récent article de MINOS+ a dû attendre pour publication jusqu’à Octobre de l’année dernière, retardé pour inclure les résultats fournis par Louis. Bill Louis a recensé la moitié des problèmes évidents. L’équipe MINOS a travaillé avec Louis et d’autres et a affiné ses résultats.

Faisons le point : si les résultats de MiniBooNE et MINOS+ survivent après les examens approfondis, alors le neutrino stérile par lui-même ne tranchera rien. Nous avons besoin de quelque chose d’autre pour expliquer pourquoi la même particule provoque la survenance des neutrinos électroniques et muoniques, mais provoque uniquement la disparition des neutrinos électroniques. Quelques modèles théoriques inventent une nouvelle force qui pourrait résoudre le désaccord. Ou bien, peut être que nous n’avons pas besoin d’inventer quoi que ce soit au-delà du modèle standard. « Cela se pourrait qu’ainsi est la physique nucléaire, que nous ne comprenons pas bien. », dit J. Conrad.

Quand dans des expériences comme MiniBooNE sont cherchées des oscillations de neutrinos, la nature des oscillations dépend de l’énergie du neutrino observé dans le détecteur. Mais les neutrinos peuvent interagir avec d’autres particules sur leur trajet et changer leur énergie. Nous assumons que la plupart des neutrinos interagissent avec les neutrons libres dans le noyau atomique, mais quelques neutrinos peuvent aussi heurter une paire neutron proton, et ceci change la valeur de leur énergie. J. Conrad ajoute que nous ne comprenons pas encore complètement cet effet, donc nos analyses peuvent faire apparaître des oscillations alors qu’il n’y en a pas. Si c’était le cas, nous n’aurons pas besoin du neutrino stérile, mais tout simplement améliorer notre calcul.

Tandis que des théoriciens développent encore plus d’idées exotiques, les expérimentateurs cherchent, utilisant des détecteurs dans toutes les parties du monde, de la Russie au Royaume Unis, sous la glace de l’Antarctique, ils espèrent établir des liens plus étroits sur la disparition du neutrino muonique et le neutrino électronique, tout aussi bien la fréquence avec laquelle l’un oscille dans l’autre. Il va falloir attendre plusieurs années.

La vie secrète des muons.

Les neutrinos ont toujours été les moutons noirs de la famille des particules fondamentales. Ils apparaissent sous trois saveurs, chacune est associée à son cousin plus massif appelé électron, muon et tau. Ces particules plus massives (leptons) sont connues depuis longtemps mais il semble que le muon possède un secret très profond.

En 2001, une expérience au Brookhaven National Lab. à New York a mesuré un moment magnétique du muon excessif par rapport à la prévision théorique. Des expériences plus sensibles sont prévues l’année prochaine. De même au CERN des anomalies sont signalées dans la désintégration du méson Beau qui devrait se désintégrer également en muons et en électrons ce qui n’est pas le cas, il y a moins de désintégrations en muons. Ces deux anomalies pourraient être connectées !!!

P. S. extrait d’un cours enseigné, il y a 15 ans

Les neutrinos, curiosités de la physique depuis 1930 jusqu’à aujourd’hui.

              1920                                                1940                             1960                         1920                          1930                         1938              1956                   1964

           A. Eddington propose       Wolfang Pauli postule   Hans Bethe analyse les      F. Reines, Cl. Cowan    J. Bacall calcule  une origine thermonucléaire               l’existence d’1particule      processus nucléaires         sont les premiers à         le flux théorique pour rendre compte     nouvelle le neutrino : ν        qui prévalent dans le       détecter des ν émis par      des ν solaires. de l’énergie du soleil.                                                                        cœur du soleil.                  un réacteur nucléaire.                    

 

                                                             1980                                   2000

1967               1969                              1978 et 1985                1998                   2002              2002

R. Davis              Vl. Gribov et              ST. Mikheyev, A. Smirnov      L’expérience de     L’expérience du    L’expérience

réalise la 1er         B. Pontecorvo           indiquent que les                         Super-Kamiokande    SNO apporte la    Kamland détecte

mesure du flux    proposent le méca-     interactions des ν et de                   confirme les            preuve des       les oscillations

des ν solaires.   nisme des oscillations    la matière  intensifient            oscillations des ν     oscillations des νe      d’anti-ν produits

                             pour expliquer le                 les oscillations.                produits au sein du    émis par le soleil.   ds les réacteurs.

                             déficit des ν solaires.                                                             cosmos.

 

                         

   

Partager cet article
Repost0
28 novembre 2018 3 28 /11 /novembre /2018 11:27

La plus belle histoire de l’intelligence.

Des origines aux neurones artificiels : vers une étape de l’évolution.

L’intelligence a une histoire qui est celle de sa progression. Reconnaitre et comprendre cette histoire est le signe d’une intelligence qui s’éclaire car elle intègre dans la dimension d’un devenir les connaissances que dans la période présente elle établit. Je crois fermement que cette perspective permanente de l’évolution des connaissances établies, les nôtres, est une des conditions du plaisir de savoir. C’est le même processus que la marche, une fois qu’un pied prend un ferme appui sur le sol, immédiatement l’autre s’engage pour assurer l’appui suivant, et des paysages nouveaux sont à voir. C’est pourquoi, je suis toujours guidé par l’idée et la conviction : « au sein d’une éternité parmi tous les possibles, Anthrôpos ne cesse de creuser, sans fin, sa connaissance de l’univers. Univers qui ne peut être clos c’est-à-dire qu’il ne peut être définitivement connu, autrement Anthrôpos se figerait. » Aujourd’hui s’esquisse la prochaine étape de l’évolution du Sapiens que nous sommes, concomitamment à cette évolution de nouveaux espaces de sens seront conquis, cela implique le prolongement du déploiement de notre espace-temps physique actuel. Les bornes de l’univers jusqu’à présent dessinées seront repoussées et la phénoménologie mécaniste que l’on prête à cet univers sera probablement dépassée. Bref, le nouveau Sapiens en cours concevra un univers, un habitat qui sera à la dimension de cette prochaine étape de l’évolution.

Le titre de l’article est emprunté à celui du livre que je vous recommande, (un cadeau de Noël enthousiasmant), edit. Robert Laffont, correspondant à un interview et dialogue de S. Dehaene et Y. Le Cun ( qui ne sont plus à présenter) que l’on peut résumer ainsi, p.30: « L’intelligence humaine et l’artificielle se rencontrent, se fertilisent, se nourrissent l’une de l’autre. Mais quel est le futur ? Le cerveau humain pourra-t-il toujours dominer sa propre création ? Faut-il nous réjouir ou nous inquiéter de voir cette intelligence si insaisissable échapper au contrôle humain ? Dans une troisième partie, S. Dehaene et Y. Le Cun débattent de l’avenir des intelligences, porteuses d’autant d’espoir que d’inquiétudes, et qui sont incontestablement en train d’initier une rupture dans l’évolution d’Homo Sapiens, peut-être aussi considérable que celle du passage à la bipédie (sic). »

J’insiste en précisant que nous, qui sommes intéressés et concernés par la connaissance scientifique et plus particulièrement celle relative à la connaissance en physique, nous devons lire et réfléchir à ce que nous disent S. Dehaene et Y. Le Cun.

p. 255 et plus : « J’aimerais que l’on parle de l’irrationnel, qui fait partie intégrante de notre vie et de notre communication consciente. Où se situe cette attitude dans l’intelligence ? »

S.D. : « C’est intéressant de parler de ça maintenant parce que, à mon avis, c’est la conséquence de l’exploration qui nous caractérise : les êtres humains sautent souvent un peu trop vite aux conclusions, sans avoir suffisamment mis leurs hypothèses à l’épreuve. Notre cerveau apprend tellement vite que, parfois, sur la base de très peu d’informations, il tire des conclusions exagérées. Nous avons tendance à voir des causes cachées là où il n’y a que du hasard, parce que notre espace d’hypothèses est très orienté vers la causalité. Il dit : « Si j’ai vu une ou deux fois A suivi de B, il est possible que A soit la cause de B. » Et l’on colle des hypothèses erronées sur le monde extérieur. Nous en revenons à cette notion d’un cadre inné ou figé (sic) que nous plaquons sur le monde. »

« C’est cependant quelque chose qui nous a fait avancer. »

S.D. : « Oui, mais pendant longtemps, en voyant un orage, l’humanité a dit qu’il y avait un dieu de l’orage caché dans le ciel et qui envoyait des éclairs. Sans doute parce que l’orage excite notre système de détection des objets animés plutôt que du monde physique inanimé. »

Y.L.C. : « C’est la source de beaucoup de religions. D’ailleurs, ça s’appelle l’animisme. »

S.D. : « Cependant, je crois qu’au départ, il y a un fondement de rationalité, lié à notre évolution : l’idée que le monde se partage entre objets animés et inanimés est très efficace pour le comprendre. On applique juste ce schéma un peu trop loin. Il n’est pas impossible que des intelligences artificielles succombent à ce même travers. »

Des scientifiques artificiels (sic)

Y.L.C. : « C’est très possible. Nous sommes poussés, pour notre survie, à faire des prévisions à partir d’informations limitées et donc à attribuer des relations de cause à effet qui n’existent pas[1]. Ainsi, lorsqu’on demande à de très jeunes enfants ce qui produit le vent, ils répondent souvent que ce sont les feuilles qui font du vent en bougeant. Une relation causale à l’envers, née d’une observation. Normalement, pour obtenir une relation causale, il faut influencer le système afin de savoir si le fait de changer une variable modifie les autres. Ainsi, pour tester un médicament on crée un groupe placebo qui permet de comparer et, éventuellement, de constater un effet. Obtenir des relations causales par la simple observation constitue actuellement un domaine de recherches assez actif, aussi bien en statistiques qu’en machine learning et en intelligence artificielle. »

S.D. « En fait, l’humanité a développé un algorithme d’apprentissage multi-individus afin de poser ce genre de questions : on l’appelle tout simplement la « recherche scientifique » ! C’est un dispositif extraordinaire efficace sur le long terme, qui a fait progresser notre intelligence à une échelle jamais imaginée auparavant, et qui a permis en quelques milliers d’années de dépasser le stade irrationnel. Pour moi, c’est une interrogation : aurons-nous la chance, un jour, de voir apparaître en informatique une sorte de « scientifique artificiel » qui posera mieux que nous les bonnes questions sur l’organisation de la physique du monde et de la biochimie, et qui pourrait nous aider à résoudre des problèmes d’environnement par exemple ? »

p.258, Y.L.C. : « Cela existe déjà un petit peu… »

S.D. : « Mais les statisticiens se contentent d’observer les données. Ils ne font pas les expériences. »

Y.L.C. : « … Je pense tout de même que le scientifique artificiel autonome n’est pas pour demain. Même si, déjà, dans certaines découvertes les statistiques et l’apprentissage automatique ont joué un rôle prépondérant. Celles du boson de Higgs, par exemple… »

S.D. : « La science est une sorte d’algorithme. Il existe une méthode pour essayer de faire des découvertes, et on distribue les données sur des millions de processeurs qui sont les scientifiques. Certains adoptent des positions assez radicales et ils se disputent, parfois jusqu’à leur mort, sans jamais pouvoir se réconcilier sur la nature des données. D’une certaine manière, ça marche : l’intelligence collective[2] est le meilleur algorithme que l’on ait trouvé pour faire des découvertes. »

Y.L.C. : « Je fais partie de ceux qui pensent que l’intelligence artificielle va permettre à l’intelligence humaine de se développer (sic). Elle sera un amplificateur. Chaque apparition d’une nouvelle technologie a permis de libérer l’esprit pour des activités qui n’étaient pas accessibles auparavant. La maîtrise du feu et les quelques technologies dont nous disposions il y a quarante millénaires ont permis les premières expressions artistiques sur les parois de grottes. L’art s’est développé d’autant plus que les sociétés étaient mieux organisées et consacraient moins de temps à leur survie[3]. »

Attention à ce que nous dit Le Cun car préalablement à l’existence de moyens, de techniques, il faut qu’il y ait un besoin, un désir, d’expressions qualifiées aujourd’hui d’‘artistiques’ sur les parois des grottes (poussée de l’émergence de la condition humaine (voir note 3)). Mon impression quand j’admire les scènes de la grotte Chauvet, c’est que les animaux dessinés sont au bout des doigts des hommes de l’époque, ils sont dans la plus grande proximité visuelle et charnelle. Etant soit des proies, soit des prédateurs, il s’en faut de peu pour être soit l’un soit l’autre, il faut donc interpréter en une fraction de temps l’essentiel de ce que signifie le regard de l’ordre, le souffle, la posture de l’autre, et c’est pourquoi, ils nous apparaissent être dans un mouvement si irrépressible. C’est aujourd’hui qu’il faut être un artiste pour représenter avec une telle économie de moyens des choses si fortes car nos besoins ne sont plus les mêmes et notre proximité avec la nature et les habitants de la nature n’est plus.

Pour nous physiciens, astrophysiciens, observateurs, il y a matière à méditer et intérioriser ce qui est dit dans le paragraphe : ‘Voir pour savoir’, p.40 :

Il y aurait un lien entre l’évolution de l’œil et celle du cerveau ?

S.D. : « Il est clair que l’apparition de la vision a constitué une étape clé. On pense que cela s’est passé au cambrien, il y a en gros cinq cent quarante et un million d’années. Cette époque a connu l’explosion de nombreuses formes de vie très différentes. L’œil serait apparu au cours de cette ère. En tout cas, ce progrès a représenté un moment crucial… Grâce à la vision, l’organisme est devenu capable de se représenter des objets distants : le rayonnement électromagnétique, les photons qui parvenaient jusqu’à l’œil pouvaient venir de loin. »

Donc, la capacité de recevoir de nombreuses informations du monde extérieur constitue une nouvelle étape. Les cinq sens sont à l’origine d’une nouvelle forme d’intelligence.

S.D. : « Voilà. Mais à condition, bien entendu, d’être capable de se représenter ces informations et de les manipuler mentalement. Ce qui revient à dire : « Je cartographie le monde extérieur et j’en crée une représentation mentale. Une représentation détachée de la perception immédiate. »

Une carte virtuelle ?

S.D. : « Si l’on veut. Je peux fermer les yeux, je peux perdre les informations que me transmettent mes sens, je vais quand même réussir à les retrouver à l’intérieur de ma tête. On a découvert que les souris, par exemple, disposent d’une sorte de carte de leur environnement et d’un véritable GPS dans le cerveau. Ce fut l’objet du prix Nobel 2014 des époux Moser et de John O’Keefe. Ils ont montré qu’il y a des cellules dans le cerveau de l’animal, dans l’hippocampe en particulier, qui constituent une sorte de carte de l’environnement. Si bien que la souris sait à chaque instant où elle est. » Sur ce sujet voir article du 24/10.

Même s’il n’y a aucun point de repère ?

S. D. : « Même sans repères ! Même s’il s’agit d’une région plate, désertique, l’animal emporte avec lui cette carte mentale. Même dans le noir, la carte se met constamment à jour lorsqu’il se promène. Grâce à elle, il sait toujours retrouver, par exemple, les coordonnées de son nid. »

 

[1] Cela pourrait convenir à la description de la situation suivante : en cosmologie nous sommes obligés d’inventer la matière noire (la majorité des physiciens ne savent pas penser autrement) qui serait la cause de l’organisation structurelle de notre cosmos en galaxies, en amas de galaxies et superamas, elle serait aussi la cause de l’observation de la stabilité des galaxies et de la dynamique des amas de galaxies, etc. Cette matière noire n’a jamais été observée pourtant il n’est pas possible pour les physiciens d’intégrer l’idée que cette situation serait due au fait que notre information est limitée à cause de notre conception limitée voire erronée de notre univers qui serait clos et déterminé d’un point de vue spatio-temporel, vu comme un bloc univers, conséquence de la Relativité Générale.

[2] Voir article du 11/07/2012 et c’est pourquoi je propose des articles qui font références à la paléoanthropologie, à la philosophie, à la métaphysique, aux mathématiques, aux neurosciences.

[3] Cette affirmation de Le Cun est une source de débats tendus entre paléoanthropologues, ainsi dans l’article du 07/11, j’indique l’existence d’articles dans ‘Pour la Science’ qui privilégient : « La culture, moteur de l’évolution humaine. » P. Picq dans son livre, ‘Premiers hommes’, 2016, a un point de vue contraire, p. 336 : « Aujourd’hui encore, une majorité de paléoanthropologues et surtout des préhistoriens considèrent que notre évolution est plus cultuelle que biologique. Rien de plus faux ! Il n’en est rien, que ce soit pour Homo erectus ou, bien plus tard… » ; « Ce qui fait que notre évolution devienne humaine depuis Homo erectus ne vient pas de l’invention des outils, de la chasse, du partage de nourritures…mais de l’émergence de la condition humaine. Homo, est un transformateur de monde par sa pensée et ses actions… Cette puissance écologique d’Homo repose en outre sur une puissance biologique, physiologique et cognitive qui provient – fait inédit de l’histoire de la vie – de ses innovations techniques et culturelles, comme le feu et la cuisson. »

Partager cet article
Repost0
19 novembre 2018 1 19 /11 /novembre /2018 07:53

Il y a un pépin au bord de l’univers qui pourrait amener à reconsidérer la physique.

Ceci est le titre d’un article de Michael Brooks, que je soumets à votre réflexion car il souligne la fragilité des valeurs sur lesquelles nos modèles standards physiques sont bâtis. Fragiles, parce qu’on ne sait toujours pas : « pourquoi ces valeurs plutôt que d’autres ? » et l’explication anthropique n’étant plus acceptable actuellement, la théorie du multivers offre, entre autres, une réponse à cette question.

Un nombre mystérieux détermine comment la physique, la chimie et la biologie fonctionnent. Mais des indices expérimentaux controversés suggèrent que ce n'est pas un nombre du tout.

Ce nombre c’est α : la constante de structure fine = e2/hc (α s’exprime selon cette égalité moyennant un certain nombre de conventions unanimement acceptées, e représente la charge de l’électron, h est la constante de Planck/2π et c est la vitesse de la lumière). La constante de structure fine étant sans dimension, son existence même implique l'existence d'un mécanisme sous-jacent fixant sa valeur, et depuis les années 1920, donner une explication à cette valeur a été un défi lancé à la physique moderne et l'énigme reste toujours entière à ce jour. En électrodynamique quantique, la constante de structure fine joue le rôle de constante de couplage, représentant la force d'interaction électromagnétique et décrit les interactions entre la lumière et la matière. Sa valeur :  0.00729735 à quelque chose près = 1/137 nombre sans dimension ne peut pas être prédite par la théorie mais seulement déterminée par des résultats expérimentaux.

Si on change ce nombre d’un petit brin on change l'univers. Si on l’augmente trop, les protons se repoussent si fortement que les petits noyaux atomiques ne peuvent pas tenir ensemble. Si on l’augmente encore un peu plus, alors la fusion nucléaire à l'intérieur des étoiles ne peut plus produire du carbone, l'élément sur lequel la vie est basée. Rendre α beaucoup plus petit, et les liaisons moléculaires s'effondrent à des températures plus basses, altérant ainsi de nombreux processus essentiels à la vie.

Ce problème ne se pose pas uniquement pour α mais cela concerne 19 nombres pour définir le modèle standard de la physique des particules dont parmi la poignée de ces constantes : la masse du boson de Higgs, et une foule d'autres caractérisant les masses particulaires et les forces d'interaction. Ces constantes s’imposent dans la théorie, et nous devons injecter ces nombres arbitraires, ils sont juste là et, essentiels, nous les évaluons par l’expérience.

De plus, le modèle standard de la cosmologie nécessite 12 autres paramètres, y compris la constante de Hubble, qui décrit le taux d'expansion de l'univers, et les facteurs en rapport avec la matière noire et la densité d’énergie sombre.

Sur terre, au moins, alpha se maintient dans des limites strictes. Les expériences de laboratoire montrent qu’au plus elle pourrait varier de quelques parties par 10 milliards. Cela est 100 000 fois plus précis que G : la constante de Newton.

Dès 1937, Paul Dirac (1902-1984) avait formulé l’hypothèse que α aurait pu varier au cours du temps cosmologique. Peut-être que les interactions électromagnétiques étaient plus faibles ou plus fortes dans le passé ou encore sont-elles présentement différentes dans certaines parties distantes de l’univers ? La question se pose puisqu’actuellement les physiciens semblent avoir atteint une impasse dans leurs efforts pour dévoiler des vérités plus profondes à propos de la réalité. En conséquence si on mesurait une variation de α cela ouvrirait la voie pour une nouvelle physique (sic).

« Dans ce cas cela pourrait inclure, par exemple, la présence de dimensions supplémentaires. La théorie des cordes, un pari bien sauvegardé pour une théorie de la physique de la prochaine génération (sic), propose l'existence de minuscules dimensions bouclées que nous ne pouvons pas voir. Mais elles ont des effets sur des choses comme alpha. L'état des quantités que nous appelons des constantes est quelque peu dégradé si vous croyez qu'il y a des dimensions supplémentaires, dit le cosmologue John Barrow à l'Université de Cambridge. "S'il y a vraiment neuf ou dix dimensions de l'espace, avec seulement trois grandes, alors les vraies constantes immuables de la nature vivent dans le nombre total de dimensions et les ombres tridimensionnelles que nous observons ne sont pas de vraies constantes (sic)."

Pour le physicien John Webb, la possibilité d'un alpha variable est devenue une question quasi-obsessionnelle depuis deux décennies. Depuis 1996, il tente de trouver une réponse en se demandant si la lumière recueillie par certains de nos plus puissants télescopes serait capable de régler cette question. Plus récemment, les avancées technologiques ont rendu possible l'évaluation de α  α {\displaystyle \alpha } à une plus grande distance et avec une meilleure précision. En 1999, l'équipe de John K. Webb de l'Université de Nouvelle-Galles du Sud a affirmé avoir détecté une variation de α. α {\displaystyle \alpha } . ;. En utilisant les télescopes Keck (Île d’Hawaï) et une série de données sur 128 quasars avec un décalage vers le rouge de 0,5 < z < 3, Webb et al ont trouvé[1] que les spectres correspondaient à une faible augmentation relative de α = -0,57 + ou – 0,1×10α {\displaystyle \alpha } -5 sur 10-12 milliards d'années. Δ α α   = d e f   α t h e n − α n o w α n o w = − 0 , 57 ± 0 , 10 × 10 − 5 {\displaystyle {\frac {\Delta \alpha }{\alpha }}\ {\stackrel {\mathrm {def} }{=}}\ {\frac {\alpha _{\mathrm {then} }-\alpha _{\mathrm {now} }}{\alpha _{\mathrm {now} }}}=-0{,}57\pm 0{,}10\times 10^{-5}}

Une étude plus récente de 23 systèmes absorbants de raies spectrales menée par Chand et al en utilisant le Very Large Télescope montre qu'il n'y a aucune variation mesurable.

John Webb a accès maintenant au VLT et dorénavant il prétend avoir le résultat suivant au sujet de α : sa valeur change graduellement et approximativement linéairement avec la distance de la terre. « Si nous parcourons une distance correspondant à la distance que la lumière a parcouru depuis le Big Bang, nous nous trouvons dans une partie de l'univers où la physique commence tout juste à être sensiblement différente », dit Webb. L'univers a été en expansion depuis le Big Bang, cependant, de sorte que le cosmos s'étend encore plus loin que cela. La progression linéaire suggère que dans ces régions invisibles, alpha pourrait varier assez au point que l'univers lui-même commence à apparaître très différent. « C'est peut-être si différent que la vie telle que nous la connaissons ne peut pas exister », nous dit Webb.Δ α α e m = − 0 , 6 ± 0 , 6 × 10 – 6 {\displaystyle {\frac {\Delta \alpha }{\alpha _{\mathrm {em} }}}=-0{,}6\pm 0{,}6\times 10^{-6}}

Pour dépasser ce stade de l’incertitude et de la spéculation, il est prévu que d’ici la fin 2019, soit installé et fonctionnel un nouvel instrument : ‘EXPRESSO’ (Echelle Spectrograph for Rocky Exoplanet and Stable Spectroscopic Observation) sur le VLT. Etant donné le niveau de la performance attendu de cet instrument, l’observation de la variation significative d’α depuis le Big Bang sera tranchée et à partir de cette connaissance nouvelle, si elle s’impose, effectivement une nouvelle physique pourra surgir. 

            P.S. Je vous dois un mea culpa. Dans le précédent article du 14/11/ j’aurai dû rappeler que le physicien Roger Penrose pense avoir trouvé une preuve de son modèle de « cosmologie cyclique conforme ». Des « points de Hawking » seraient visibles dans le rayonnement fossile, témoignant de l'évaporation de trous noirs supermassifs survenue avant le Big Bang, dans un monde qui aurait précédé le nôtre.

L’hypothèse de l’empreinte d’un univers du multivers ou du multivers lui-même, dans le rayonnement fossile est proposée par d’autres physiciens. Tout cela est très ténu, raison de plus pour que je ne permette pas d’accroitre pour vous la fragilité de ces hypothèses très avant-gardistes.

 

[1] Durant son voyage vers la terre une partie de la lumière émise, il y a 12 milliards d’années, par des noyaux de galaxies extrêmement lumineux ou quasars, a traversé des nuages de gaz qui absorbent certaines longueurs d'ondes. Cela donne un moyen d’évaluation crucial de la valeur d’alpha : « Si vous changez alpha, vous changez le degré d'attraction entre l'électron et le noyau. », dit Webb. Cela change les longueurs des ondes absorbées par un atome donné - ce qui signifie que le spectre d'absorption crée une sorte de code-barres unique correspondant à la valeur d'alpha lorsque le spectre a été créé. »

Partager cet article
Repost0
14 novembre 2018 3 14 /11 /novembre /2018 16:36

L’Espace-Temps : une création d’acteurs bien connus ?

Ceci est le titre d’un article que j’ai obtenu sur le site de Phys.org. Je l’ai traduit et il est ci-joint, ci-dessous, dans son intégralité et en deuxième partie je commente les points sur lesquels je suis particulièrement attentif étant donné l’état de ma réflexion sur le sujet de l’Espace-Temps.

« Tout comme les interactions entre les grains de sable forment une surface lisse sur la plage, l'espace-temps connu par nous pourrait être le résultat de relations entre quarks et leurs conglomérats.

La plupart des physiciens estiment que la structure de l'espace-temps est formée d'une manière inconnue à l’échelle de Planck, c'est-à-dire à une échelle proche d'un milliardième de milliardième de milliardième de mètre. Cependant, des considérations pertinentes compromettent cette prédiction. En effet, il y a des arguments en faveur de l’émergence de l'espace-temps à la suite de processus qui se déroulent au niveau des quarks et de leurs conglomérats.

Qu'est-ce que l'espace-temps ? L'absolu, l’immuable, arène des événements ? Ou peut-être est-ce une création dynamique, qui émerge d'une certaine manière à une certaine échelle de distance, de temps ou d'énergie. Les références à l’absolu ne sont pas les bienvenus dans la physique d'aujourd'hui. A l’heure actuelle il est largement considéré que l'espace-temps est émergent. Ce n’est pas clair, cependant, où le processus de l’émergence se déroule. La majorité des physiciens tendent à supposer que l'espace-temps est créé à l’échelle de Planck, à une distance proche d'un milliardième de milliardième de milliardième de mètre (~ 10-35 m). Dans son article dans Fondations de la Science, professeur Piotr Zenczykowski de l'Institut de physique nucléaire de l'Académie Polonaise des Sciences à Cracovie systématise les observations de nombreux auteurs sur la formation de l'espace-temps, et soutient que l'hypothèse de sa formation à l'échelle des quarks et des hadrons (ou agrégats de Quarks) est tout à fait raisonnable pour un certain nombre de raisons.

Les questions sur la nature de l'espace et du temps ont laissé perplexe l'humanité depuis au moins l'antiquité. Est-ce que l'espace et le temps sont séparés de la matière, créant un "container ", un contenant, pour les mouvements et les événements se produisant avec la participation des particules, comme Démocrite l’a proposé au Ve siècle av. J.-C. ? Ou bien ils sont les attributs de la matière et ne peuvent pas exister sans elle, comme Aristote l’a suggéré un siècle plus tard ? Malgré le passage des millénaires, ces questions n'ont pas été encore résolues. En outre, les deux approches, bien que contradictoires, sont profondément enracinées dans les piliers de la physique moderne.

En mécanique quantique, les événements se déroulent dans une arène rigide avec un temps d'écoulement uniforme. Tandis que, dans la théorie de la relativité générale, la matière déforme l'espace-temps élastique (étirement et torsion), et l'espace-temps indique aux particules comment se déplacer. En d'autres termes, dans une théorie, les acteurs entrent dans une scène déjà prête pour jouer leur rôle, tandis que dans l’autre théorie, ils créent leur scène au cours de la performance, qui à son tour influe sur leur comportement.

En 1899, le physicien allemand Max Planck remarqua qu’avec certaines combinaisons de certaines constantes de la nature, des unités de mesure très fondamentales pourraient être obtenues. Seulement trois constantes – la vitesse de la lumière c, la constante gravitationnelle G et de Planck constante h — suffisaient à créer des unités de distance, de temps et de masse, égaux (respectivement) à 1,62 · 10-35m, 5,39 · 10-44s et 2,18 · 10-5g. Selon la croyance courante d'aujourd'hui, l'espace-temps serait créé à la longueur de Planck. En fait, il n’y a aucun argument de fond quant à la rationalité de cette hypothèse (sic).

A la fois les expériences les plus sophistiquées et les descriptions théoriques atteignent l'échelle des quarks, c'est-à-dire, le niveau de 10-18m. Alors, comment savons-nous que sur le chemin de la longueur de Planck – plus d'une douzaine d’ordres de grandeur consécutifs, toujours plus petits, de magnitude — l'espace-temps conserve sa structure ? En fait, Nous ne sommes même pas sûrs si le concept de l'espace-temps est rationnel au niveau des hadrons ! Les divisions ne peuvent pas être réalisées indéfiniment, parce que à un certain stade, la question de la prochaine partie plus petite cesse de faire sens. Un exemple parfait ici est la température. Ce concept fonctionne très bien sur une macro-échelle, mais quand, après les divisions suivantes de la matière, nous atteignons l'échelle des particules individuelles, il perd sa raison d’être.

 "Actuellement, nous cherchons d'abord à construire une quantification, un espace-temps discret, puis « remplir » avec de la matière discrète. Cependant, si l'espace-temps était un produit des quarks et des hadrons, la dépendance serait inversée — le caractère discret de la matière devrait alors appliquer la discrétion de l'espace-temps" dit le professeur Zenczykowski. "Planck a été guidé par les mathématiques. Il voulait créer des unités avec le plus petit nombre de constantes possibles. Mais les mathématiques sont une chose, et la relation avec le monde réel est autre chose. Par exemple, la valeur de la masse de Planck semble suspecte. On s'attendrait à ce qu'elle ait une valeur bien plus caractéristique du monde des quanta. En attendant, elle correspond à environ un dixième de la masse d'une puce, ce qui est certainement un objet classique."

Puisque nous voulons décrire le monde physique, nous devons nous pencher sur la physique plutôt que sur des arguments mathématiques. Ainsi, lorsque nous utilisons les équations d’Einstein, nous décrivons l'univers aux grandes échelles, et il devient nécessaire d'introduire une constante gravitationnelle additionnelle, connue sous le nom de la constante cosmologique lambda. Par conséquent, toujours dans le but de construire des unités fondamentales, si nous élargissons l’ensemble original de trois constantes avec lambda, dans le cas de masses, nous obtenons non pas une mais trois valeurs fondamentales : 1,39 · 10-65g, 2,14 · 1056 g, et 0,35 · 10-24g. La première de celle-ci est interprétée comme un quantum de masse, la seconde est au niveau de la masse de l'univers observable, et la troisième est similaire aux masses de hadrons (par exemple, la masse d'un neutron est de 1,67 · 10-24g). De même, après avoir pris en compte lambda une unité de distance de 6.37 · 10-15m (6.37 Fermi) apparaît, très proche de la dimension des hadrons.

"Jouer avec les constantes, cependant, peut être risqué, parce que beaucoup dépend des constantes que nous choisissons. Par exemple, si l'espace-temps était en effet un produit des quarks et des hadrons, alors ses propriétés, y compris la vitesse de la lumière, devraient être également émergente. Cela signifie que la vitesse de la lumière ne doit pas être parmi les constantes de base" dit le Prof. Zenczykowski.

Un autre facteur en faveur de la formation de l'espace-temps à l'échelle des quarks et des hadrons sont les propriétés des particules élémentaires elles-mêmes. Par exemple, le modèle standard n’explique pas pourquoi il y a trois générations de particules, d’où leurs masses proviennent, ou pourquoi Il y a ce qu'on appelle les nombres quantiques internes, qui incluent l’isospin, l’hypercharge et la couleur. Dans la représentation assurée par le Prof. Zenczykowski, ces valeurs peuvent être liées à un certain espace à 6 dimensions créé par les positions des particules et leurs impulsions. L'espace ainsi construit assigne la même importance aux positions des particules (matière) et à leurs mouvements (processus). Il s’avère que les propriétés des masses ou des nombres quantiques internes peuvent alors être une conséquence des propriétés algébriques de l'espace 6-D. De plus, ces propriétés expliqueraient aussi l'incapacité d’observer les quarks libres.

 "L'émergence de l'espace-temps peut être associée aux changements dans l'organisation de la matière se produisant à l’échelle des quarks et des hadrons dans le plus primaire espace de phase en six dimensions. Cependant, il n'est pas très clair ce qu'il faut faire ensuite avec cette image. Chaque étape subséquente nécessiterait d'aller au-delà de ce que nous savons. Et nous ne connaissons même pas les règles du jeu que la nature joue avec nous — il nous faut continuer de les deviner. Cependant, il semble très raisonnable que toutes les constructions commencent par la matière, parce que c'est quelque chose de physique et disponible expérimentalement. Dans cette approche, l'espace-temps ne serait que notre idéalisation de relations entre les éléments de la matière "dit le professeur Zenczykowski.

Plus d'informations : Piotr Zenczykowski, Quarks, Hadrons, et l'Espace-Temps Emergent, Fondations de la Science (2018). »

L’intérêt de cet article est franchement évident car il formule une hypothèse de la formation (émergence) de l’espace-temps originale. Que l’on adhère ou pas à l’hypothèse de Zenczykowski, son point de vue original mérite d’être analysé d’autant plus qu’il arrive à des ordres de grandeurs qui sont les miens. On peut considérer que ce genre de convergence n’est pas fortuit.

Lorsque l’auteur remarque qu’en mécanique quantique : les événements se déroulent dans une arène rigide, il nous rappelle que l’équation de Schrödinger, est une équation de la physique classique, indiquant que nous devons, faute d’alternative, décrire la mécanique quantique avec des outils mathématiques du monde classique car notre intelligence et nos connaissances se sont forgées dans une relation avec le monde de la nature à l’échelle de nos sens qui sont classiques. On peut dire que l’être humain est, brut de fonderie, un être classique. Lorsque l’auteur évoque la relation entre matière-espace-temps qui s’exprime avec la relativité générale, on peut aussi considérer que ceci est dans l’ordre des choses car l’être humain (et ses ancêtres) ne peut pas avoir une expérience du déplacement spatio-temporel ou de son immobilité sans que la force de gravitation soit effective. Ses points de vue sont basiques et utiles à rappeler.

Quand Zenczykowski affirme : « En fait, il n’y a aucun argument de fond quant à la rationalité de cette hypothèse. », il a parfaitement raison et il est vrai que l’on peut s’étonner de la persistance avec laquelle on continue d’attribuer du sens physique à ses grandeurs. Personnellement, je les ai toujours considérées comme des grandeurs hors-sols.

Ensuite, il indique que la longueur de 10-18m[1] pourrait avoir la valeur d’une longueur limite. Moi-même, avec des considérations différentes j’arrive à la même valeur limite des distances ainsi que pour le temps de l’ordre de 10-25 ou 10-26s comme valeur limite en deçà de laquelle l’intelligence humaine devient aveugle et ne peut plus opérer. Actuellement le point aveugle physique est de l’ordre de 10-21s. Constat qui est obtenu dans les détecteurs avec le Boson de Higgs. Il me semble que techniquement on peut encore gagner en précision mais le coût de ces gains de précision sont très élevés, ils le seront de plus en plus, et il y aura une valeur limite.

J’ai inféré cette valeur limite de l’intervalle de temps en considérant que sur la flèche du temps on peut aisément concevoir l’intervalle de 1 seconde[2] de l’instant présent qui sépare le temps passé du temps futur. Les deux bornes qui délimitent la partie du passé de la partie du futur sont disjointes par la durée d’une seconde. Si on subdivise indéfiniment cette durée d’une seconde on obtient un état où les deux bornes se touchent et le temps passé se déverserait directement dans le temps futur. Or celui qui mesure le temps, il le fait durant l’instant présent, en sa présence, entre passé et futur donc il doit toujours y avoir une durée présente indivisible qui est celui de la présence humaine active, le physicien, qui interdit que les deux bornes délimitant la flèche du temps en deux valeurs distinctes ne se touchent. Mais il y aura à coup sûr une limite qui ne pourra jamais être dépassée. Quels que soient les moyens techniques mis en œuvre, on butera sur un intervalle de temps indivisible car une présence est requise pour assurer la mesure et faire de la physique. L’opération de mesure ne peut pas être instantanée, c’est-à-dire ne peut pas se faire pendant une « durée » effective strictement égale à zéro seconde.

Mon raisonnement est développé en regard des contraintes de l’observateur, celui de Zenczykowski est développé en regard des contraintes de la matière mais nos conclusions convergent.

Quand il est prononcé dans l’article la phrase suivante : « Mais les mathématiques sont une chose, et la relation avec le monde réel est autre chose. » Cette appréciation est loin d’être banale car elle précise un clivage très important tout autant entre physiciens qu’entre mathématiciens. En effet la majorité de ceux-ci pensent que la relation avec le monde réel ce sont les mathématiques. Cette pensée est colportée depuis Platon, relayée par Galilée, puis Descartes, puis Kant, etc… ; etc… C’est une minorité qui considère que les mathématiques ne sont que des outils formels. Ces points de vue philosophico-épistémologique différents sont très déterminants sur la façon dont on pense a priori les lois de la nature et la représentation que l’on se figure de cette nature.

« Cela signifie que la vitesse de la lumière ne doit pas être parmi les constantes de base » dit le Prof. Zenczykowski. Puisque l’auteur interroge le bien fondé de considérer la vitesse de la lumière comme constante de base car elle serait déterminée par les conditions et les causes de l’émergence de l’espace-temps, je propose que l’on réfléchisse au statut de l’universalité de cette constante. Statut qui semble figé jusqu’à présent. Ce qui est assuré, c’est que l’univers que nous sommes capables actuellement de décrire, d’objectiver, est celui qui comprend de la matière baryonique et c’est de celle-ci dont toutes les parties de notre corps sont constituées et nous sommes en conséquence déterminés par les lois internes qui régissent ses constituants élémentaires et ses assemblages avec toutes les complexités possibles. Nous sommes donc en tant qu’émetteur et récepteur de lumière parfaitement sensibles aux rayonnements de cette matière de base. Notre intelligence prospective ne peut se référer qu’aux rayonnements de cette nature. Cela semble être pour nous une détermination absolue et vouloir la surpasser est donc totalement iconoclaste (voir article du 31/07/2013 : Être de lumière et intelligence des lumières ?). Je prétends qu’il est possible de la surpasser et nous sommes peut-être déjà au seuil de ce dépassement avec nos capacités actuelles de spéculer sur l’hypothèse du multivers. Je m’explique, l’idée qu’il existerait d’autres univers avec des propriétés physiques autres que celle de l’univers qu’actuellement nous concevons, n’est plus (en tous les cas, l’est moins) rejetée et je considère que cela progresse avec rigueur dans le bon sens[3]. Je considère que dès que nous aurons réuni suffisamment d’indications sur l’existence de tels autres univers, ils seront, de fait, intégrés dans notre nouvel univers qui résultera de la somme des nouveaux compris par notre intelligence en évolution et de celui qui est le piédestal actuel de notre spéculation. Dans ce cadre nouveau la vitesse de la lumière en tant que rayonnement n’aura plus le statut de constante universelle.

« Dans cette approche, l'espace-temps ne serait que notre idéalisation des relations entre les éléments de la matière » Pour conclure, je suis d’accord avec cette affirmation car il est évident que nous projetons, et nous ne pouvons pas faire autrement que de projeter nos connaissances qui sont les plus avancées des relations entre les éléments de la matière. Les relations entre les éléments de la matière telles que notre discours scientifique en dit, correspondent à l’état de nos connaissances actuelles et ne doivent pas être considérées comme correspondant à une quelconque ontologie.

Ce que l’auteur nous dit aussi c’est que l’espace-temps est un référentiel essentiel pour décrire ces relations. Cet espace-temps est notre ‘propre’, il n’est pas donné dans la nature, et c’est à partir de celui-ci que notre pensée, se structure, structure, prospecte et spécule avec le plus juste propos. 

 

 

[1] Cette distance limite peut être aussi pensée en considérant la dimension de l’électron. C’est par cette voie là que j’ai déduit cette même distance limite. Enfin elle est parfaitement compatible avec mon temps limite (TpS) de 10-26s car TpS = 10-18m/C.

[2] Toutes les mesures réalisées indiquent qu’il faut 1/3 de seconde pour qu’une personne ait une conscience de quelque chose. Avec l’âge cette durée augmente.

[3] R. Penrose aurait déjà décelé une trace d’un autre univers grâce à la zone froide ‘visible’ sur l’image du fond diffus cosmologique publiée par l’équipe ‘Planck’. Actuellement je suis plus convaincu par les arguments d’Aurélien Barrau voir article précédent du 24/10/2018.  

Partager cet article
Repost0
7 novembre 2018 3 07 /11 /novembre /2018 17:04

Nature(s) et Sapiens pensant, toujours à découvrir.

Dans les années précédentes, j’ai commis les 2 articles suivants : ‘Décrypter la physique comme science de l’interface de l’être humain et de la Nature !’ le 18/03/2015, ainsi que : ‘Décrire comment les humains interagissent avec la nature ? Comment ils évoluent grâce à cette interaction ?’ le 23/08/2016.

Ces derniers jours, il a été publié un livre sous la direction de Philippe Descola : ‘Les Natures en question’, édit. O. Jacob, qui présente ce livre en 4e de couverture : « Revêtue de significations multiples, la nature a longtemps formé le pôle principal d’une série d’oppositions dans la pensée européenne : nature et culture, nature et surnature, nature et art, nature et esprit, nature et histoire… Des études de plus en plus nombreuses, dont le livre se fait l’écho, mettent en doute la généralité de ces catégories et leur pertinence. L’effritement des limites de la nature est-il total, ou doit-on reconnaître la persistance de certaines discontinuités fondamentales entre humains et non humains ?

Issu du colloque de rentrée qui s’est tenu au Collège de France en octobre 2017, ce livre propose une réflexion interdisciplinaire sur les questions soulevées par les déplacements et les brouillages de frontière entre déterminations naturelles et déterminations humaines (sic). »

D’emblée je cite ce qui est rappelé dans l’introduction : « Heidegger l’a bien vu, la nature y a fonctionné comme le terme cardinal puisqu’elle spécifiait les caractéristiques de chacune des notions auxquelles on l’opposait. Ce qui se distingue de la nature reçoit d’elle sa détermination (sic) – la culture comme ce qui n’est pas transmis par l’héritage biologique, l’art comme ce qui relève de l’artifice et non du spontané, la société comme ce qui repose sur des conventions particulières et non universelles ; en sorte que nombre de concepts structurant la pensée européenne (sic) paraissent nés d’un effort sans cesse renouvelé pour se démarquer du mot nature dont le sens propre est terriblement vague. » Ainsi on mesure l’impact que peut provoquer les investigations des physiciens qui ont comme objectif prioritaire de dévoiler les lois de la nature c’est-à-dire de progressivement réduire le caractère terriblement vague du mot nature.

Selon ma thèse lorsqu’une propriété, une loi de la nature est découverte, elle devient de facto une composante qui enrichit le patrimoine des connaissances humaines, elle devient une composante du patrimoine culturelle, elle est donc d’une certaine façon ‘humanisée’. Dans le cadre de cette dynamique, je conçois que l’être-dans-la-nature qui habite l’être humain surplombe la nature avec une visibilité (intelligence) accrue tandis que concomitamment l’être-de-la-nature un peu plus dévoilé perd de sa sourde influence. Selon ma thèse les discontinuités fondamentales, qu’évoque Ph. Descola, ne disparaissent pas ni ne s’effritent au sens premier du terme mais c’est leur influence respective qui évolue dès qu’elles sont objectivées c’est-à-dire dès qu’elles sont humanisées. En même temps il ne faut pas oublier que cette humanisation spécifique n’est jamais close, n’est jamais aboutie, pensons à la loi de Newton qui est englobée par la suite par la loi de la relativité générale d’Einstein et celle-ci sera englobée par une autre loi encore à découvrir.

Je rencontre avec beaucoup d’intérêt sous la plume de l’auteur les notions auxquelles je me réfère régulièrement, celles de déterminations naturelles et de déterminations humaines. Selon mon schéma les déterminations naturelles que véhiculent l’être de la nature sont moins prégnantes dès qu’elles sont élucidées par l’intelligence humaine. Elles continuent d’être naturelles mais leur nature comprise est intégrée et définitivement appropriée par l’être dans la nature. Ainsi lorsque l’être humain, ici plus spécifiquement les physiciens s’approprieront de l’idée que l’espace-temps est un propre de l’homme[1] du fait de son évolution au sein de la nature depuis les profondeurs du temps bien des propriétés de la mécanique quantique aujourd’hui toujours bizarres deviendront compréhensibles.

A la page 8 du livre, dans l’introduction, Descola nous dit : « … certaines espèces sont parvenues à se hisser (sic) au-dessus de leur condition « naturelle ». C’est en premier lieu sous l’influence de l’éthologie que cet aggiornamento s’est produit, lorsque fut mise en cause l’absolue singularité des humains en tant qu’espèce apte à produire de la différence culturelle. ». Avec cette citation, je me permets de considérer que l’auteur adopte une semblable dynamique à la mienne. C’est en tant qu’anthropologue que logiquement il adopte cette conception, quant à moi c’est en visitant avec une curiosité ouverte l’histoire de la pensée en physique et de ses succès que j’ai adopté cette conception du ‘hissement’ (surplomb progressif) pour l’être humain.

Rappelons que la pluralité des définitions de la nature n’est pas nouvelle ainsi à l’époque des Lumières, Denis Diderot le pannaturaliste désigne : « le système qui considère la nature comme principe fondamental, pour lequel rien n’existe en dehors de la nature », les autres articles sur la « Nature » de l’Encyclopédie sont fortement influencés par Newton. Ainsi, la nature ne serait pas caractérisée par la pluralité des objets, mais par l’unité des sciences qu’elle postule. De Descartes à D’Alembert, un même principe architectonique préside à l’enquête sur la nature. Le domaine des mathématiques est en pleine expansion grâce à la rencontre entre physique et mathématiques initiée au XVIIe siècle. Mais ce projet d’unification de la nature par la mathématisation ne va pas sans résistance dans le monde savant. Denis Diderot défendra contre D’Alembert l’idée d’une nature plus riche, plus diversifiée et en conséquence largement rétive à la mise en équation…

Ce livre réunit un ensemble d’interventions que je conseille, bien évidemment, d’étudier. Ici dans l’article, je privilégie l’intervention de Claudine Tiercelin qui a pour titre : ‘Comment situer l’esprit dans la nature ?’. Vaste sujet, que ce soit dans le cadre d’une conception dualiste[2] ou dans le cadre d’une conception réductionniste physicaliste[3]. Mais ce sujet est taraudant dès que l’on est convaincu que la sphère du sens est proprement humaine. Il est à mon sens parfois vivifiant de ressasser des questions qui n’ont pas de réponse immédiate voire même n’auront aucune réponse suffisante car elles ont la vocation de nous mettre en garde contre la tentation de produire des conclusions hâtives. Ainsi page 238, C. Tiercelin nous interpelle avec cette interrogation :

« Quelle est la place de notre liberté dans la Nature ? Nous pensons spontanément que nous ne sommes des agents libres que si nous pouvons agir sur le monde physique en vertu de nos décisions et, plus généralement, en vertu de nos états et processus mentaux, en d’autres termes, si nous admettons le principe d’une forme de « causalité mentale » ou « descendante ».

Cette causalité mentale descendante n’est pas envisageable dans le cadre du physicalisme car étant in fine réductible à des lois physiques le mental serait donc physique et notre liberté dans la Nature serait un leurre.

 C. Tiercelin ajoute : « En d’autres termes, et telle est sans doute la raison majeure de notre réaction épidermique au réductionnisme physicaliste : comment l’esprit peut-il exercer ses pouvoirs causaux dans un monde dont nous sommes prêts, par ailleurs, à admettre, qu’il est physiquement clos ? Pourquoi et comment peut-il exister quelque chose comme un organisme vivant, un esprit, une conscience dans un monde intégralement régi par la physique ? »

En effet dans le cas de figure privilégié ci-dessus l’esprit ne peut pas exercer de pouvoirs causaux puisqu’il serait pris lui-même dans le filet de la causalité, il n’en serait qu’un maillon, il serait donc précédé par une cause et produirait un effet qu’il ne maîtriserait pas. La problématique, du monde physiquement clos, soulevée par Tiercelin, n’est valable aujourd’hui que dans un contexte restreint étant donné l’état actuel de la connaissance et il est dommage que dans un colloque datant de l’année dernière, il ne soit pas évoqué les théories qui justement ouvrent le monde des possibles en physique parce que ce dont l’auteur cite comme unique référence apparaît, est déjà apparu, comme un non-sens et certains physiciens ont vécu, ont compris, que cette tension était plutôt le fruit d’une pensée insuffisante que le fruit d’une pensée bien placée en cosmologie. Je fais donc référence à l’hypothèse du multivers[4] ainsi qu’à la théorie du rebond. Comme quoi chaque domaine de réflexion à sa propre inertie, parce qu’il est humainement toujours difficile de repenser, de remettre en cause, ce qui fait de soi un(e) intellectuel(le) doté(e) d’une aura professionnelle. L’académisme peut malheureusement être une prison pour la pensée.

La lecture de l’ensemble de l’intervention provoque l’émergence d’une réelle inquiétude car je découvre qu’un excès d’érudition peut s’opposer à l’expression d’une pensée propre qui expose un supplément de réflexion, au-delà voire au-dessus des références des études dont se nourrit l’auteur. Dire ce qui est déjà pensé, comment cela est déjà pensé, n’est pas suffisant pour promouvoir une pensée nouvelle originale. De plus rappeler des catégories pour dire qu’elles sont dépassées et/ou d’autres sont immuables assèche l’enthousiasme de prolonger le suivi de la réflexion de l’auteur. Je cite : «… ne pas réintroduire en douce, quelque élan vital bergsonien, ou autre billevesée panpsychiste (thèse selon laquelle toutes les propriétés sont mentales : voir articles du 16/02/2018 et du 25/02/2018) ; … restons fermes sur les principes de l’unité de la science, de la clôture causale du physique et de l’exclusion causale du mental, conséquence de l’impossible surdétermination causale. »

  Par contre, j’ai pu lire aussi des mises en garde pertinentes telle que : « Il serait imprudent d’affirmer trop vite que telle ou telle théorie cognitive va opérer un découpage correct du monde mental : il n’est pas évident que le cerveau soit le miroir exact des articulations de notre esprit. D’où l’importance d’une démarche que je qualifierais volontiers de véritable ontologie cognitive exploratoire, qui consisterait à déterminer, moins à quoi, dans le cerveau, correspond telle activité mentale que ce dont on parle lorsqu’on considère qu’il y a certains processus mentaux qui se déroulent, en distinguant en particulier aussi finement que possible, au sein de l’esprit, les niveaux subdoxastiques, doxastiques, métadoxastiques et surdoxastiques (sic). »

Je reprends sur le rappel par C. Tiercelin de la nécessité de rester ferme sur des principes de l’unité de la science, de la clôture causale du physique, etc… Pourquoi faudrait-il que des connaissances robustes impliquent une clôture, un absolu, une certitude quant à leurs valeurs définitives ? Nous ne pouvons pas oublier que le Sapiens pensant que nous sommes n’est pas, lui-même, vraiment connu, compris, en tant que concepteur et émetteur de connaissances et comme nous le verrons plus loin cela est positivement intrigant. A cet égard nous devons conserver une ouverture d’esprit pour saisir à propos des nouveautés de connaissances, de compréhensions, toutes les ouvertures conséquentes. Cela n’implique pas le relativisme, ni ne fragilise ce que nous sommes présentement, au contraire cela permettra de rendre progressivement plausible ce qui est encore aujourd’hui de l’ordre de la métaphysique. Opportunément le N° de ‘Pour la Science’ du mois de Novembre (que je conseille d’étudier) traite du sujet suivant : ‘Ce qui distingue Sapiens des autres animaux’ accompagné de l’introduction suivante : « Culture, langage, cognition… : l’espèce à laquelle nous appartenons est singulière, tout le monde en convient. Et cette singularité nous intrigue depuis toujours. De fait d’innombrables penseurs ont tenté de définir ce qui fait le propre de l’homme. Avec hélas peu de résultats convaincants et durables face aux découvertes de l’éthologie. Néanmoins, le progrès de la science aidant, nous connaissons aujourd’hui mieux les différences essentielles entre les humains et les autres animaux, et nous comprenons mieux leurs origines… Bref l’état des lieux provisoire montre que le fait culturel joue un rôle capital. »

Le premier article : « La culture, moteur de l’évolution humaine ». Je cite ce qui retient particulièrement mon attention : Si notre espèce brille par son intelligence et sa créativité, c’est parce que nous sommes avant tout des animaux sociaux. Langage, empathie, enseignement… : ces éléments qui facilitent les interactions sociales et le partage des connaissances auraient été autant de clés au succès évolutif d’Homo sapiens.

La culture aurait fait grandir notre cerveau.

Que les activités culturelles de nos ancêtres aient fait peser une pression de sélection sur leurs corps et leurs esprits – un processus de coévolution gène-culture – est maintenant (sic) bien étayé. Des analyses théoriques, anthropologiques et génomiques concordent pour indiquer que le savoir transmis socialement, notamment celui permettant la fabrication et l’usage d’outils, a engendré en retour une sélection naturelle qui a transformé l’anatomie et la cognition… L’enseignement et le langage ont complètement rebattu les cartes pour notre lignée. La coopération à grande échelle est apparue dans les sociétés humaines grâce à nos facultés uniques d’apprentissage social et d’enseignement…

Des Êtres qui sont en partie le produit d’eux-mêmes[5].

Deuxième article : « Des pensées emboîtées… et partagées. » Je cite :

Les recherches ont mis en relief deux distinctions majeures : notre capacité à imaginer des scénarios imbriqués et le partage de pensées et le partage de pensées avec autrui. Réunies, ces aptitudes sous-tendent des facultés humaines primordiales telles que le langage, la culture, la moralité, l’anticipation du futur, la capacité à lire dans la pensée des autres.

Troisième article : « Comment le langage s’est imposé » je cite :

Parmi toutes les formes de communication rencontrées dans le monde animal, le langage humain fait figure d’exception. Comment a-t-il émergé ? Les particularités biologiques et cognitives des humains ne sont pas les seules en jeu : de plus en plus, les scientifiques soulignent le rôle décisif qu’a joué la culture.

On n’a rien trouvé d’unique en nous qui explique le langage humain (sic).

Les recherches sur l’évolution du langage constituent un champ scientifique encore jeune. Les chercheurs n’ont pas atteint le graal escompté, à savoir un évènement crucial expliquant l’apparition du langage, mais leurs travaux montrent que cette quête est probablement vaine. L’émergence du langage est un processus plus multifactoriel qu’on ne le pensait.

A ce stade des citations de ‘Pour la science’, on constate que ce qui constitue une aptitude qui caractérise l’être humain n’aurait pas de cause première, mais serait le fruit d’une évolution multifactorielle nous interdisant de considérer qu’une quelconque réduction serait envisageable, réduction qui nous permettrait d’isoler la souche spécifique à l’engendrement de l’humain. La richesse naturelle (peut-être pouvons-nous la nommer contingence !) qui est à l’origine de ce qui conduit à l’humain doit être toujours pensée lorsqu’il y a une volonté irrépressible de clôture car elle est en opposition à ce qui est de l’ordre de l’humain. La seule raison qui peut justifier l’idée de clôture… provisoire c’est la nécessité d’une pause pour reprendre un élan. C’est ainsi qu’il faut comprendre, à mon sens, l’hypothèse du big bang de l’univers qui n’est qu’une étape permettant à la pensée d’évaluer le caractère infondé, artificiel, mais provisoirement sécurisante, de cette hypothèse et après évaluation permettant ainsi d’ouvrir l’hypothèse d’une ouverture, d’une respiration, intellectuelle nouvelle avec la théorie du multivers.

A propos du langage humain, il faut rappeler que Noam Chomsky a tenu la corde longtemps avec son hypothèse que le langage était dû à une dotation génétique du même type que celle qui spécifie la structure de notre système visuel ou celle de notre système circulatoire. Cette hypothèse est en opposition avec celle du multifactorielle. De même N. Chomsky affirme que le langage est ‘conçu’ pour penser, la communication n’étant que secondaire. Donc ceci contredisant l’article de Pour la Science, peut être retrouvé dans le N° de La Recherche Hors-Série que j’ai cité dans les derniers précédents articles. En conclusion le Sapiens pensant, que nous sommes aujourd’hui, a des perspectives de connaissances ouvertes pour comprendre sa raison d’être, tout comme pour comprendre concomitamment le : là étendu où il se situe.

Quatrième article : ‘Un cerveau hors catégorie’, je cite :

Un encéphale particulièrement gros, un cortex particulièrement plissé, des connexions neuronales particulièrement nombreuses… le cerveau humain est singulier dans le monde animal.

Le registre fossile des homininés met en évidence une tendance générale de croissance du volume crânien au cours des six derniers millions d’années environ. Cela correspond à la séparation de notre lignée de celle des chimpanzés et des bonobos.

Fort développement de certaines aires cérébrales. Certaines régions du cerveau, responsables de fonctions cognitives supérieures, ont augmenté de taille de façon disproportionnée chez les humains, comparées aux mêmes aires chez les chimpanzés. Il s’agit notamment du cortex préfrontal, du cortex associatif temporal et du cortex associatif pariétal.

Le cerveau d’Homo habilis (entre 3,3 et 2,1 millions d’années), 646 cm3 ; le cerveau d’Homo erectus (entre 1,9 million d’années à 143 000 ans), 952 cm; le cerveau d’Homo neanderthalensis (400 000 à 40 000 ans), 1404 cm3 ; le cerveau d’Homo sapiens 300 000 ans à aujourd’hui, 1500 cm3.

 

[1] Voir dans l’article précédent la citation de l’article : ‘Code neural du temps’ ; Voir aussi la nouvelle publication d’octobre 2018 de J.G. Heys et D.A. Dombeck dans Nature Neuroscience : ‘Evidence d’un sous circuit dans le cortex entorhinal médian représentant le temps s’écoulant pendant l’immobilité’.

[2] En philosophie, le dualisme est un point de vue strict affirmant que l’univers est constitué d'un constituant physique et d'un constituant mental. Le dualisme se réfère à une vision de la relation matière-esprit fondée sur l'affirmation que les phénomènes mentaux possèdent des caractéristiques qui sortent du champ de la physique

 

[3] Le physicalisme constitue une version extrême et paradigmatique de réductionnisme hétérogène car il considère que tous les niveaux de la réalité sont réductibles, en dernière instance, à son niveau le plus fondamental qui est celui de la physique. Cette forme de réductionnisme est intimement liée à une conception ontologique et non pas simplement méthodologique ou épistémologique de l'unité de la science. Les objets apparemment divers dont s'occupent les différentes sciences empiriques relèveraient ultimement d'une ontologie unitaire et la microphysique (sic) serait le dépositaire de cette ontologie

[4] L’hypothèse du multivers bénéficie d’une certaine façon de fondements de la physique théorique qui a fait ses preuves. Mais effectivement elle n’est pas prédite par des équations, par contre cette hypothèse ne peut pas être exclue, loin de là, par l’avancement, la compréhension nouvelle approfondie, de cette physique théorique qui finalement, au bout du compte, bénéficie d’une consolidation grâce à cet approfondissement.

[5] Dans le livre récent : ‘Dernières nouvelles de Sapiens’ édit. Flammarion, les auteurs considèrent qu’Homo sapiens serait un « animal autodomestique » et la culture jouerait un rôle dans sa conformation biologique : l’homme ne vit pas dans la nature (sic) mais dans la société. Comme avant eux, l’anthropologue Maurice Godelier l’a souligné et analysé, les humains ne se contentent pas de vivre en société, ils doivent « produire de la société » pour vivre.

Partager cet article
Repost0
24 octobre 2018 3 24 /10 /octobre /2018 09:51

Naturellement !

J’avais gardé en réserve l’annonce suivante : « Le code neural du temps », d’un article de ‘La Recherche’ du mois d’octobre avec l’espoir de pouvoir l’insérer dans un contexte plus général et cela est maintenant possible en associant plusieurs articles qui traitent de l’idée que nous nous faisons actuellement de la Nature que ce soit dans le cadre de notre dépendance ou de notre indépendance globale à l’égard de celle-ci.

Dans l’article, le code neural du temps, page 26, une équipe de neuroscientifiques (prix Nobel 2014) a identifié le circuit cérébral qui nous permet d’associer une temporalité aux événements et de les ordonner chronologiquement. Ce circuit est logé dans le cortex entorhinal latéral (lateral entorhinal cortex, LEC), une structure cérébrale profonde et l’une des portes d’entrée de l’information neuronale vers l’hippocampe, siège de la formation des souvenirs. « Le temps n’est pas encodé de manière explicite par ces neurones, comme une horloge qui décompterait les secondes, mais plutôt de manière indirecte, à travers le flot d’événements que l’on vit en permanence et qui change perpétuellement ». Ce « temps épisodique » défini comme la quantité d’éléments qui diffère d’une expérience à l’autre, conditionnerait directement notre perception du temps. Par ailleurs, le LEC est voisin du cortex entorhinal médian où ont été découvert les « cellules de grilles » permettant de se repérer dans l’espace (voir article du 26/07/2017 : « Le cerveau est capable d’encoder sa propre position dans l’espace. ») Les auteurs pensent que ces deux structures transmettent des informations relatives au temps et à la position vers l’hippocampe, où elles seraient intégrées sous la forme d’une « représentation unifiée du quoi, où et quand ». C’est-à-dire un souvenir. Voir[1] conception de l’espace et du temps selon Leibniz (1646-1716).

Est-ce que ces deux découvertes réalisées en deux temps avec l’unification par l’hippocampe m’autorise à considérer que je rencontre une sorte de confirmation neuroscientifique de mon hypothèse que l’espace-temps est un propre de l’homme (voir, entre autres, articles du 14/06/2013 et du 05/08/2017) ? Si cela ne peut pas être considérée comme une confirmation absolue, il y a une convergence très intéressante qui mérite d’être prise en compte. Est-ce que cet espace-temps unifié au sein de notre hippocampe se confond avec celui que les physiciens conçoivent ? C’est mon hypothèse, et c’est ce que j’appelle une détermination de l’être humain (voir article du 21/07/2015[2]). C’est une affirmation redoutable parce que cela signifie que l’espace-temps usité par les physiciens n’est pas le fruit d’une libre cogitation intellectuelle mais résulte d’un processus neuronal qui fait ce que nous sommes, qui s’impose par notre nature biologique, et qui fait que nous sommes un être vivant façonné par la nature et émergeant de cette nature. Selon mon hypothèse l’être façonné par la nature c’est l’être de la nature et l’être émergeant de cette nature est l’être dans la nature, c’est-à-dire celui qui progressivement se place en surplomb de la nature. Et ces deux êtres cohabitent en nous. Enfin n’oublions pas qu’unanimement les physiciens reconnaissent que la cause principale de la crise de la physique théorique qui sévit depuis plusieurs décennies est notre conception inappropriée de l’espace-temps. Mon article du 05/08/2018 : ‘Appel d’Offres’ vise à découvrir, reconnaître, cette détermination et non pas à l’éradiquer puisque cela est impossible. Mais cela deviendrait un savoir essentiel qui par exemple nous permettrait de comprendre le phénomène de l’intrication.

Il y a deux autres versions pour rendre compte du temps, l’une est de Lee Smolin, pour lui le temps est donné dans la nature, voir son livre : ‘La renaissance du temps’, l’autre est de C. Rovelli, pour lui le temps n’existe pas réellement. Mais je considère que cette dernière déclaration est inappropriée car personne ne peut dire ce qu’est la réalité sans la ‘Présence’ de l’être cogitant que nous sommes. Il n’y a pas de description d’un monde physique sans qu’il y ait un énoncé à ce sujet. Affirmer que la réalité est ce qui reste permanent lorsque le sujet pensant se retire est une ambition absurde. Cela peut faire du bien aux physiciens et aux mathématiciens et leur donner de l’énergie depuis plusieurs siècles mais les raisons de l’impasse dans laquelle se trouve la physique théorique aujourd’hui s’explique à cause de la persistance de cette croyance. Voir ce que dit M. Bitbol dans l’article précédent : « Si le scientifique ne peut se représenter le réel, c’est qu’il ne peut s’en distancier parce qu’il y est lui-même impliqué. Tout ce qu’il peut faire dans ces conditions est d’élaborer des règles pour se mouvoir dans le réel et y survivre. » ; « Le concept même de « réalité extérieure » est éminemment métaphysique, car aucune théorie scientifique ne peut être assurée de la décrire… »    

Maintenant, je reviens sur quelques articles du N° hors-série de la Recherche (octobre-novembre) qui a été l’objet de l’article précédent. Présentement, je propose d’analyser en partie la théorie qui donne une importance de premier ordre à la nature sans émergence et il n’y aurait qu’entrelacement et superposition de tous les vivants pliés les uns sur les autres. Il n’y aurait donc que des êtres de la nature !

L’article page 36 : ‘LA TERRE EST-ELLE UN RESEAU ANIMÉ ORIGINAL ?’ :

« Un ensemble de boucles de rétroaction en perpétuel mouvement, voilà comment James Lovelock a décrit le système Terre dans les années 197O. Pour le sociologue et philosophe Bruno Latour : cette vision de Gaïa est plus que jamais d'actualité. »

Question : Vous êtes un ardent défenseur de l'hypothèse Gaïa. De quoi s'agit-il ?

Bruno Latour : « C'est une façon originale de définir les vivants dans leur relation à la Terre. Elle consiste à considérer la Terre comme un ensemble d'êtres vivants et de matière qui se sont fabriqués mutuellement en suivant des cycles géochimiques. Autrement dit, les organismes vivants ne sont pas en résidence sur la Terre, mais ils en constituent l'environnement : l‘atmosphère, les sols, les océans, etc…, sont façonnés par eux. C’est donc une extension de la notion, déjà présente chez Charles Darwin, que les vivants sont eux-mêmes les ingénieurs de leur propre monde sans avoir besoin pour cela d'être guidés par une intention. Tous les organismes vivants sont impliqués dans ce processus, mais ce sont les bactéries qui ont fait le gros du travail de transformation de l'atmosphère et de la géologie terrestres depuis 3,7 milliards d'années. Puis il y a eu les plantes, les animaux et, pendant une courte période seulement, 2,5 millions d'années, les humains. »

On constate en prenant contact avec cette hypothèse, que d’ailleurs je ne connaissais pas, qu’il n’y a pas d’être dans la nature qui soit pensé. L’affirmation : que les vivants sont eux-mêmes les ingénieurs de leur propre monde sans avoir besoin pour cela d’être guidés par une intention, est étonnante car cela exclut le processus de survie, de reproduction. A mon sens être ingénieur et être sans intention est difficile à concilier.

C’est le chimiste britannique James Lovelock qui est à l’origine de cette hypothèse en 1965. J’évoque cet article parce que, bien qu’il soit à mon sens extrême, il propose de réattribuer un rôle à la nature en réduisant l’opposition entre nature et culture ce qui est souhaitable parce que la scission n’existe pas, il y a toujours cohabitation.

A la question : « Est-ce que le mot nature a encore un sens avec Gaïa ? »

B. Latour nous dit : « L’une des malédictions qui ont pesé contre la théorie, c'est le schéma philosophique d'opposition entre nature et culture, qui s'est installé depuis Galilée et René Descartes dans nos sociétés modernes. Avec Gaïa, l'avantage est que l'on n’a plus besoin d'opposer les sociétés humaines et la nature : tous les organismes vivants font partie du même biofilm, une couche à l'intérieur de l'atmosphère, une zone critique, et jusqu'ici Ia seule, où il y a des vivants à l’intérieur d'autres vivants. Aucun organisme vivant n’obéit à un ordre supérieur auquel il devrait s'adapter. Ils sont tous entrelacés. On n'a plus besoin d'une philosophie de Ia nature pour comprendre Gaïa. »

Je suis convaincu que la problématique de l’opposition entre nature et culture ou du dualisme entre nature et culture n’est pas une problématique qui concerne uniquement les philosophes mais elle doit interpeller les physiciens. Il faut réfléchir à la question d’où est-ce que l’on investit la nature pour découvrir ses propriétés. M. Bitbol et A. Barrau que j’ai cité dans l’article précédent ne nient pas le bien-fondé de ce questionnement et c’est ce qui fait la richesse de leur entretien respectif.

Je vous invite à lire l’article de Bruno Latour dans sa totalité mais il me semble que celui correspondant à l’entretien de Philippe Descola page 68 est vraiment très instructif. Dans cet article : ‘Le dualisme entre nature et culture est-il réel ?’ ; « L’opposition entre nature et culture imprègne nos modes de pensée. Elle implique une vision du monde que Ph. Descola (professeur au Collège de France) a tenté de questionner en élaborant une nouvelle théorie qui fait tomber les barrières de notre ethnocentrisme. » Pour donner une idée de l’intérêt que nous devons développer sur ce type de sujet puisqu’il nous concerne pleinement, je vous cite la réponse de Descola (page 73) à la dernière question : « Finalement, votre lecture critique de notre cosmologie moderne pourrait-elle aller jusqu’à remettre en cause nos lois scientifiques ? » :

« Absolument pas. Dire que notre interprétation moderne du monde nous est propre et relève d’une démarche très ethnocentriste ne signifie pas pour autant qu’il n’y ait pas de loi universelle de la physique ou de la biologie. Il est même possible, comme le pense le philosophe Merleau-Ponty, que la cosmologie moderne ait été nécessaire pour permettre les avancées scientifiques. Ce que je remets en cause, ce n’est pas du tout la légitimité de la science, c’est la séparation épistémologique entre sciences de la nature et de la culture (sic). »

Evidemment, il ne faut pas croire que l’auteur évoque le concept de loi universelle en faisant référence à celle que nous déclarons comme telle, comme par exemple la loi de la gravitation. Non ! il dit qu’il considère que l’hypothèse de l’existence de loi universelle qui régit intrinsèquement la nature ne doit pas être rejetée en tous les cas elle peut être utile sur le plan opérationnel et elle focalise et anime favorablement la pensée scientifique.

Descola est lucide sur la portée effective de sa démarche car à l’avant dernière question : « Le fait d’aller à la rencontre de ces autres modes d’identification peut-il nous aider à les comprendre ? », il répond :

« Cela aide à jeter le trouble dans notre propre perception, mais cela ne nous permet pas d’y adhérer. Nos modes d’identification sont si puissants qu’on ne peut s’en détacher. Tout en éprouvant une grande admiration pour les Achuars[3], je n’ai jamais pu penser que les animaux sont des personnes comme moi, parce que le naturalisme[4] est si profondément imbriqué en moi que cela ne m’est pas possible d’expérimenter l’animisme. »

 

P.S. Je souhaite enrichir d’une donnée supplémentaire récente l’article du 23/06/2018 : ‘Cela s’allume plus tôt que prévu’. En effet il a été découvert le plus vaste proto-superamas de galaxies (annonce le 19/10), structure colossale au sein de l'Univers jeune. Ce proto-superamas de galaxies - baptisé Hyperion - a été mis au jour et il s'agit de la structure la plus étendue et la plus massive découverte à ce jour à si grande distance et datant d'une époque si reculée - seulement 2,3 milliards d'années après le Big Bang. C’est la plus vaste et la plus massive découverte à ce jour dans l'Univers primitif. L'énorme masse du proto-superamas est estimée à plus d'un million de milliards de fois la masse du Soleil (rappelons que la Voie Lactée pèse de l’ordre de quelques centaines de milliards de mase solaire.) Cette masse colossale est semblable à celle des structures les plus étendues de l'Univers contemporain. L'existence d'un objet si massif dans l'Univers jeune est très surprenante. ‘Normalement, ce type de structure se rencontre à des redshifts moindres, correspondant à des stades plus avancés dans la formation de l'Univers.’

 

[1] Selon lui, l'espace et le temps ne sont pas des choses dans lesquelles se situent les objets, mais un système de relations entre ces objets. L'espace et le temps sont des « êtres de raison », c'est-à-dire des abstractions à partir des relations entre objets

[2] Le paléoanthropologue Jean Guilaine m’a précisé à l’occasion d’un échange de correspondance : « Il me semble en effet que l’intégration psychique espace-temps chez l’homme (voire ses progrès) doit être abordée au départ, c’est-à-dire au temps de l’hominisation, voire au Paléolithique inférieur… »

[3] Achuars : Dans les années 1970, l’auteur a étudié le mode de vie des indiens Jivaros (ou Achuars) d’Amazonie et leur rapport à leur environnement.

[4]Selon Ph. Descola : « Avec le naturalisme, nous considérons qu’il y a des discontinuités dans les intériorités entre l’homme – qui seul a une âme, une intentionnalité (contraire au discours ci-dessus de B. Latour) et des capacités pour l’exprimer – et tout ce qui lui est extérieur. Autrement dit, le monde des non-humains relève de la nature parce qu’il n’a pas d’intériorité. Il est vrai que cela est un peu battu en brèche avec les travaux chez les grands singes. Mais c’est seulement un déplacement de frontière vers l’espèce la plus proche, pas un changement de principe. En revanche, pour ce qui concerne les physicalités nous admettons depuis Ch. Darwin… »

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens