Overblog
Suivre ce blog Administration + Créer mon blog
24 octobre 2018 3 24 /10 /octobre /2018 09:51

Naturellement !

J’avais gardé en réserve l’annonce suivante : « Le code neural du temps », d’un article de ‘La Recherche’ du mois d’octobre avec l’espoir de pouvoir l’insérer dans un contexte plus général et cela est maintenant possible en associant plusieurs articles qui traitent de l’idée que nous nous faisons actuellement de la Nature que ce soit dans le cadre de notre dépendance ou de notre indépendance globale à l’égard de celle-ci.

Dans l’article, le code neural du temps, page 26, une équipe de neuroscientifiques (prix Nobel 2014) a identifié le circuit cérébral qui nous permet d’associer une temporalité aux événements et de les ordonner chronologiquement. Ce circuit est logé dans le cortex entorhinal latéral (lateral entorhinal cortex, LEC), une structure cérébrale profonde et l’une des portes d’entrée de l’information neuronale vers l’hippocampe, siège de la formation des souvenirs. « Le temps n’est pas encodé de manière explicite par ces neurones, comme une horloge qui décompterait les secondes, mais plutôt de manière indirecte, à travers le flot d’événements que l’on vit en permanence et qui change perpétuellement ». Ce « temps épisodique » défini comme la quantité d’éléments qui diffère d’une expérience à l’autre, conditionnerait directement notre perception du temps. Par ailleurs, le LEC est voisin du cortex entorhinal médian où ont été découvert les « cellules de grilles » permettant de se repérer dans l’espace (voir article du 26/07/2017 : « Le cerveau est capable d’encoder sa propre position dans l’espace. ») Les auteurs pensent que ces deux structures transmettent des informations relatives au temps et à la position vers l’hippocampe, où elles seraient intégrées sous la forme d’une « représentation unifiée du quoi, où et quand ». C’est-à-dire un souvenir. Voir[1] conception de l’espace et du temps selon Leibniz (1646-1716).

Est-ce que ces deux découvertes réalisées en deux temps avec l’unification par l’hippocampe m’autorise à considérer que je rencontre une sorte de confirmation neuroscientifique de mon hypothèse que l’espace-temps est un propre de l’homme (voir, entre autres, articles du 14/06/2013 et du 05/08/2017) ? Si cela ne peut pas être considérée comme une confirmation absolue, il y a une convergence très intéressante qui mérite d’être prise en compte. Est-ce que cet espace-temps unifié au sein de notre hippocampe se confond avec celui que les physiciens conçoivent ? C’est mon hypothèse, et c’est ce que j’appelle une détermination de l’être humain (voir article du 21/07/2015[2]). C’est une affirmation redoutable parce que cela signifie que l’espace-temps usité par les physiciens n’est pas le fruit d’une libre cogitation intellectuelle mais résulte d’un processus neuronal qui fait ce que nous sommes, qui s’impose par notre nature biologique, et qui fait que nous sommes un être vivant façonné par la nature et émergeant de cette nature. Selon mon hypothèse l’être façonné par la nature c’est l’être de la nature et l’être émergeant de cette nature est l’être dans la nature, c’est-à-dire celui qui progressivement se place en surplomb de la nature. Et ces deux êtres cohabitent en nous. Enfin n’oublions pas qu’unanimement les physiciens reconnaissent que la cause principale de la crise de la physique théorique qui sévit depuis plusieurs décennies est notre conception inappropriée de l’espace-temps. Mon article du 05/08/2018 : ‘Appel d’Offres’ vise à découvrir, reconnaître, cette détermination et non pas à l’éradiquer puisque cela est impossible. Mais cela deviendrait un savoir essentiel qui par exemple nous permettrait de comprendre le phénomène de l’intrication.

Il y a deux autres versions pour rendre compte du temps, l’une est de Lee Smolin, pour lui le temps est donné dans la nature, voir son livre : ‘La renaissance du temps’, l’autre est de C. Rovelli, pour lui le temps n’existe pas réellement. Mais je considère que cette dernière déclaration est inappropriée car personne ne peut dire ce qu’est la réalité sans la ‘Présence’ de l’être cogitant que nous sommes. Il n’y a pas de description d’un monde physique sans qu’il y ait un énoncé à ce sujet. Affirmer que la réalité est ce qui reste permanent lorsque le sujet pensant se retire est une ambition absurde. Cela peut faire du bien aux physiciens et aux mathématiciens et leur donner de l’énergie depuis plusieurs siècles mais les raisons de l’impasse dans laquelle se trouve la physique théorique aujourd’hui s’explique à cause de la persistance de cette croyance. Voir ce que dit M. Bitbol dans l’article précédent : « Si le scientifique ne peut se représenter le réel, c’est qu’il ne peut s’en distancier parce qu’il y est lui-même impliqué. Tout ce qu’il peut faire dans ces conditions est d’élaborer des règles pour se mouvoir dans le réel et y survivre. » ; « Le concept même de « réalité extérieure » est éminemment métaphysique, car aucune théorie scientifique ne peut être assurée de la décrire… »    

Maintenant, je reviens sur quelques articles du N° hors-série de la Recherche (octobre-novembre) qui a été l’objet de l’article précédent. Présentement, je propose d’analyser en partie la théorie qui donne une importance de premier ordre à la nature sans émergence et il n’y aurait qu’entrelacement et superposition de tous les vivants pliés les uns sur les autres. Il n’y aurait donc que des êtres de la nature !

L’article page 36 : ‘LA TERRE EST-ELLE UN RESEAU ANIMÉ ORIGINAL ?’ :

« Un ensemble de boucles de rétroaction en perpétuel mouvement, voilà comment James Lovelock a décrit le système Terre dans les années 197O. Pour le sociologue et philosophe Bruno Latour : cette vision de Gaïa est plus que jamais d'actualité. »

Question : Vous êtes un ardent défenseur de l'hypothèse Gaïa. De quoi s'agit-il ?

Bruno Latour : « C'est une façon originale de définir les vivants dans leur relation à la Terre. Elle consiste à considérer la Terre comme un ensemble d'êtres vivants et de matière qui se sont fabriqués mutuellement en suivant des cycles géochimiques. Autrement dit, les organismes vivants ne sont pas en résidence sur la Terre, mais ils en constituent l'environnement : l‘atmosphère, les sols, les océans, etc…, sont façonnés par eux. C’est donc une extension de la notion, déjà présente chez Charles Darwin, que les vivants sont eux-mêmes les ingénieurs de leur propre monde sans avoir besoin pour cela d'être guidés par une intention. Tous les organismes vivants sont impliqués dans ce processus, mais ce sont les bactéries qui ont fait le gros du travail de transformation de l'atmosphère et de la géologie terrestres depuis 3,7 milliards d'années. Puis il y a eu les plantes, les animaux et, pendant une courte période seulement, 2,5 millions d'années, les humains. »

On constate en prenant contact avec cette hypothèse, que d’ailleurs je ne connaissais pas, qu’il n’y a pas d’être dans la nature qui soit pensé. L’affirmation : que les vivants sont eux-mêmes les ingénieurs de leur propre monde sans avoir besoin pour cela d’être guidés par une intention, est étonnante car cela exclut le processus de survie, de reproduction. A mon sens être ingénieur et être sans intention est difficile à concilier.

C’est le chimiste britannique James Lovelock qui est à l’origine de cette hypothèse en 1965. J’évoque cet article parce que, bien qu’il soit à mon sens extrême, il propose de réattribuer un rôle à la nature en réduisant l’opposition entre nature et culture ce qui est souhaitable parce que la scission n’existe pas, il y a toujours cohabitation.

A la question : « Est-ce que le mot nature a encore un sens avec Gaïa ? »

B. Latour nous dit : « L’une des malédictions qui ont pesé contre la théorie, c'est le schéma philosophique d'opposition entre nature et culture, qui s'est installé depuis Galilée et René Descartes dans nos sociétés modernes. Avec Gaïa, l'avantage est que l'on n’a plus besoin d'opposer les sociétés humaines et la nature : tous les organismes vivants font partie du même biofilm, une couche à l'intérieur de l'atmosphère, une zone critique, et jusqu'ici Ia seule, où il y a des vivants à l’intérieur d'autres vivants. Aucun organisme vivant n’obéit à un ordre supérieur auquel il devrait s'adapter. Ils sont tous entrelacés. On n'a plus besoin d'une philosophie de Ia nature pour comprendre Gaïa. »

Je suis convaincu que la problématique de l’opposition entre nature et culture ou du dualisme entre nature et culture n’est pas une problématique qui concerne uniquement les philosophes mais elle doit interpeller les physiciens. Il faut réfléchir à la question d’où est-ce que l’on investit la nature pour découvrir ses propriétés. M. Bitbol et A. Barrau que j’ai cité dans l’article précédent ne nient pas le bien-fondé de ce questionnement et c’est ce qui fait la richesse de leur entretien respectif.

Je vous invite à lire l’article de Bruno Latour dans sa totalité mais il me semble que celui correspondant à l’entretien de Philippe Descola page 68 est vraiment très instructif. Dans cet article : ‘Le dualisme entre nature et culture est-il réel ?’ ; « L’opposition entre nature et culture imprègne nos modes de pensée. Elle implique une vision du monde que Ph. Descola (professeur au Collège de France) a tenté de questionner en élaborant une nouvelle théorie qui fait tomber les barrières de notre ethnocentrisme. » Pour donner une idée de l’intérêt que nous devons développer sur ce type de sujet puisqu’il nous concerne pleinement, je vous cite la réponse de Descola (page 73) à la dernière question : « Finalement, votre lecture critique de notre cosmologie moderne pourrait-elle aller jusqu’à remettre en cause nos lois scientifiques ? » :

« Absolument pas. Dire que notre interprétation moderne du monde nous est propre et relève d’une démarche très ethnocentriste ne signifie pas pour autant qu’il n’y ait pas de loi universelle de la physique ou de la biologie. Il est même possible, comme le pense le philosophe Merleau-Ponty, que la cosmologie moderne ait été nécessaire pour permettre les avancées scientifiques. Ce que je remets en cause, ce n’est pas du tout la légitimité de la science, c’est la séparation épistémologique entre sciences de la nature et de la culture (sic). »

Evidemment, il ne faut pas croire que l’auteur évoque le concept de loi universelle en faisant référence à celle que nous déclarons comme telle, comme par exemple la loi de la gravitation. Non ! il dit qu’il considère que l’hypothèse de l’existence de loi universelle qui régit intrinsèquement la nature ne doit pas être rejetée en tous les cas elle peut être utile sur le plan opérationnel et elle focalise et anime favorablement la pensée scientifique.

Descola est lucide sur la portée effective de sa démarche car à l’avant dernière question : « Le fait d’aller à la rencontre de ces autres modes d’identification peut-il nous aider à les comprendre ? », il répond :

« Cela aide à jeter le trouble dans notre propre perception, mais cela ne nous permet pas d’y adhérer. Nos modes d’identification sont si puissants qu’on ne peut s’en détacher. Tout en éprouvant une grande admiration pour les Achuars[3], je n’ai jamais pu penser que les animaux sont des personnes comme moi, parce que le naturalisme[4] est si profondément imbriqué en moi que cela ne m’est pas possible d’expérimenter l’animisme. »

 

P.S. Je souhaite enrichir d’une donnée supplémentaire récente l’article du 23/06/2018 : ‘Cela s’allume plus tôt que prévu’. En effet il a été découvert le plus vaste proto-superamas de galaxies (annonce le 19/10), structure colossale au sein de l'Univers jeune. Ce proto-superamas de galaxies - baptisé Hyperion - a été mis au jour et il s'agit de la structure la plus étendue et la plus massive découverte à ce jour à si grande distance et datant d'une époque si reculée - seulement 2,3 milliards d'années après le Big Bang. C’est la plus vaste et la plus massive découverte à ce jour dans l'Univers primitif. L'énorme masse du proto-superamas est estimée à plus d'un million de milliards de fois la masse du Soleil (rappelons que la Voie Lactée pèse de l’ordre de quelques centaines de milliards de mase solaire.) Cette masse colossale est semblable à celle des structures les plus étendues de l'Univers contemporain. L'existence d'un objet si massif dans l'Univers jeune est très surprenante. ‘Normalement, ce type de structure se rencontre à des redshifts moindres, correspondant à des stades plus avancés dans la formation de l'Univers.’

 

[1] Selon lui, l'espace et le temps ne sont pas des choses dans lesquelles se situent les objets, mais un système de relations entre ces objets. L'espace et le temps sont des « êtres de raison », c'est-à-dire des abstractions à partir des relations entre objets

[2] Le paléoanthropologue Jean Guilaine m’a précisé à l’occasion d’un échange de correspondance : « Il me semble en effet que l’intégration psychique espace-temps chez l’homme (voire ses progrès) doit être abordée au départ, c’est-à-dire au temps de l’hominisation, voire au Paléolithique inférieur… »

[3] Achuars : Dans les années 1970, l’auteur a étudié le mode de vie des indiens Jivaros (ou Achuars) d’Amazonie et leur rapport à leur environnement.

[4]Selon Ph. Descola : « Avec le naturalisme, nous considérons qu’il y a des discontinuités dans les intériorités entre l’homme – qui seul a une âme, une intentionnalité (contraire au discours ci-dessus de B. Latour) et des capacités pour l’exprimer – et tout ce qui lui est extérieur. Autrement dit, le monde des non-humains relève de la nature parce qu’il n’a pas d’intériorité. Il est vrai que cela est un peu battu en brèche avec les travaux chez les grands singes. Mais c’est seulement un déplacement de frontière vers l’espèce la plus proche, pas un changement de principe. En revanche, pour ce qui concerne les physicalités nous admettons depuis Ch. Darwin… »

Partager cet article

Repost0
21 octobre 2018 7 21 /10 /octobre /2018 07:05

Métaphysique à l’origine signifie Méta-Physique.

C’est avec beaucoup de plaisir et d’intérêt que j’ai découvert le hors-série de ‘La Recherche’ N° 27, Octobre-Novembre 2018, qu’évidemment je vous conseille de lire. J’ai sélectionné un certain nombre d’articles que je souhaite commenter car ils soutiennent explicitement ou implicitement ma conception de la science physique telle qu’elle doit être projetée avec la perspective d’avancées significatives des propriétés de la nature. Evidemment je suis sélectif, et je souhaite que vous bénéficiiez de la teneur complète de ce numéro, aussi il vaut la peine de l’acquérir.

Le premier article consiste en un interview de Michel Bitbol qui est philosophe des sciences. A la page 9, il répond à la question suivante :

En est-on arrivé à l'idée que la science n'a pas besoin de la métaphysique ?

M. B : « Pas tout à fait. Emmanuel Kant a tenté de corriger la vision empiriste de Hume dès la fin du XVIII siècle : la raison qui construit des théories ne doit pas être mise totalement au rebut, car elle a deux rôles. Son premier rôle est de fournir des structures conceptuelles a priori à travers lesquelles le scientifique analyse des phénomènes. Pour Kant, la loi de causalité, qu'illustre Newton, n’est pas posée parce qu'on observe des régularités. Mais c'est parce qu'on pose cette loi que l'on est capable de chercher ces régularités dans le monde. Le deuxième rôle de la raison est de fournir des représentations des choses ultimes et cachées, qui sont certes incertaines et spéculatives, mais qui guident et motivent la recherche. »

Dans ce propos, il y a concomitance avec l’idée que j’ai, à plusieurs occasions, développée qu’il faut que la pensée soit préalablement bien placée pour que la connaissance progresse. La nature ne nous livre aucune information si on ne l’interroge pas à bon escient. Ainsi, au CERN, il est erroné de considérer qu’il suffit de collisionner des paquets de protons aux plus hautes énergies et on verra automatiquement de la nouvelle physique. La science physique est une science qui est le fruit de l’intelligence humaine, et non pas uniquement celui de la technique humaine. Cette intelligence doit être à l’œuvre pour interpréter, il n’y a pas de lecture passive qui soit possible.

Toujours avec M. Bitbol, p. 10, quand on lui demande : Les choses ne sont-elles pas différentes en mécanique quantique ?

M. B. « C'est exact. Plusieurs théoriciens de la mécanique quantique se sont emparés de l'opérationnalisme dans la durée. Très critiques vis-à-vis de Ia métaphysique, deux des fondateurs de cette théorie, l'Allemand Werner Heisenberg et l’Autrichien Wolfgang Pauli considèrent qu'il faut éliminer toutes les représentations classiques, par exemple celle de l'électron qui tourne autour du noyau de l'atome, pour ne retenir que les observations et les mesures. Tel n’est pas tout à fait l'avis d'autres physiciens quantiques, Niels Bohr et Erwin Schrödinger, pour lesquels des images sont nécessaires comme outil de pensée (sic). Le fait de forger des représentations a certes quelque chose de métaphysique, puisque cela va au-delà des observables, mais c'est utile pour se repérer dans les phénomènes quantiques. En 1927, les physiciens parviennent à un compromis, l'interprétation de Copenhague de la mécanique quantique. Ils gardent quelques représentations, mais celles-ci ne prétendent pas être uniques et tout expliquer. Elles doivent être multipliées pour rendre compte d'aspects divers des phénomènes microscopiques. Ainsi, on doit utiliser tantôt la représentation de particules localisées, tantôt celle d'ondes étendues, tantôt une combinaison des deux. »

Le propos de Bitbol sur la pensée utile pour se repérer dans les phénomènes quantiques est juste mais Bohr a toujours insisté sur le fait que cet apparaître à notre esprit ne pouvez pas se transposer en réalité quantique. C’est ce Rubicon qu’a, à mes yeux, franchi malencontreusement C. Rovelli avec sa théorie de la gravité quantique à boucles. Effectivement cette précaution s’est estompée au cours du temps et on peut le constater avec la génération actuellement formée qui ignore de plus en plus cette frontière. Toutefois, je crois que l’on finira par penser quantique lorsqu’on aura décrypté et dépassé des déterminations de l’être humain, par exemple lorsqu’on aura découvert que l’espace-temps est un propre de l’homme et donc l’intrigue de l’intrication sera levée.

Ensuite la Recherche pose la question suivante : Et aujourd'hui, où en est-on ?

« Des interprétations récentes de la mécanique quantique font l'économie de toute métaphysique. Par exemple, selon l'interprétation appelée « Qbism» des physiciens américains Christopher Fuchs de l'université du Massachusetts, à Boston, et David Mermin, de l'université Cornell, la fonction d'onde n’a pas de réalité objective. Elle n’est qu'une fonction de probabilité qui permet de s'orienter dans les phénomènes produits en laboratoire ou en industrie. Le scientifique est quelqu'un qui essaie de parier de manière cohérente sur les résultats d'expérimentations ou les fruits d’une technologie. Cette vision se veut antimétaphysique. Pourtant, les physiciens qui l'ont émise ont formulé une métaphysique non conventionnelle compatible avec leur vision. Si le scientifique ne peut se représenter le réel, c’est qu’il ne peut s’en distancier parce qu’il y est lui-même impliqué. Tout ce qu’il peut faire dans ces conditions est d’élaborer des règles pour se mouvoir dans le réel et y survivre. »

En son début, j’ai été intéressé par le ‘Qbism’ mais en approfondissant j’ai compris que ces physiciens mettaient en jeu la conscience de l’observateur pour justifier leur conception. Or la conscience humaine est indéfinissable d’une façon stricte, c’est une notion qui est instable et c’est donc une référence qui ne peut servir en science physique, seule la ‘Présence’ de l’être pensant est la bonne référence.  Ce que dit M. B. « Si le scientifique ne peut se représenter le réel, c’est qu’il ne peut s’en distancier parce qu’il y est lui-même impliqué. » Cette réflexion n’est certainement pas banale mais inadmissible par les physiciens car ils considèrent que la physique est une science objective, dure, distanciée de tout ce qui meut l’être humain et de tout ce qui le constitue. Je partage le point de vue de M. B. mais ma conception fait appel à une évolution dynamique car la distanciation se fait et pour moi c’est l’être dans la nature qui produit de la distance par rapport à l’être de la nature, deux êtres cohabitant chez l’être humain. Cette dynamique est essentielle, elle caractérise l’être humain qui en conséquence le différencie de toutes les autres espèces.

En haut de la page 11, M. B. affirme : « Les scientifiques ne font pas coller leur théorie à la « réalité extérieure » mais à une réalité immédiate, empirique, faite des résultats de leur expérimentation. Ainsi, quand des chercheurs du Conseil européen pour la recherche nucléaire (Cern) annoncent, en2012, la découverte d'une particule, le boson de Higgs, ils n’ont pas observé une chose existant en permanence indépendamment de nous, qu’on peut appeler « particule » au sens ordinaire du terme : ils ont suscité et détecté une résonance énergétique qui lui correspond. » Très franchement, je crains que M. B. ait raison, car si on étudie sur 60 ans l’histoire de la théorie du boson de Higgs, les termes « suscité et détecté » ne sont pas aberrants. Mais pour accepter complètement ces termes il faudrait les démontrer. Reconnaissons que si c’était vrai, cela serait à l’origine d’une vraie révolution intellectuelle car la preuve apportée que nous créons préalablement le monde physique que nous découvrons serait pour beaucoup choquante et déroutante. Pour mon compte, ce serait une respiration intellectuelle renversante mais bénéfique.

Par la suite M. B. enfonce le clou et quand on lui pose la question :

Le rêve que la science fournisse des enseignements métaphysiques ne serait-il qu'un leurre servant de motivation illusoire aux chercheurs ?

« C'est ma conviction. La croyance des mathématiciens dans leurs entités et des physiciens dans les objets qu'ils pensent manipuler s'explique par leur engagement total dans leurs disciplines. Ils en ont tellement absorbé les règles qu'ils ont l'impression que quelque chose les leur impose de l'extérieur et tient en réserve pour eux ce qu'ils ont à découvrir. Or selon moi, les mathématiciens et les physiciens sont pour beaucoup dans ce qu'ils découvrent. Ce qui échappe en partie au mathématicien, c'est le pouvoir générateur de ses propres axiomes et règles déductives ; ce qui échappe en partie au physicien, c'est son activité de formulation d'hypothèses et de fabrication d'appareils guidée par ces hypothèses, et ce dont ne tient pas assez compte le biologiste ; c’est qu’il est lui-même un être vivant ! »

Ici ce que nous dit M. Bitbol est en lien immédiat avec ce que je désigne comme nos déterminations. L’universel n’est pas atteignable spontanément, nos hypothèses, nos appareils sont dépendants de l’être déterminé que nous sommes encore. Par contre ma différence avec Bitbol c’est une dynamique de réduction de nos déterminations c’est-à-dire que l’être dans la nature gagne en envergure en réduisant le poids de l’être de la nature. L’émancipation de l’être humain par l’acquisition progressive de connaissances sur la nature le conduit à s’approcher de l’horizon du questionnement ayant l’ampleur du questionnement universel ; c’est un objectif, c’est ce qui meut l’être humain.

A la fin de l’interview, ‘La Recherche’ pose la question aujourd’hui incontournable mais qui devient de plus en plus à l’ordre du jour :

Une super intelligence artificielle pourrait-elle aider la métaphysique à répondre à certaines questions soulevées par la science ?

« Je ne le pense pas. La quête métaphysique répond au besoin qu'ont les êtres humains de se forger une vision unifiée du monde et de leur propre condition. Or la puissance de calcul de l'intelligence artificielle est si rapidement croissante qu'elle n'a aucun besoin d'une telle unification. Il est plus simple et plus efficace pour elle de simuler une variété de situations que d'en offrir un modèle synthétique et une conception métaphysique. À cause de cela, je crains que l'essor de l'intelligence artificielle ne finisse par ôter aux scientifiques l'envie de se concentrer durant de longues années pour construire des théories unifiées aussi profondes que par exemple, la relativité générale. »

Je partage complètement la crainte de M. Bitbol, et ce sujet nous avons commencé à le traiter dans l’article du 01/09 avec la tentation de l’utilisation des ‘learnings machines’ pour résoudre l’impuissance des physiciens du CERN à découvrir des choses vraiment nouvelles. M. B. le confirme, la compréhension physique de la nature est le fruit d’une production intellectuelle elle est avant tout une source du développement intellectuel de l’humain ; le : « Tais-toi et calcule plus vite » n’a aucune chance de prospérer dans les laboratoires. Espérons-le !

L’autre article sur lequel je vais vous inviter à réfléchir s’intitule : « Notre univers est-il unique ? », correspondant en un interview d’Aurélien Barrau que je ne présente plus. « Entrée récemment dans le champ scientifique, la théorie des univers multiples reste aujourd’hui controversée. Bien qu’encore non prédictible, elle découlerait cependant directement de différents modèles de physique théorique. » A la question suivante : « Comment l'hypothèse des univers multiples est-elle entrée dans le champ scientifique ? » A. Barrau précise page 20 :

« … De plus, cerise sur le gâteau, cette multitude d'univers, quel que soit leur type, permet de résoudre un sérieux problème de la physique théorique contemporaine. En effet, les constantes fondamentales[1] intervenant dans les modèles qui décrivent l'Univers semblent avoir des valeurs extrêmement particulières qui, comme par hasard, sont favorables à l’apparition de la complexité et de la vie. Or si les valeurs observées de ces constantes ne correspondent qu'à une réalisation parmi une infinité d'autres ayant lieu dans le multivers, une explication à ces valeurs si particulières s'impose naturellement. »

Et donc l’encombrant principe anthropique est dépassé qu’il soit de valeur tautologique ou de valeur métaphysique, et avec la théorie du multivers on peut continuer à réfléchir dans le contexte de la physique fondamentale puisque la thèse du ‘dessein intelligent’ est entre autres évacuée. Il y a encore du chemin à parcourir mais l’hypothèse du multivers me convient car au fur et à mesure que nous lèverons nos déterminations, je suis convaincu que notre intelligence embrassera et intègrera progressivement dans un univers de plus en plus vaste ces univers du multivers. Ainsi nous sommes toujours déterminés par le fait que l’on considère la vitesse de la lumière comme une vitesse limite et une constante universelle. Lorsque nous serons en mesure de dépasser cette situation si profondément déterminante alors certains des univers du multivers seront intégrables dans notre univers de pensée, de connaissance et donc intégrable tout court.

A la question suivante : L'édifice théorique sur lequel reposent les multivers n'en reste pas moins spéculatif. A Barrau répond d’une façon fort appropriée à mon avis :

« Par définition, les propositions scientifiques sont sujettes à débat et finiront par être réfutées. Les multivers n'échappent pas à la règle. Si cette hypothèse avait été élaborée de toutes pièces pour répondre à la question de l'ajustement fin des constantes, elle demeurerait assez arbitraire. Ce qui fait sa force et sa crédibilité, c'est qu'elle découle directement d'autres modè1es. Certes, parmi eux, certains restent très spéculatifs. Mais il est assez remarquable que la plupart des théories physiques, orthodoxes comme hétérodoxes, conduisent d'une certaine manière à l'existence d'univers multiples ! Les éconduire, a priori, tiendrait donc un peu de l'aveuglement. »

A. Barrau justifie sa conception du dépassement des limites actuelles qui contraignent la pensée en physique lorsqu’on lui demande : « On dit qu'une théorie est scientifique quand on peut la réfuter. L’hypothèse des mondes multiples satisfait-elle ce critère ? »

Après avoir argumenté le fait de devoir dépasser le critère définit par Karl Popper, il précise sa pensée et je partage complètement son point de vue, car souvent évoquée comme ma conviction personnelle, quand il nous dit que la physique doit être considérée comme une construction humaine parmi d’autres. Avec des répercussions sur notre environnement et sur notre façon de faire parfois très importantes.

« Dans le champ de la philosophie des sciences, d'autres visions souvent beaucoup plus riches l'ont précédé et d'autres l'ont suivi. L’apport des sociologues comme David Bloor, Harry Collins ou Bruno Latour (lire l'entretien p. 36) qui conçoivent la physique comme une construction humaine parmi d'autres, est également important et, à mon sens, ne dévalorise en rien la pensée rationnelle. Qui plus est, les champs disciplinaires se définissent de l'intérieur : les abstractions de Vassily Kandinsky n'auraient pas été considérées comme de l'art par un théoricien de l'esthétique du XIXe siècle (ici, il y a erreur, Kandinsky (1866-1944) ses principaux travaux à partir de 1920, donc XXe siècle). Si, aujourd'hui, la physique venait à redéfinir, voire à brouiller, les limites de sa propre pratique, il serait présomptueux de le lui reprocher. »

Page 22, A. B. répond à la question suivante :

Quel est le rôle de l'observateur dans le multivers ?

« C'est toute la question du principe anthropique qui a provoqué d'interminables controverses, essentiellement dues à une incompréhension des termes. Soyons clairs : ce principe nous dit seulement que notre Univers n'est pas nécessairement représentatif de l'ensemble du multivers. Exactement de la même façon que notre planète, la Terre, n’est pas représentative – loin s'en faut ! – de l'ensemble de notre Univers. Quand on tente de reconstruire les caractéristiques globales à partir des observations locales, il faut simplement en tenir compte : nous nous trouvons dans les régions « hospitalières ». Cela ne signifie pas que les lois de la science sont expliquées par notre présence. Il faut l'affirmer ce principe est dénué de toute dimension théologique ou téléologique, c'est-à-dire qu'il n’est ni déiste ni finaliste. Il n’a rien d'un quelconque retour à l'anthropocentrisme, bien au contraire. Le monde a été centré sur notre planète, puis sur notre étoile, puis sur notre Galaxie, enfin sur notre Univers. L’étape suivante est peut-être celle d'un acentrisme absolu. »

Ici, A. B. explicite la dynamique irrépressible du scénario de ma métaphysique : « Au sein d’une éternité parmi tous les possibles l’Anthrôpos ne cesse de creuser sa connaissance de l’univers… », qui ne se cantonne pas à la compréhension de notre univers actuel. Il y a quand même un bémol car A. B. craint un retour à l’anthropocentrisme ! Ce qui n’est pas ma crainte. De plus il dit que : « Cela ne signifie pas que les lois de la science sont expliquées par notre présence (sic). », pourtant précédemment il nous a dit qu’il adhérait à l’idée que la physique est une construction humaine parmi d’autres. Mais voilà, A. Barrau oscille (voir articles du 12/04/2016 et du 23/04/2016) entre sa conception philosophique et le fait qu’il veut être entendu par la communauté scientifique dont il est membre et à ce titre il ne peut rompre les amarres avec la conception réaliste majoritaire des physiciens. De plus, je ne pense pas qu’il soit nécessaire d’évoquer un acentrisme absolu, il y a un centre de pensée, de présence, mais elle est déjà tellement pertinente qu’elle ne confond pas centre de ‘Présence’ du sujet pensant avec centre du monde, d’ailleurs le principe, cosmologique,  premier à l’œuvre c’est qu’il n’y a pas de centre dans notre univers actuellement pensé malgré l’hypothèse du Big Bang qu’on devra rapidement dépasser. 

Enfin pour terminer cette exégèse, je transmets en copie le dernier paragraphe de cet interview :

Y a-t-il un autre intérêt à supposer que ces univers multiples existent ? 

« Pour la première fois, je crois, c'est Ia rationalité qui semble conduire à l'existence de mondes invisibles. Autrement dit, cette proposition, que je considère comme scientifique au sens le plus orthodoxe du terme, mène à l'existence d'objets qui dépassent le cadre de cette pensée scientifique. Elle crée des ponts avec d'autres disciplines, ébauche une nouvelle mythologie, et de ce fait nous oblige à redéfinir ce que l'on attend de Ia physique. C'est aussi là, le grand intérêt de cette idée : imposer une réflexion sur la science en tant que « manière de faire un monde (sic) ». Tout cela doit être pris avec beaucoup de précautions, car il peut être dangereux de brouiller les frontières. Mais, tant que la rigueur n'est pas remise en question, il n’y a pas lieu d'avoir peur. Je crois que, dans l'histoire des sciences, la timidité a été plus nuisible que l'excès d'enthousiasme (sic). Il faut veiller à ce que cette hypothèse ne soit pas récupérée à des fins détournées. Dès lors que la science s'ouvre sur des concepts non scientifiques, un danger existe. Mais le risque mérite d'être couru. »

Je n’ai rien à redire, je n’ai qu’à approuver et à souhaiter qu’il dépasse un certain nombre de préventions qui l’inhibent encore.

 

[1] Une constante fondamentale est une grandeur invariante qui intervient dans un modèle physique, mais dont la valeur numérique n’est pas prédite par ce modèle.

Partager cet article

Repost0
14 octobre 2018 7 14 /10 /octobre /2018 09:00

Période plus aride que prévue

Le 02/02/2015, j’ai écrit un article : « Période Aride ». Dans cet article, je pointais les obstacles présentement insolvables qui, selon mon point de vue, rendaient compte des difficultés que nous rencontrions pour progresser en physique théorique. Mais j’espérais que cette période ne serait que de courte durée. Ce n’est pas le cas, nous sommes encore dans le prolongement de cette période aride. En effet aucune publication significative en physique cosmologique et astrophysique n’apporte de l’espoir d’une fin de cette aridité.

Malheureusement la plus importante des informations récentes c’est celle qui annonce une panne de Hubble qui rend impossible son usage actuellement. Il reste une marge d’espoir qu’une réparation soit possible et souhaitons-la. L’envol de son successeur JWST (James Webb Space Telescope) continue d’être amplement retardé, encore 2 ou 3 ans. Et puis le satellite Chandra X-ray connait une panne identique depuis le 12/10.

De toute façon nous avons suffisamment de données pour changer de paradigmes mais l’inertie intellectuelle est une actrice persistante.

Le 23/06 de cette année j’ai posté l’article : ‘Cela s’allume plus tôt que prévu’, dans lequel je relevai les indications les plus actuels pour considérer qu’il était légitime maintenant de remettre en cause le modèle standard de la cosmologie comme je le prétends depuis plusieurs années. En même temps je tentai d’expliquer les raisons de l’inertie intellectuelle pour que cette étape devienne effective de la part des cosmologistes.

Tout récemment le 5 octobre sur le site Phys.org a été publié l’article : ‘Observations challenge cosmological theories’ ; ‘Des observations défient les théories cosmologiques’, article repris le 07/10 sur le site de Science et Vie par R. Ikonicoff : « Grâce aux progrès de l'observation, les astronomes accèdent à des informations de plus en plus précises sur le passé de l'Univers... et celles-ci ne semblent pas tout à fait raccord avec ce qu'en dit le modèle du Big bang. Révision en vue ? Le Modèle standard du Big bang, nommé aussi modèle « lambda-CDM » ou ΛCDM pour lambda-Cold dark matter (soit lambda-matière noire froide), raconte toute l'histoire de l'Univers, depuis avant la première seconde jusqu'à aujourd'hui, soit 13,8 milliards d'années d'histoire cosmique. »

Revisiter amplement la conception officielle de la formation et de l’évolution de notre univers est une idée qui semble enfin s’imposer par la force des choses (des observations) auprès des physiciens cosmologues. C’est une situation inconfortable qui va prévaloir et il y aura de la controverse, tant mieux car c’est la condition du progrès de la connaissance.

Je vais proposer ci-après une traduction partielle de l’article de Phys.org qui rajoute des raisons supplémentaires à celles exposées dans mon article du 23/06 pour repenser le modèle standard de la cosmologie :

« Des observations récentes ont créé un casse-tête pour les astrophysiciens : depuis le Big Bang, moins d’amas de galaxies se sont formés au fil du temps qu’attendu. Les physiciens de l'Université de Bonn ont maintenant confirmé ce phénomène. Pour les trois prochaines années, les chercheurs analyseront leurs données d’une façon plus détaillée. Cela les mettra dans une position pour confirmer si les théories considérées valides aujourd'hui auront besoin d'être retravaillées. L'étude fait partie d'une série de 20 publications apparaissant dans le revue professionnelle astronomie et astrophysique.  

Il y a environ 13.8 milliards d’années, le Big Bang a marqué le début de l’Univers. Il a créé l’espace et le temps mais aussi toute la matière dont notre univers se compose aujourd'hui. Dès lors, l'espace s'est élargi à un taux terrifiant, et avec le brouillard diffus dans lequel la matière en question a été presque uniformément distribuée. Mais pas complètement : dans certaines régions, le brouillard était un peu plus dense que dans d'autres. En conséquence, ces régions ont exercé une attraction gravitationnelle légèrement plus forte et a donc lentement attiré du matériel de leur environnement. Au fil du temps, la matière s’est progressivement concentrée au cœur de ces points de condensation. En même temps, l'espace entre eux est devenu de plus en plus vide. Plus de 13 milliards années après, cela a entraîné la formation d'une structure semblable à une éponge — grande "trous " dépourvus de matière, séparés par de petites zones au sein desquelles des milliers de galaxies se sont agglomérées : les amas de galaxies.

Six paramètres expliquent tout l'univers : Le modèle standard de la cosmologie décrit cette histoire de l'univers, dès les premières secondes du Big Bang à la période actuelle. La beauté de celui-ci : Le modèle explique, avec seulement six paramètres, tout ce qui est connu aujourd'hui sur la naissance et l'évolution de l'univers. Néanmoins, le modèle semble maintenant avoir atteint ses limites.  "Une nouvelle observation convaincante souligne le fait que la matière est distribuée aujourd'hui d'une manière différente de celle prédite par la théorie." explique le Dr Florian Pacaud de l'Université de Bonn.

Tout a commencé avec les mesures du satellite Planck, qui a assuré les dernières mesures les plus précises du rayonnement fond diffus cosmologique. Ce rayonnement est, dans une certaine mesure, une lueur du Big Bang. Il transmet des informations cruciales sur la distribution de la matière dans l'univers primitif ; montrant la distribution comme elle était seulement 380 000 ans après le Big Bang.

Selon les mesures de Planck, cette distribution initiale était telle que, au fil du temps cosmique, plus d’amas de galaxies devraient être formés que ceux que nous observons aujourd’hui… "Nos mesures confirment que les amas se sont formés trop lentement," a déclaré F. Pacaud.  "Nous avons estimé dans quelle mesure ce résultat est en conflit avec les prédictions de base du modèle standard." Bien qu'il y ait un écart important entre les mesures et les prédictions, l'incertitude statistique dans la présente étude n'est pas encore assez serrée pour défier la théorie. Toutefois, les chercheurs s'attendent à obtenir des résultats sensiblement plus contraignants du même projet au cours des trois prochaines années. Cela va enfin révéler si le modèle standard doit être révisé. »

Sur le site de ‘Futura Sciences’ du 12/10 on constate que la formation des (protos) amas de galaxies dans la période primordiale de l’univers interpelle aussi les astrophysiciens. Ci-après les observations récentes confirment mes arguments de : ‘Cela s’allume plus tôt que prévu’

Amas de galaxies : carambolages cosmiques aux confins de l’univers.

Des astronomes ont découvert des proto-amas de galaxies tapis aux confins de l’univers. Leurs constitutions les ont beaucoup surpris, le processus de leur formation survient deux fois plus tôt que prévu. Que s’est-il passé ?

Des chercheurs ont été surpris de débusquer des proto-amas de galaxies au sein de l’univers alors qu’il n’était pas encore âgé de 1,5 milliard d’années, soit un dixième de son âge actuel. C’est deux fois plus tôt que ce que pensaient les cosmologistes.

Les deux ensembles de galaxies ont d’abord été remarqués sur les relevés du télescope spatial Herschel (ESA) et le South Pole Telescope, pareils à deux taches pâles et délicates. Par la suite, grâce aux résolutions d’Alma (Atacama Large Millimeter/submillimeter Array) et d’Apex (Atacama Pathfinder Experiment), les astronomes ont pu distinguer leurs structures et ainsi réaliser qu’ils observaient de jeunes galaxies très denses et actives, en pleine effervescence et prises dans une pagaille monstre – les deux proto-amas sont constituées de 14 et 10 jeunes galaxies massives ! De leurs fusions vont naître des amas et des superamas de galaxies qui vont ensuite entraîner dans leur champ gravitationnel d’autres galaxies plus petites…

La formation rapide de cet amas de galaxies reste un mystère

« Le processus responsable de l’agrégation si rapide d’un si grand nombre de galaxies demeure un mystère, a expliqué Tim Miller, de l’université de Yale et auteur principal de l’une des deux études publiées sur SPT2349-56. Cet amas ne s’est pas construit graduellement au fil des milliards d’années, contrairement à ce que pensaient les astronomes, poursuit-il. Cette découverte offre la formidable opportunité d’étudier la façon dont les galaxies massives se sont rassemblées pour former de gigantesques amas galactiques ».

Nous sommes encore loin d’avoir tout compris sur l’histoire et l’évolution du cosmos.

 

Partager cet article

Repost0
5 octobre 2018 5 05 /10 /octobre /2018 07:29

On cherche dans le ciel la preuve de la validité de l’hypothèse de la matière noire.

Jusqu’à présent, essentiellement, c’est dans les profondeurs du sous-sol terrestre, dans les mines désaffectées, que l’on chasse des traces de particules de matière noire, en y plaçant des détecteurs de sensibilité de plus en plus grande, avec des projets de futurs instruments qui fonctionneront à partir de 2025.

            Maintenant, depuis que l’on a détecté des ondes gravitationnelles produites par la collision et fusion de trous noirs on s’interroge sur le fait que les trous noirs pourraient constituer une/la source de cette fameuse matière noire. Cette hypothèse a quelques fondements parce que les trous noirs identifiés grâce aux ondes gravitationnelles sont de masse faible c’est-à-dire de quelques dizaines de masse solaire et c’était une première. De là, s’interroger sur l’existence d’un réseau de trous noirs, dits primordiaux puisque formés juste après le big bang, ayant une masse encore plus faible et non encore détectés est légitime. Si la réponse était positive cela permettrait d’identifier la source du supplément de force gravitationnelle que l’on recherche pour rendre compte de la dynamique observée des différentes structures de l’univers (galaxies, amas de galaxies, superamas de galaxies). Plusieurs techniques sont utilisées pour tenter d’inférer l’existence de ces trous noirs dans le ciel de notre univers. J’en décrirai quelques-unes ci-après mais préalablement j’indique qu’il y a déjà controverse sur la validité de l’interprétation des résultats partiels actuellement obtenus.

            Je cite l’article du 1/10 sur le site de Physics.aps.org : ‘La controverse continue à propos des trous noirs qui constitueraient la matière noire’ ; ‘Controversy Continues over Black Holes as Dark Matter’.

            Premièrement, en tant qu’indice, il faut prendre en compte que les trous noirs détectés par Ligo-Virgo avaient une masse (autour de 30 masses solaires) supérieure – et leur vitesse de rotation plus lente – que celles attendues à partir du modèle stellaire, donc de nombreux théoriciens ont commencé à considérer une origine primordiale. Précisons que cette hypothèse met en cause l’observation et l’interprétation dominante du fond diffus cosmologique. Des théoriciens ont expliqué qu’il y avait un détour possible sans remise en cause avec l’hypothèse de l’inflation hybride (sic). « Celle-ci prédit que l'univers primitif a recraché un grand nombre de trous noirs primordiaux avec un large éventail de masses. García-Bellido dit que ces trous noirs pourraient résoudre plusieurs problèmes ouverts en cosmologie. Par exemple, la fusion de certains de ces trous noirs primordiaux pourrait expliquer le nombre élevé de trous noirs supermassifs observés à de grandes distances dans les études de rayons X. Les trous noirs primordiaux peuvent également jouer un rôle dans la génération des fluctuations mesurées dans le fond infrarouge cosmique… Selon le modèle de García-Bellido, la voie lactée devrait nager dans une mer d'environ mille milliards de trous noirs. » ; « Des calculs récents ont montré que si la matière noire était composée de trous noirs pesant entre 10 et 300 masses solaires, alors Ligo aurait dû détecter des centaines fusions supplémentaires dans sa première phase de détection. Argumenter autrement les trous noirs de masse multi-solaires ne peuvent représenter que pour environ 1% de la matière noire. » Donc… !

            Sur le même site et le même jour a été publié un autre article relatant des observations et des déductions des plus récentes du ciel de notre cosmos : ‘l’étude de supernovas abat la théorie de la matière noire’ ; ‘Supernoa study dampens dark matter theory’ :

            « La recherche d’effet lentille gravitationnelle sur des supernovas par des trous noirs s’annonce vide, conduisant les chercheurs à conclure que les trous noirs ne peuvent pas constituer toute la matière noire. » L’analyse des chercheurs ayant effectué ce travail arrive à la conclusion que tous les trous noirs (s’ils existaient) avec des masses supérieures à 0,01 fois celle de notre soleil ne pourraient représenter au plus que 40% de la matière noire de l'univers. Les trous noirs primordiaux, formés obligatoirement avant les premiers atomes, sont sans disque et complètement noirs. Donc pour les détecter l’effet lentille gravitationnel est un moyen unique. Les deux chercheurs ont analysé le signal lumineux de plus de 1300 supernovas réparties dans l’hémisphère Nord et ils n’ont observé aucune amplification de celui-ci. « En supposant différentes abondances de trous noirs, ils ont également calculé la probabilité qu'un trou noir, dans la plage de masse détectable dans l'expérience, passe au hasard entre la terre et l'une des supernovas dans le laps de temps des mesures. Sur la base de ce calcul, ils concluent que la masse cumulative de ces trous noirs ne peut représenter que 40% de la matière noire. » ; « Mais la possibilité reste que les trous noirs pourraient constituer une petite fraction de la matière noire, le reste provenant d'une autre source potentielle comme les particules massives faiblement interactives (WIMP), les neutrinos stériles, ou axions. »

            Complémentairement je vous propose de lire trois articles dans le numéro d’Octobre de ‘La Recherche’ : « Matière Noire : Les 3 théories ». Le premier article consiste en un interview de Françoise Combes : « Avec le problème de la matière noire l’astronomie vit une crise » et je privilégie les extraits suivants que je vous suggère de méditer, p.41 : « Ne restent que les trous noirs primordiaux, qui seraient apparus durant la première seconde de l’univers. Leur existence demeure très spéculative (sic). Beaucoup se seraient évaporés aujourd’hui, et des observations comme les microlentilles gravitationnelles, ont mis des contraintes très fortes : seulement moins de 0,001% (sic) de matière noire pourrait être fait de trous noirs primordiaux. » ; p.42 : « En effet, les simulations avec la matière froide prédisent un pic de matière noire au centre de galaxies qui n’existe pas en réalité (sic). Elles prédisent aussi l’existence de milliers de galaxies satellites à la voie lactée quand on n’en voit que quelques dizaines (re-sic). » ; « Un autre problème rencontré par MOND est que ce modèle n’explique pas les observations du fond diffus cosmologique, ni la formation des grandes structures de l’Univers, contrairement au modèle standard de la cosmologie. Malgré ses limites, la majorité des physiciens ne sont donc pas prêts à abandonner le modèle standard de la cosmologie. En résumé, d’un côté, la matière noire froide expliquerait très bien les données cosmologiques, mais moins bien les données galactiques, et surtout, elle reste introuvable. De l’autre, la modification de la gravité expliquerait très bien les observations galactiques mais pas celles cosmologiques. Avec le problème de la matière noire, l’astronomie vit une crise. Et nul ne peut dire d’où viendra la solution. »

            Le deuxième article consiste à rappeler la recherche de WIMPs depuis quelques décennies sans succès. Nous avons beaucoup réfléchi sur ce sujet donc je n’y reviens pas (voir articles du 29/01/2015 : ‘Bilan de la recherche de la matière noire’ et celui du 29/07/2016 : ‘Abandonner l’hypothèse de la matière noire.’). Il y a, par contre page 49, une variante à base de matière noire qui se comporterait comme un superfluide, ce qui montre que des physiciens ont une imagination suffisante pour proposer des mécanismes sur mesure, ad hoc, permettant de conserver un cadre conceptuel qui s’avère stérile plutôt que de se concentrer sur un nouveau cadre simple et pertinent.

La superfluidité est un phénomène que nous connaissons bien en laboratoire. Exemple, l’hélium liquide quand il est à 3 degrés au-dessus du zéro absolu, il subit un changement d’état, il devient superfluide. Ce changement d’état est de nature quantique, et dans cet état l’hélium doit être considéré comme un système unique : « condensat de Bose-Einstein ». Les auteurs de cette version considèrent que ces condensats peuvent exercer une force à distance. Dans l’hypothèse de matière noire obéissant aux critères de condensat la force à ajouter à la force de gravitation est émergente suivant la température. Dans les galaxies la température est plus froide que dans les amas de galaxies et c’est ainsi que l’on expliquerait que l’on n’a pas besoin de modifier la loi de Newton dans les amas de galaxies contrairement à ce que la théorie MOND préconise dans les galaxies pour établir un bon accord entre ce que l’on observe et les équations de Newton modifiées.

Ce paragraphe assure la transition avec l’article 3 : « Et s’il fallait modifier les lois de la gravité ? » Là encore je ne rentre pas dans les détails car nous avons déjà beaucoup exposé sur ce sujet. Par contre ce qui est intéressant ce sont les arguments des pro-MOND et des anti-MOND car c’est ainsi que le rude[1] ‘dialogue’ s’est instauré dès le début des années 1980 :

            Page 52 : de Stacy McGaugh : « Considérer l’hypothèse de la matière noire comme acquise, c’est accepter de faire de la physique sans cadre ni contraintes ; reconnaître aussi qu’on peut changer les paramètres à notre guise, pour les adapter à nos besoins. Cela ne correspond pas à l’idée philosophique que je me fais d’une théorie scientifique. Pour être validée, celle-ci doit subir toute une série de tests critiques, faire des prédictions qui sont vérifiées. Or l’hypothèse de la matière noire n’a jamais prédit quoi que ce soit ! » Ce que nous dit S. McGaugh est juste, l’hypothèse de la matière noire s’est imposée pour préserver le modèle standard de la cosmologie et surtout préserver l’hypothèse du big bang, ainsi que le mécanisme post big bang conçu pour rendre compte de la première image de l’univers obtenue, 380.000 ans après, par WMAP et PLANCK.  McGaugh nous dit encore à juste raison : « Le modèle de la matière noire fonctionne bien à l’échelle cosmologique, parce qu’on a adapté la quantité de matière noire pour que cela se passe ainsi. Mais on ne pourra pas prendre ce résultat pour une évidence tant qu’on n’aura pas pesé la même quantité de matière noire avec une autre méthode. » On n’oublie pas de réfléchir au fait que la matière noire conduit à prédire que les grandes galaxies doivent avoir beaucoup de galaxies satellites, parfois des milliers. Pourtant, nous n’en avons trouvé qu’une cinquantaine pour la voie lactée. Alors ! Le débat ne sera pas tranché sans une véritable rupture théorique.

 

[1] Voir articles du 15/01/2016 : ‘A chacun sa tranchée’ et celui du 31/03/2015 : ‘L’objectivité scientifique exclut qu’elle soit parasitée par des problèmes de doctrine’.

 

Partager cet article

Repost0
28 septembre 2018 5 28 /09 /septembre /2018 09:44

Qu’est-ce que la réalité et le progrès scientifique ?

Ceci est le titre d’un article sur le site de ‘Pour La Science’ datant du 22/09/2018. Il consiste en un interview de Michela Massimi, philosophe (lauréate de la médaille Wilkins-Bernal-Medawar, exerçant actuellement à l’université d’Edimbourg), qui défend la science contre ceux qui pensent qu’elle ne peut plus rendre compte de la réalité physique à une époque où des théories physiques invérifiables fleurissent (exemple la théorie des cordes ou le Multivers, la théorie de la supersymétrie, etc…). ‘Pour La Science’ a traduit l’article original de ‘Quanta Magazine’ qui a pour titre ‘Questioning Truth, Reality and the Role of Science’, ‘Questionnement de la Vérité, Réalité et Rôle de la Science’. Dommage que ‘Pour La Science’ ait supprimé le terme de Vérité car selon moi, comme j’aurai l’occasion de le rappeler, la notion de Vérité est très importante à l’occasion de certaines étapes correspondant à l’adhésion à une loi, à l’explication d’un phénomène en physique. Les étapes de cette vérité sont des étapes génératrices d’avancées significatives de connaissances tangibles.

L’article sur le site est à lire dans sa totalité, il est évidemment très intéressant et il reprend en partie des thèmes que j’aborde et traite sur le Blog. Il permet de confirmer ou de relativiser ceux que je privilégie. Ainsi quand il est écrit que : « La philosophe soutient qu’aucune de ces deux disciplines (la philosophie des sciences et la science) ne devrait être jugée en termes purement utilitaires et qu’au contraire elles devraient être alliées pour défendre l’intérêt intellectuel et social de l’exploration sans fin du monde physique… Nous avons perdu l’idée, qui remonte à la Renaissance et à la révolution scientifique, que la science fait partie de notre histoire culturelle plus large… la science est utile à l’humanité au sens large. En tant que philosophes, construisons des récits sur la science. Nous examinons minutieusement les méthodologies scientifiques et les pratiques de modélisation. Nous nous intéressons aux fondements théoriques de la science et à ses nuances conceptuelles. Et nous devons cette enquête intellectuelle à l’humanité. Elle fait partie de notre patrimoine culturel et de notre histoire scientifique. » Je me permets de privilégier ces propos de M. Massini car il est essentiel que la plus grande partie de l’humanité soit informée et participe d’une façon ou d’une autre à l’enquête intellectuelle constituée par la volonté de décrypter les propriétés de la nature. C’est pour le plus grand nombre un chemin de liberté – c’est mon utopie – et il est certain que cette enquête doit être objectivement pensée comme faisant partie du patrimoine culturel de l’humanité. Ces propos indiquent aussi que les scientifiques et ici plus particulièrement les physiciens ont la responsabilité essentielle de diffuser en direction du plus grand nombre les nouvelles connaissances qui émergent pour contribuer à l’enrichissement culturel du plus grand nombre. De fait depuis une dizaine d’années des journaux généralistes, grand public, consacrent une fois par semaine des pages sur ces sujets et les articles écrits par des scientifiques sont de très haute tenue et pédagogiques.

Il est utile de rappeler que dans le domaine de la science physique le découplage entre science : matière à penser et matière à produire des résultats finalisés, s’est produit surtout   après le début des années 1940, peut-être que cela coïncide à l’époque où un ou plusieurs physiciens diffusé(s) dans les laboratoires en direction de leurs thésards la consigne suivante : ‘Tais-toi et calcule !’. A juste raison Massini rappelle dans l’interview :

« Au début du XXe siècle, de nombreux scientifiques étaient férus de philosophie, notamment Einstein, Bohr, Mach et Born. Ce temps est-il révolu ? »

« Oui, je pense que ce que nous avons perdu, c’est une façon différente de penser la science. Nous avons perdu l’idée, qui remonte à la Renaissance et à la révolution scientifique, que la science fait partie de notre histoire culturelle au sens large.

Au début du XXe siècle, les pères fondateurs de la théorie de la relativité et de la mécanique quantique ont été formés à la philosophie. Et certains des débats les plus profonds de la physique de l’époque avaient un caractère philosophique. Quand Einstein et Bohr ont débattu de la complétude de la mécanique quantique, ce qui était en jeu était la définition même de la « réalité physique » : comment définir ce qui est « réel » en physique quantique ? Peut-on attribuer à un électron une position et une impulsion « réelles » en mécanique quantique, même si le formalisme ne nous permet pas de saisir les deux en même temps ? C’est une question philosophique profonde.

Aujourd’hui, il est rare d’être confronté à de tels débats en physique, et cela pour de nombreuses raisons. Les physiciens modernes ne s’intéressent pas toujours à d’autres disciplines que la leur à l’université ou ne reçoivent pas au préalable une éducation très pluridisciplinaire. De plus, les grandes collaborations scientifiques favorisent aujourd’hui une expertise scientifique plus pointue et plus ciblée. Plus généralement, c’est toute l’éthique de la recherche scientifique – reflétée par les pratiques institutionnelles d’incitation, d’évaluation et d’attribution des financements – qui a changé. Aujourd’hui, la science doit être utile à un groupe bien identifié, ou elle est jugée inutile.

Mais tout comme pour la philosophie, nous avons besoin de recherche fondamentale en sciences (et en sciences humaines) car cela fait partie de notre patrimoine culturel et de notre histoire scientifique. Cela fait partie de ce que nous sommes (sic). »

            Il est certain que ceux qui ont étudié les échanges entre des scientifiques comme Einstein, Bohr, Heisenberg, Born, Von Weizsäcker, etc… c’est vraiment édifiant et puissant. On saisit comment grâce à une ouverture intellectuelle assumée au-delà de la science physique cela conduit à dépasser les schémas classiques pour rendre compte de ce que la nature laissait entrevoir comme nouvelles propriétés à cette époque. Cela m’avait conduit à créer un cours intitulé : « Les préalables philosophiques à la création scientifique » dans lequel je commentais à quel point les préalables philosophiques des physiciens qui ont compté dans l’histoire du développement de la physique sont à la source de sauts qualitatifs fondamentaux. J’ai constaté qu’exposer ainsi les grandes étapes des découvertes et en conséquence restituer de fait la dimension humaine et non pas purement calculatoire de la production scientifique cela rassurait les étudiant(e)s et cela leur donnait envie d’étudier plus loin la physique. J’ai même observé que des étudiant(e)s de formation essentiellement littéraire s’appropriaient à une vitesse incroyable les concepts et les raisonnements purement scientifiques et en conséquence les équations.

            Ensuite l’article aborde le sujet des réalistes/antiréalistes et Michela Massimi propose sa conception d’un réalisme subjectif. Je cite la partie qui fait référence à ce sujet et je commente selon mon point de vue.

            « Vous dites qu’il y a un débat entre les visions réalistes et antiréalistes de la science. Pouvez-vous préciser votre pensée ? »

« Ce débat a une longue histoire, et il porte essentiellement sur un positionnement philosophique vis-à-vis de la science. Quel est son but primordial ? La science vise-t-elle à fournir une représentation à peu près vraie de la nature, comme le réalisme le voudrait ? Ou bien doit-elle plutôt se contenter de rendre compte des phénomènes observables sans nécessairement chercher à s’approcher de la vérité, comme le prétendent les antiréalistes ?

Cette question a été un enjeu crucial dans l’histoire de l’astronomie. En effet, pendant des siècles, l’astronomie de Ptolémée a été capable de décrire les mouvements apparents des planètes en recourant à des épicycles et des déférents (des mouvements circulaires imbriqués), sans prétendre expliquer la réalité. Lorsque l’astronomie copernicienne est apparue, la bataille qui a suivi – entre Galilée et l’Église romaine notamment – a finalement consisté à savoir si le modèle copernicien décrivait le « vrai » mouvement des planètes, ou s’il se contentait de proposer une explication cohérente aux phénomènes observables.

Nous pouvons poser exactement les mêmes questions sur les concepts des théories scientifiques actuelles. La « couleur » des quarks est-elle réelle ? Ou est-ce simplement un concept de la chromodynamique quantique permettant d’expliquer l’interaction forte observée expérimentalement ? Qu’en est-il du boson de Higgs ? Et de la matière noire ? »

« Vous avez plaidé en faveur d’une nouvelle vision de la science, appelée réalisme subjectif. Qu’est-ce que c’est ? »

« Le réalisme subjectif dérive pour moi de la vision réaliste, en ce sens qu’il prétend (du moins dans ma propre version) que la recherche de la vérité est primordiale en science. Nous ne pouvons pas nous contenter uniquement d’expliquer les phénomènes observables et de construire des théories qui ne tiennent compte que des preuves disponibles. Cependant, le réalisme subjectif diffère du réalisme car il reconnaît que les scientifiques n’ont pas une vision omnisciente de la nature : notre capacité d’abstraction, nos approches théoriques, nos méthodologies et notre technologie passent par le filtre de notre culture et de notre passé. Est-ce que cela signifie pour autant que nous ne pouvons pas atteindre la vraie connaissance de la nature ? Certainement pas. Cela signifie-t-il que nous devrions abandonner l’idée qu’il existe une notion universelle de progrès scientifique ? Absolument pas. »

Je commente : En ce qui concerne la problématique de la vérité, il faut préciser que c’est une production et une reconnaissance humaine qui est bien souvent provisoire jusqu’à ce qu’elle soit déplacée par une autre vérité qui l’englobe ou bien la récuse. Ainsi la vérité Copernicienne, quand elle a fini par s’imposer, a récusé la vérité millénaire de Ptolémée. Par contre la vérité toujours en cours de la Relativité Générale a englobé la vérité multiséculaire Newtonienne. Le sujet de la vérité dans les sciences a déjà été abordé dans deux articles du 12/04/2016 et du 23/04/2016 à l’occasion de la sortie d’un livre d’Aurélien Barrau : ‘De la Vérité dans les Sciences’. Je considère que la corrélation affirmée par l’auteure : « …sans nécessairement chercher à s’approcher de la vérité, comme le prétendent les antiréalistes ? », est erronée car il n’y a aucune raison de considérer que la problématique de la vérité contribue à différencier les réalistes des antiréalistes.

Il n’y a de vérité en science physique que lorsqu’il y a consensus sur un niveau de compréhension et d’explication rationnelle sur une loi ou un phénomène de la nature jusqu’à ce qu’il soit possible d’aller au-delà en termes d’interprétations. C’est une étape très importante car elle favorise au sein de la communauté scientifique un ‘penser-ensemble’ sur la base d’un même référentiel de concepts et d’interprétations de résultats. Ainsi l’effort de la réflexion collective si essentiel est favorisé. Il est certain que c’est grâce à l’observation de la nature et/ou grâce à l’action sur des objets de la nature que la communauté scientifique rencontre ces étapes historiques consensuelles mais ce sont des étapes construites qui correspondent à l’état de l’art de la pensée collective des physiciens et comme le précise Massimi cela correspond à : « Notre capacité d’abstraction, nos approches théoriques, nos méthodologies et notre technologie passent par le filtre de notre culture et de notre passé. »

Comme je l’ai plusieurs fois précisé dans des articles antérieurs, je préfère que l’on se réfère à la notion de vérité plutôt qu’à la notion de réalité. Comme je l’ai indiqué à la fin de l’article précédent (15/09/2018), une nouvelle découverte ou une nouvelle compréhension, doit être considérée comme un sujet (à creuser) et non pas vouloir placer prioritairement, au foyer de cette découverte, un objet. Prenons l’exemple de la matière noire et faisons le bilan de la multitude des fausses pistes depuis près de 40 ans du fait que l’on ait voulu que le phénomène constaté soit ipso-facto explicable par la présence d’objets invisibles dans l’espace, sans vraiment s’interroger sur le sujet à creuser des fondements des lois qui régissent le modèle standard, sans vraiment s’interroger sur la conception de notre univers qui serait fermé, sans interaction avec ce qui pourrait être un/d’autres univers, ou encore sans penser à un au-delà de ce que nous considérons comme étant les bords de notre univers.

M. Massimi interroge : « Est-ce que cela signifie pour autant que nous ne pouvons pas atteindre la vraie connaissance de la nature ? » Je considère que cette question est superflue car la vraie connaissance de la nature nous ne pouvons pas la connaître a priori, c’est ce que nous cherchons à connaître et c’est la source inépuisable de notre dynamique intellectuelle. L’auteure se contredit car dans l’interview au tout début elle dit : « … elles devraient être alliées pour défendre l’intérêt intellectuel et social de l’exploration sans fin du monde physique. » Selon moi, c’est effectivement sans fin, une connaissance finale n’est pas à prévoir, et elle n’est pas envisageable car cela mènerait à l’immobilité intellectuelle et à la fin de ce que nous sommes. Le problème de la vraie connaissance de la nature, de la réalité de la nature, est un faux problème et collimater notre pensée avec la perspective qu’il y aurait une vraie connaissance absolue, qu’il y aurait in fine une réalité finale, c’est procéder à une réduction rédhibitoire de notre faculté de penser. Bref je considère que la problématique d’une réalité effective constitue un faux ami et parasite la pensée en physique. Ce n’est pas par hasard si mon leitmotiv est résumé ainsi : Au sein d’une éternité, parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance sans fin de l’univers…

Enfin pour terminer l’article je cite, sans avoir besoin de commenter, puisque si appropriée, la réponse à la question suivante : « Quel a été le point de départ de votre réflexion ? » :

« Tout a commencé un jour en 1996 alors que je parcourais de vieux numéros poussiéreux de Physical Review dans le sous-sol de la bibliothèque de physique de l’université de Rome. Tout à coup, je suis tombée sur le célèbre article d’Einstein-Podolsky-Rosen (EPR) de 1935 (« La description que donne la mécanique quantique de la réalité physique peut-elle être considérée comme complète ? » ; le premier article à avoir abordé le phénomène aujourd’hui appelé intrication quantique). J’ai été frappée par la notion de « critère de réalité physique » qui figurait sur la première page. Il était expliqué que si, sans perturber d’aucune façon un système, on peut prédire avec certitude la valeur d’une grandeur physique, alors cette grandeur correspond à une réalité physique. Je me suis alors demandé pourquoi un article de physique commençait par une prise de position en apparence très philosophique sur la « réalité physique ». Quoi qu’il en soit, me suis-je dit, que peut bien représenter un « critère » de la réalité physique ? Celui proposé est-il pertinent ? Je me souviens avoir lu la réponse de Niels Bohr à cet article, qui a résonné dans mon esprit avec des affirmations plus modestes et plus concrètes sur la façon dont nous en sommes venus à appréhender ce que nous savons sur la réalité du monde. J’ai compris que j’avais trouvé là un véritable trésor philosophique, qui n’attendait que d’être exploré. »

Partager cet article

Repost0
15 septembre 2018 6 15 /09 /septembre /2018 11:24

                        Transhumanisme, Posthumanisme, Aujourd’hui, Demain.

Dans le livre de Pascal Picq[1] : ‘Le Nouvel Âge de L’humanité’ : les défis du transhumanisme expliqués à une lycéenne. Editions Allary, mai 2018, il y a de quoi réfléchir à des perspectives d’évolutions de type darwinienne et au-delà de Darwin de l’être humain. Avec P. Picq les réflexions sur ces perspectives sont étayées par ses connaissances accumulées en tant que paléoanthropologue évolutionniste[2] c’est-à-dire qu’elles sont corrélées avec une compréhension actuelle acquise de l’évolution de l’humain depuis les profondeurs du temps correspondant au bas mot à 2 millions d’années. Je ne peux que vous recommander de lire pour étude ce livre. Pour ma part, je privilégierai en premier lieu ce qui fait référence à ma thèse[3] – celle dont ont connaissance les lecteurs de mes articles – concernant l’être de la nature et l’être dans la nature avec au cours du temps le développement de l’être dans la nature qui, au fur et à mesure, réduit les contraintes de l’être de la nature, sachant qu’une telle émancipation est obtenue grâce à la compréhension (à une intellectualisation) des lois de la nature dont celles que met en évidence les physiciens. P. Picq le spécifie page 175, « surtout depuis un siècle, ne serait-ce qu’en raison de la coévolution, les avancées récentes des technologies ont modifié nos caractères biologiques (ceux-là concernent l’être de la nature) et cognitifs (ceux-là concernent l’être dans la nature). Bien sûr que dans ce propos il fait référence à une étape spécifique dont, collectivement, nous avons toujours en mémoire la trace mais évidemment ceci vaut depuis au moins 2 millions d’années. Toutefois, présentement, les vitesses de ces modifications s’accroissent d’une façon tellement fulgurante que cela en est en même temps troublant voire inquiétant. En 4e de couverture : « Cet essai vif et érudit permet à chaque lecteur de prendre conscience que nous vivons un moment décisif de l’histoire de l’humanité. »

            Ce livre est sur le plan pédagogique de très grande qualité et le sujet est tellement bien traité qu’il n’est pas possible de se dire – pour se rassurer – on verra cela plus tard. Je cite : « Plus qu’un choc culturel entre le Nouveau et l’Ancien Monde, est annoncée une révolution anthropologique. Grâce à la magie de la fée numérique, il devient possible de libérer les humains de leur condition de chenille bipède encore engluée dans les fils de l’évolution. Cette promesse s’inscrit dans un programme : le transhumanisme[4]. Celui-ci affiche un but : le posthumanisme, ou le déploiement du génie créatif des hommes pour dépasser leur condition. Après le Paléolithique, le Néolithique, les âges des métaux et les révolutions industrielles, le numérique nous fait entrer dans un nouvel âge de l’humanité. » ; « Le transhumanisme est certes l’aboutissement de millions d’années d’évolution, mais le posthumanisme annonce une rupture. »

            Le livre est conçu sur la base d’un dialogue entre Pascal Picq (P.P.) et une lycéenne, africaine de terminale d’un pays d’Afrique francophone, Adamo Amo (A.A.)

Page 174 : P.P. « Je vous propose, dans un premier temps, de regarder les principaux sujets qui intéressent les transhumanistes ainsi que les posthumanistes et, dans un second temps, de faire un état des lieux des changements actuels de l’humanité et de nos sociétés. Pour être encore plus précis, on tentera d’évaluer en quoi le transhumanisme entend modifier les facteurs biologiques nécessaires à toute adaptation et, ensuite, de cerner les changements d’environnement naturels et humains auxquels ils seront confrontés. C’est dans les interactions entre ces deux types de facteurs, le premiers dits internes et les seconds dits externes, que se joue l’évolution en train de se faire. »

L’auteur considère que la contribution des techniques est trop souvent négligée voire sous-estimée en tant que facteur de changements d’environnements naturels et humains contribuant aux grands changements de l’Histoire. Je cite, page 276 :

« Je vais même être un peu brutal, en termes matérialistes au sens de Karl Marx, les nouveaux outils, les nouveaux modes de production et les nouveaux modes d’échanges de biens et d’informations façonnent de nouvelles croyances séculières, idéelles et spirituelles. Les grands monothéismes ont germé avec les inventions des agricultures et, depuis plus de deux mille ans, s’efforcent de suivre les évolutions techniques et sociétales, le plus souvent en s’y opposant, parfois en les accompagnant. Il en va de même avec les humanistes… Aujourd’hui, le même processus historique opère à nouveau, un processus très bien décrit par Leroi-Gourhan (1911-1986) pour la Préhistoire, J. Cauvin pour les inventions des agricultures, M. Godelier pour l’anthropologie culturelle, G. Simondon pour la philosophie des techniques… »

A.A. « Il n’y a donc pas que les grandes idées qui guident l’Histoire (sic) »

P.P. « Les techniques et leurs usages changent les moyens d’agir et de comprendre le monde (sic) tout comme les idées et les moyens de les diffuser. À force d’avoir trop négligé, voire méprisé, les outils, les techniques et leurs usages comme de simples solutions matérialistes, nous nous trouvons bousculés, et parfois désemparés, face à la révolution numérique. Si les historiens et les philosophes de l’Histoire perpétuent cette tradition idéologique, les préhistoriens ont mieux compris que, du premier silex taillé au smartphone, ce sont les mêmes processus matériels et idéels qui participent aux transformations des sociétés. Si les idées et les représentations du monde guident les actions des hommes, ce sont les techniques qui les façonnent depuis l’invention du feu et des bifaces. Le concept de synthèse créatrice, c’est-à-dire d’une nouvelle construction idéelle du monde après en avoir perçu les facteurs de changement, questionne la croyance en une histoire des hommes fondée sur la seule prééminence des idées. Je vous accorde que les transhumanistes ont, dans leur majorité, tendance à mettre les moyens avant les buts. Cependant, le reproche qu’on leur fait d’être des solutionnistes/matérialistes pour le futur de l’humanité nous amène à prendre conscience qu’on a négligé l’importance des outils et des techniques au cours de l’histoire humaine, trop longtemps perçus comme des solutions et non pas comme un processus de coévolution. Je ne vous cache pas que je trouve très plaisant que la Préhistoire soit plus à même dans ses concepts de comprendre le transhumanisme que l’Histoire. Vive l’anthropologie évolutionniste ! »

A.A. « Au risque de vous accuser de matérialisme évolutionniste. »

P.P. « Il en a toujours été ainsi dans l’Histoire avec des innovations technologiques de rupture modifiant la diffusion des connaissances et des idées comme le codex et la Bible au début de la chrétienté, l’imprimerie de Gutenberg avec la Réforme et les humanités à la Renaissance, les journaux pour les révolutions du XIXe siècle, la radio et la télévision pour le XXe siècle, aujourd’hui le numérique. En fait, et n’en déplaise aux idéalistes, ce sont des innovations techniques qui portent les idées et qui scandent la marche des civilisations. Il serait grand temps qu’on relise l’évolution et l’Histoire sous l’angle des échanges et des flux d’informations. »

Je cite longuement et exhaustivement cet échange parce qu’il me semble que P. Pick suit une mauvaise route en privilégiant ainsi les techniques, il faut, selon mon point de vue, qu’il y ait de la pensée qui soit préalablement active et placée car ce n’est pas la technique qui projette initialement dans l’avenir et encore moins, comme le prétend Pick, elle ne permet de comprendre le monde. C’est certain elle le façonne et j’ajouterai que la technique, qu’elle soit choisie ou bien purement contingente, réduit la possibilité de comprendre le monde dans toute son ampleur car la technique : produit des sciences de l’ingénieur, nous met en contact, parmi tous les possibles, avec seulement la partie du monde avec laquelle elle interagit.

Je trouve étonnant ce parti pris, qui d’ailleurs est assez chancelant du point de vue argumentaire car il écrit : « … ce sont des innovations techniques qui portent les idées. », et ce point de vue est juste, parce que de fait les idées qui façonnent une certaine compréhension du monde et qui provoque la volonté de s’y projeter sont déjà là pour être portées. Pensée, imaginaire, d’un côté et innovations techniques de l’autre ne peuvent pas être placés sur un même plan sans hiérarchie.

Ceci étant mis en exergue, il vaut la peine de relire l’article du 05/01/2018 : ‘Turing or not Turing’ dans lequel je cite S. Dehaene : « La pensée géométrique est assez ancienne. Il est très intrigant de voir que, il y a 1.6 à 1.8 millions d'années les hommes, façonnaient déjà des objets aux propriétés mathématiques élaborées, notamment des pierres en forme de sphère, comme s'ils possédaient la notion d'équidistance à un point. On connaît également des dizaines de milliers de bifaces, ces outils pourvus de deux plans de symétrie orthogonaux : ils ont le même degré d'ancienneté, et leur perfection géométrique démontre une recherche délibérée de la géométrie, au-delà de la simple utilité fonctionnelle. Dès lors, je me demande si la capacité de représentation symbolique et récursive n’est pas apparue, dans un premier temps, indépendamment du langage, avant tout comme un système de représentation rationnelle du monde.

Le cerveau d'Homo erectus avait peut-être déjà atteint la compétence d'une machine de Turing universelle (sic), capable de représenter toutes les structures logiques ou mathématiques possibles. Peut-être est-ce une illusion, mais pour l'instant, notre espèce a réussi à comprendre l'organisation des structures du monde à toutes les échelles de l'Univers. Dans un deuxième temps, il y a environ 100.000 ans, on observe une explosion culturelle qui suggère un langage, une communication... On peut donc se demander s'il n’y a pas d'abord la mise en place d'un système de représentations mentales enchâssées, puis l'apparition d'une capacité à communiquer ces représentations. »

Ces points de vue si différents, nous amènent à réfléchir car on devine qu’il y a beaucoup de chemins à parcourir avant de saisir, si cela est un jour accessible, pourquoi et comment une intelligence aussi spécifique que l’intelligence humaine, que je ne qualifie pas d’universelle et loin s’en faut, a pu s’établir dans un monde naturel de tous les possibles.

Je reviens sur les propos de notre auteur car précédemment page 250, P. Pick écrit :

« Nous avons cohabité avec eux (les Néandertaliens) pendant plus de 50000 ans, puis il ne reste plus que nous (depuis 30000 ans), les Sapiens, partout sur la Terre. Ce qui a fait la différence ne tient pas à des avantages biologiques, cognitifs ou techniques de « rupture », comme on dit dans le monde économique actuel. En fait, cela provient de leur imaginaire, d’une autre façon de comprendre le monde et d’agir sur le monde. »

A.A. « En quoi cela consiste-t-il ? »

P.P. « On ne sait pas grand-chose de ses contenus. Cependant, on constate l’explosion de l’art sous toutes ses formes. C’est une révolution symbolique qui confère aux Sapiens des organisations sociales plus efficaces et de nouvelles représentations du monde (sic) – et là, c’est considérable – qui les entraînent à marcher et à naviguer vers d’autres mondes : Australie, Océanie et les Amériques. Or on ne va pas vers des mondes absolument inconnus sans imaginaire. »

Dans cet échange avec A.A., je suis en accord avec Picq, étant entendu qu’il n’y a pas d’imaginaire sans pensée bien que celle-ci puisse ne pas être aussi formulée comme on veut bien l’entendre actuellement ou que celle-ci puisse être formulée par des codes dont nous avons perdu la trace. De toute façon Pick fait référence à un ou à des imaginaires collectifs qui circule(nt) entre les êtres Sapiens et motivent ceux-ci à se mettre en mouvement, ils marchent et naviguent vers d’autres mondes…

La problématique de la primauté de la technique qui déplacerait d’autant la primauté de la pensée, de la réflexion, jusqu’à d’une certaine façon, prendre le pas sur celles-ci, nous l’avons rencontré dans l’article précédent du 01/09/2018. Je l’ai évoqué aussi dans l’article ‘Perspectives’ du 26/02/2017 parce que F. Combes ne considérait comme ‘perspectives’ qu’une liste d’instruments à construire et à développer pour résoudre l’impossibilité multi-décennale rencontrée par les astrophysiciens et les cosmologistes à résoudre les inconnues considérables à propos de ce que l’on appelle notre univers.

Tous ceux-là qui se considèrent comme les héritiers d’Einstein et des grands penseurs théoriques du début du 20e siècle, malencontreusement, propose de plus en plus de déléguer à des machines le soin de combler l’impossibilité actuelle de comprendre. Ce qui ressemble à un affaissement de la pensée des physiciens est, selon mon point de vue, dû, entre autres, à une adoption acritique de ce qui constitue un des aspects notables de l’héritage d’Einstein[5], c’est-à-dire l’héritage d’une croyance que les bonnes lois de la physique sont celles qui décrivent le monde réel, tel qu’il est. Cela mène à la croyance qu’un résultat concret (c.à.d. accord entre calcul théorique et observation) obtenu par des physiciens constitue un élément participant à l’édifice réel du monde. Croyant que ce résultat a été obtenu, alors on passe à autre chose et on essaie de découvrir la pièce prochaine du ‘puzzle-monde’.  

Cette interprétation du travail du physicien est à mon avis erronée. On doit plutôt considérer qu’un résultat obtenu par des physiciens est un apparaître parmi tous les possibles de ce monde qui résulte d’une adéquation significative entre la capacité actuelle de scrutation des physiciens et un des aspects du monde avec lequel on interagit. L’erreur consiste donc à passer à autre chose car, selon mon interprétation, un résultat obtenu est surtout la preuve d’une pensée en éveil, en mouvement, qui ne tarit pas ce qui doit être considéré comme le sujet (en opposition à objet) d’une découverte. En croyant qu’ils ont découvert des objets, qui composent le monde réel, les physiciens ont accumulé des éléments hétéroclites qui se choquent plus qu’ils ne s’assemblent dans des modèles dits standards.

 

[1] J’ai déjà fait référence aux travaux de P. Picq dans un article du 21/09/2016 : ‘P. Picq l’annonce, S. Dehaene l’illustre.’ À la relecture on pourra apprécier une évolution de sa réflexion.

[2] Dixit P. Picq : « l’anthropologie évolutionniste est la seule science multidisciplinaire qui intègre les sciences de la vie, de la Terre et de l’espace ; les sciences économiques, sociales et humaines ; la médecine ; la philosophie ; les religions et même l’art et la mode. Evidemment, aucun anthropologue ne maîtrise toutes ces disciplines et leurs corpus de connaissances. Mais l’anthropologie évolutionniste possède la méthode et l’épistémologie nécessaires. »

[3] L’auteur n’aborde pas directement et explicitement ce qui est compris dans ma thèse mais des recoupements sont significatifs. En effet je développe ma réflexion sur le plan du rapport entre le développement des capacités intellectuelles de l’être humain et le développement des capacités de décryptage des lois physiques de la nature. Mes désaccords avec l’auteur sont aussi très enrichissants et j’espère être capable de vous les faire partager pour que vous puissiez vous forger une opinion personnelle.

[4] P. 273 : « En tant qu’anthropologue évolutionniste, j’ai longtemps nourri un profond scepticisme sur les propositions des transhumanistes… Ils proposent une ultime libération de l’homme par les voies sacrées de la technologie… Si les transhumanistes prétendent apporter des solutions techniques à ce qu’ils considèrent comme des fléaux désormais inacceptables par l’humanité (la vie, les maladies… etc. la mort), il n’en demeure pas moins que leurs penseurs nous incitent à réfléchir sur notre condition humaine non plus en tant que mortels, mais comme des amortels potentiels… Il faut donc penser l’homme et l’humanité faits par les hommes et pour les hommes dans une nouvelle conception de l’avenir (sic).

Je commente : Ici il est prétendu que l’être de la nature est (sera bientôt) totalement réduit, aboli, sans influence, seul l’être dans la nature serait acteur de l’avenir. Je ne crois pas à ce débranchement car dans ce cas, et je suis radical, il n’y a plus d’Être.

[5] Avec la citation qui suit on constate que l’héritage assumé n’est que partiel : « La science est une création de l’esprit humain aux moyens d’idées et de concepts librement inventés… L’expérience peut, bien entendu nous guider dans notre choix des concepts mathématiques à utiliser, mais il n’est pas possible qu’elle soit la source d’où ils découlent. […] C’est dans les mathématiques que réside le principe vraiment créateur. En un certain sens, donc, je tiens pour vrai que la pensée pure est compétente pour comprendre le réel, ainsi que les Anciens l’avaient rêvé. » (Conférence d’Oxford, 1933)

 

Partager cet article

Repost0
1 septembre 2018 6 01 /09 /septembre /2018 15:15

Les physiciens du LHC adoptent une approche de la force brute pour la chasse aux particules

« Le collisionneur de particules le plus puissant du monde n'a pas encore permis la mise en évidence d’une nouvelle physique. Maintenant certains physiciens se tournent vers une stratégie différente. »

L’article au titre ci-dessus je l’ai obtenu le 14 Août sur le site de la revue ‘Nature’ et je soumets à votre réflexion ma traduction un peu laborieuse. Je ne prévois pas de commenter l’article parce qu’il est totalement explicite et il renvoie à mon article du 16/01/2016 : ‘Et si notre pensée était mal placée’. Pour mon compte cet article est très déroutant et il pose très sérieusement la question de l’avenir du métier de physicien dans toute son ampleur qu’il soit théoricien ou expérimentateur. Quels seront la fonction et le rôle de ceux qui en toute conscience se situeront en arrière de la ‘Learning Machine’ attendant qu’elle fasse de la physique à leurs places. A quels renoncements (transferts) devront-ils consentir volontairement ou involontairement ? car ce n’est pas qu’une nouvelle technique de recherche qui est proposée. A chacun des lecteurs de s’interroger sur cette problématique et de se faire une opinion sur un sujet qui certainement, maintenant qu’il est posé, sera l’occasion de longs débats.

Ci-dessous la traduction de l’article :  

« Une nouvelle approche controversée de la physique des particules commence à s’imposer au grand collisionneur de hadrons (LHC). Le détecteur Atlas du LHC a officiellement relégué au passé la méthode courante qui correspondait au meilleur espoir pour détecter des phénomènes qui correspondent à un au-delà du modèle standard. Puisque les techniques conventionnelles ont été jusqu’à présent stériles une autre façon d’exploiter les données massives collectées est proposée.

Jusqu'à présent, presque toutes les études au LHC ont impliqué des « recherches ciblées » pour mettre en évidence la signature de théories favorites. La collaboration d'Atlas décrit maintenant sa première recherche « générale » et globale des données du détecteur, dans une pré-impression affichée le mois dernier sur le site d’arXiv, et aussi proposée au Journal de Physique Européen C. l’autre détecteur majeur du LHC : CMS, travaille sur un projet similaire.

« Mon objectif est d'essayer de trouver une façon vraiment nouvelle de chercher de la physique nouvelle » - être piloté par les données plutôt que par la théorie, dit Sascha Caron de l'Université Radboud de Nimègue aux Pays-Bas, qui a contribué à la décision concernant Atlas. Les recherches générales sont de mêmes natures à celle particulière qui consiste à vérifier un texte entier pour y trouver un mot particulier. Ces vastes recherches pourraient fournir leur plein potentiel dans un avenir proche, lorsqu'elles seront combinées à des méthodes de plus en plus sophistiquées d'intelligence artificielle (A.I)

Les chercheurs du LHC espèrent que les méthodes les mèneront à leur prochaine grande découverte, quelque chose qui n'est pas arrivé depuis la détection du boson de Higgs en 2012, qui a mis en place la dernière pièce du modèle standard. Développé dans les années 1960 et 1970, le modèle décrit toutes les particules subatomiques connues, mais les physiciens soupçonnent que l'histoire ne s’arrête pas là - la théorie ne tient pas compte de la matière noire, par exemple. Mais de grandes expériences comme celles réalisées au LHC n'ont pas encore fourni de preuves pour un telle existence. Cela signifie qu'il est important d'essayer de nouvelles choses, y compris des recherches générales, explique Gian Giudice, qui dirige le département de physique théorique du CERN et n'est pas impliqué dans des expériences. "C'est la bonne approche, à ce stade."

Collision

Le LHC provoque la collision de millions de protons par seconde à des énergies colossales pour produire une profusion de particules de désintégration, qui sont enregistrées par des détecteurs tels que Atlas et CMS. Beaucoup de différents types d'interactions de particules peuvent produire les mêmes débris. Par exemple, la désintégration d'un Higgs peut produire une paire de photons, mais le peuvent aussi d'autres processus plus ordinaires. Donc, pour rechercher le Higgs, les physiciens ont d'abord multiplié des simulations pour prédire combien de ces paires d'imposteurs sont prévisibles. Ils ont ensuite compté toutes les paires de photons enregistrées dans le détecteur et les ont comparées à leurs simulations. La différence — un léger excès de paires de photons au sein d'une gamme étroite d'énergie — était la preuve que le Higgs existait.

Atlas et CMS ont exécuté en plus de ces recherches ciblées des centaines d’autres pour rechercher des particules qui ne sont pas prévues dans le modèle standard. Beaucoup de celles-ci ont cherché des saveurs différentes de la supersymétrie, une prolongation théorisée du modèle standard qui inclut les particules hypothétiques, par exemple le neutralino, un candidat pour la matière noire. Mais ces recherches sont jusqu'ici infructueuses.

Cela laisse ouvert la possibilité qu'il y aurait des particules exotiques produisant des signatures que personne n'a pensé jusqu’à présent – quelque chose que des recherches générales ont plus de chance de trouver. Les physiciens n'ont pas encore regardé, par exemple, des événements qui ont produit trois photons au lieu de deux, dit S. Caron. « Nous avons des centaines de personnes qui regardent la désintégration du Higgs et la supersymétrie mais peut-être que nous manquons quelque chose que personne n'a pensé, » dit Arnd Meyer, un membre de CMS à l'Université d'Aix-la-Chapelle en Allemagne.

Alors que les recherches ciblées ne regardent généralement que quelques-uns des nombreux types de produits de désintégration, la dernière étude a examiné plus de 700 types à la fois. L'étude a analysé les données recueillies en 2015, la première année après la mise à niveau du LHC en augmentant l'énergie des collisions des protons dans le collisionneur de 8 téraélectronvolts (TEV) à 13 TEV. Au CMS, Meyer et quelques collaborateurs ont mené une étude de validation de principe, qui n'a pas été publiée, sur un plus petit ensemble de données du run de 8 TEV.

Aucune expérience n'a fourni de déviations significatives jusqu'à présent. Ce n'était pas surprenant, disent les équipes, parce que les ensembles de données étaient relativement petits. Atlas et CMS sont maintenant à la recherche des données collectées en 2016 et 2017, une mine de dizaines de fois plus importante.

Problématique des statistiques

L'approche « a des avantages clairs, mais aussi des lacunes claires », dit Markus Klute, un physicien au Massachusetts Institute of Technology à Cambridge. Klute fait partie de CMS et a travaillé sur les recherches générales au cours des expériences précédentes, mais il n'a pas été directement impliqué dans les études plus récentes. Une limitation est la puissance statistique. Quand une recherche ciblée trouve un résultat positif, il existe des procédures normalisées pour calculer son importance ; cependant quand on jette un grand filet, quelques faux positifs sont amenés à surgir. C'est une des raisons pour lesquelles les recherches générales n'ont pas été favorisées dans le passé : de nombreux physiciens craignaient qu'ils ne mènent trop souvent dans des impasses. Mais les équipes disent qu'elles ont beaucoup investi pour rendre leurs méthodes plus solides. « Je suis excité que cela soit possible dans le futur proche », dit Klute.

La plupart des personnes ressources et décisionnaires des expériences du LHC travaillent encore sur des recherches ciblées, et ceci pourrait ne pas changer de sitôt. « Certaines personnes doutent de l'utilité de telles recherches générales, étant donné que nous avons tant de recherches qui couvrent exhaustivement une grande partie de l'espace des paramètres », explique Tulika Bose, de l'Université de Boston, au Massachusetts, qui aide à coordonner le programme des recherches sur CMS.

De nombreux chercheurs qui travaillent sur des recherches générales disent qu'ils ont finalement envie d'utiliser l'IA pour éliminer complètement les simulations de modèle standard. Les partisans de cette approche espèrent utiliser la technique de ‘la learning machine’ pour trouver des modèles dans les données sans aucun biais théorique. « Nous voulons inverser la stratégie — laisser les données nous dire où chercher par la suite », dit Caron. Les informaticiens poussent également vers ce type de « non supervisé » de ‘la learning machine’ - comparé au type supervisé, dans lequel la machine « apprend » en passant par des données qui ont été marquées précédemment par les humains. » Article dans la revue : Nature 560, 293-294 (2018)

 

         L’annonce suivante du 28/08, pourrait reporter à plus tard les positions radicales de Sascha Caron et les autres et plutôt donner raison à Tulika Bose, mais pour l’instant satisfaisons nous de l’annonce suivante :

« Six ans après sa découverte, le boson de Higgs a enfin été observé en se désintégrant en des particules fondamentales connues sous le nom de : quark Bottom. La découverte, présentée aujourd'hui au CERN par les équipes d’Atlas et de CMS au grand collisionneur de hadrons (LHC), est compatible avec l'hypothèse que le champ quantique omniprésent qui engendre le boson de Higgs attribue également de la masse au Quark Bottom. Les deux équipes ont présenté leurs résultats pour publication aujourd'hui. »

En 2017, ils avaient annoncé qu'ils commençaient à voir l'existence de ces couplages avec les quarks b. Mais, techniquement, le signal observé n'était guère au-dessus de 3 sigmas donc insuffisant pour faire des affirmations solides. Pourtant il est prédit que le mode de désintégration de H par la voie du b est le plus fréquent, de l’ordre de 60%. Avant l'observation du canal de désintégration H en quark et antiquark b, un autre canal de désintégration, avec les quarks et antiquarks t, avait été observé.

Cette découverte reste tout de même une belle performance à porter au crédit du travail complexe et acharné des physiciens et ingénieurs à l'origine de l'aventure du LHC depuis des décennies. Elle a nécessité de modéliser le bruit de fond produit par les myriades de particules générées par chaque collision pour en extraire les rares évènements intéressants (sic) à l'aide de techniques d'analyse des données sophistiquées.

            Les porte-parole des collaborations Atlas et CMS ont fait des déclarations au sujet de ce travail remarquable dans un communiqué du CERN. Ainsi pour Karl Jakobs (Atlas) : « Cette observation constitue une étape marquante dans l'étude du boson de Higgs. Elle montre que les expériences Atlas et CMS sont parvenues à une compréhension approfondie de leurs données, et à une maîtrise des bruits de fond qui dépasse les attentes. Atlas a désormais observé tous les couplages du boson du Higgs aux quarks lourds et aux leptons de troisième génération ainsi que l'ensemble des modes de production principaux. »  En ce qui concerne Joel Butler (CMS) : « Depuis la première observation, dans une seule expérience, de la désintégration du boson de Higgs en leptons tau, il y a un an, CMS, de même que nos collègues d'Atlas, a observé le couplage du boson de Higgs aux fermions les plus massifs : le tau, le quark t, et à présent le quark b. La magnifique performance du LHC, et les techniques modernes d'apprentissage automatique nous ont permis d'aboutir à ce résultat plus tôt que prévu. »

Enfin selon Eckhard Elsen, directeur de la recherche et de l'informatique du Cern : « Les expériences continuent à se concentrer sur la particule de Higgs, qui est souvent considérée comme une porte d'accès à la nouvelle physique. Ces très beaux résultats, obtenus rapidement, montrent l'intérêt de nos projets d'amélioration du LHC visant à augmenter substantiellement la quantité de données. Il apparaît désormais que les méthodes d'analyse atteignent la précision requise pour l'exploration de la totalité du paysage de la physique, y compris, nous l'espérons, la nouvelle physique qui est restée si bien cachée jusqu'à présent. »

            « Les techniques modernes d'apprentissage automatique » est certainement l’expression qui correspond au mieux à « Learning Machine ». On doit remarquer que E. Elsen est directeur de la recherche et de l’informatique, c’est-à-dire que l’on ne peut pas être un chercheur physicien sans être informaticien. Cela ne doit pas être spécifique à la recherche en physique mais ici l’inclusion est inexorablement établie. Que doit-on en penser?

Partager cet article

Repost0
25 août 2018 6 25 /08 /août /2018 11:34

  Young ; Ball ; Damasio ; Buonomano ; arXiv.

Il est vrai que j’ai souvent traité ce sujet dans de nombreux articles, ce ressassement ne m’est pas personnelle, ce sujet interpelle la communauté scientifique depuis qu’il est expérimentalement posé, et comme en son temps Feynman le disait : « Si nous pouvions comprendre ce qui se passe dans cette expérience trompeusement simple, nous pénétrerions au cœur de la théorie quantique — et peut-être que toutes ses énigmes se dissoudront. »

Cette expérience trompeusement simple est celle des fentes d’Young. Le résultat conséquent à cette expérience c’est que nous ne savons toujours pas si nous pouvons considérer un objet quantique comme une onde et une particule ou bien considérer comme une onde ou une particule. N. Bohr, un des plus éminents fondateurs de la mécanique quantique a toujours proclamé que c’était le ‘ou’ qui s’imposait puisque l’apparaître particule ou l’apparaître onde dépendait des conditions de l’observation. Ainsi dans l’effet photoélectrique, le photon est (apparaît) granulaire (particule) tandis qu’avec les fentes d’Young si on est ignorant de la trajectoire réelle du photon il est (apparaît) onde. Et il est expérimentalement confirmé lorsque l’observateur connaît la trajectoire suivie de l’objet quantique, quel qu’il soit, l’objet quantique apparaît particule sinon c’est l’apparaître onde qui s’impose.

Ceux qui optent pour le ‘et’ : d’onde et particule, adhèrent à l'idée alternative proposée par David Bohm dans les années 1950. Dans ce cas, les objets quantiques sont à la fois particule et onde, l’onde en quelque sorte « pilotant » la particule à travers l'espace tout en étant sensible aux influences au-delà de l'emplacement de la particule.

Sur le site de ‘Nature’, le 9 Août, un article de Philip Ball réactive la problématique toujours actuelle de l’impossibilité de trancher entre le ‘et’ et le ‘ou’ avec ce titre explicite : ‘Deux fentes, l’enfer d'une énigme quantique’ à l’occasion de la publication du livre d’Anil Ananthaswamy : ‘Through Two Doors at Once’ ; ‘A Travers deux Portes à la Fois’. Ph. Ball réactive mais prend en compte les résultats expérimentaux très récents qui apportent des éléments nouveaux que j’ai déjà présentés dans l’article du 05/08/2017 et premièrement le 03/07/2017 : « Comment la ruse quantique peut brouiller cause et effet[1] ». Dans cet article, les auteurs nous disent en conclusion : « Nous réalisons maintenant qu’en physique quantique, ce n’est pas exactement ce que vous faites qui compte, mais ce que vous savez (sic) »

A ce niveau du développement de notre raisonnement, je propose de citer directement des extraits de l’article Ball : « Dans certaines versions, la nature semble magiquement discerner nos intentions avant de les promulguer — ou peut-être rétroactivement pour modifier le passé. Dans d'autres, le résultat semble dépendre de ce que nous savons, pas de ce que nous faisons. Dans d'autres encore, nous pouvons déduire quelque chose d'un système sans le regarder. Dans l'ensemble, l'expérience à double fente semble, à nouveau emprunter à Feynman le mot : "Tordu".

A propos de cette affirmation troublante : « le résultat semble dépendre de ce que nous savons », qui est le fruit du résultat d’une expérience solide réalisée par une équipe de chercheurs à Vienne qui m’avait convaincu, quelques jours après je l’avais évoqué avec un éminent scientifique étranger, d’un laboratoire concurrent qui m’avait répliqué : « Cela n’a aucun intérêt, c’est de la com ! ».  Evidemment, je suis resté coi. Je suis extrêmement satisfait de retrouver sous le plume de Ph. Ball l’expression de la valeur de cette remarquable nouveauté qui implique un rôle éminent de l’observateur, car c’est au cœur de ma conception de la physique. Pour de nombreux physiciens ce résultat est troublant, il est totalement à contrecourant de leurs convictions, des fondements de la physique moderne depuis Galilée.

Après cet aparté, je poursuis la citation de Ph. Ball : « Tu peux t'y habituer (puisque cela fait plus d’un siècle que l’on connaît ce résultat). Ce qui est étrange, c'est que le schéma d'interférence reste — accumulant sur de nombreux impacts de particules — même si les particules passent à travers les fentes les unes après les autres. Les particules semblent interférer avec elles-mêmes (sic). Plus étrange, le motif disparaît si nous utilisons un détecteur pour savoir quelle fente la particule emprunte : on retrouve alors un résultat spécifique à celui d’une particule, sans aucune spécificité ondulatoire. Plus étrange que tout, cela reste vrai si nous retardons la mesure jusqu'à ce que la particule ait traversé les fentes (mais avant qu'elle ne frappe l'écran). Et si nous faisons la mesure, puis si nous supprimons le résultat sans le regarder, les interférences réapparaissent. Ce n'est pas l'acte physique de la mesure qui semble faire la différence, mais l’"acte de le remarquer", comme le physicien Carl von Weizsäcker (qui a travaillé en étroite collaboration avec le pionnier de la mécanique quantique Werner Heisenberg) l’a indiqué en 1941.

Ananthaswamy explique que c'est ce qui est si étrange à propos de la mécanique quantique : il peut sembler impossible d'éliminer un rôle décisif de notre intervention consciente dans le résultat des expériences. Ce fait conduit le physicien Eugene Wigner à supposer qu’à un moment donné l'esprit lui-même provoque la « réduction » qui transforme une onde en une particule. »

A juste raison, Ph. Ball précise que si on arrive fondamentalement à décrypter les raisons qui font que l’observateur voit un apparaître ondulatoire ou un apparaître particule (grain d’énergie) selon les instruments d’observation exploités, alors d’autres énigmes de la mécanique quantique seront simultanément résolues. Citons, entre autres : l’intrication, le rôle de la décohérence dans l’émergence de la physique classique à partir des phénomènes quantiques, etc... Ball annonce aussi les nombreux ouvrages publiés et qui vont être publiés d’ici la fin de l’année, entre autres Adam Becker (2018) : ‘What is Real ?’, Jean Bricmont (2017) ‘Quantum Sense and Nonsense’, puis celui à venir de Sean Carroll, et le sien propre (2018) ‘Beyond Weird’.

Puisque cette énigme est posée depuis maintenant un siècle, avec l’événement de la mécanique quantique, cela signifie que les physiciens refusent d’aller puiser plus profondément dans l’arsenal des critères à partir desquels ils commentent et justifient les fondements de leurs résultats. Le premier de ces critères et qui est à leurs yeux intangible, c’est l’objectivité c’est-à-dire la non dépendance de l’observateur. Or la mécanique quantique suggère que l’observateur a une influence sur le résultat comme le rappelle Ph. Ball, en citant des commentaires historiques de certains physiciens. Or accepter un rôle quel qu’il soit à l’observateur qui influencerait le résultat scientifique conduirait à un effondrement de la croyance première de la place de la science physique parmi les autres sciences et conduirait à un chamboulement épistémologique (de type copernicien mais à l’envers) qui est toujours considéré comme inacceptable. C’est pourquoi la conclusion de l’expérience qui conduit à affirmer : « Nous réalisons maintenant qu’en physique quantique, ce n’est pas exactement ce que vous faites qui compte, mais ce que vous savez » est, comme j’ai pu directement l’entendre, maltraitée et d’une certaine façon glissée sous le tapis. Pour moi ce type de résultat était évidemment attendu.

Je viens de lire un livre d’Antonio Damasio : ‘l’Ordre étrange des choses’ : ‘La vie, les sentiments et le fabrique de la culture’ (édit : Odile Jacob : 2017). L’auteur tente, avec ce livre, de rendre compte la dynamique première qui est à la source de la vie la plus élémentaire jusqu’à la plus complexe des humains. Je cite :

P. 238 : « Dans les premiers chapitres du livre, j’ai expliqué que plusieurs aspects importants des réponses culturelles humaines ont été préfigurés par les comportements d’organismes moins complexes… Ils (les comportements sociaux) sont le produit de l’adaptation (naturelle et néanmoins extraordinaire) du processus vital aux injonctions de l’impératif homéostatique, défenseur aveugle des comportements individuels et sociaux les plus avantageux. Mon interprétation des origines biologiques de l’esprit humain créateur de culture met en avant le fait que c’est l’homéostasie qui a provoqué l’émergence de stratégies et de dispositifs comportementaux capables d’assurer le maintien et l’épanouissement de la vie chez les organismes simples et complexes, humains compris… P.239 : Dans les organismes constitués plus tard, après l’émergence des systèmes nerveux, l’esprit a pu faire son apparition, avec, en son sein, les sentiments et les images représentant le monde extérieur et ses relations avec l’organisme. Ces images étaient sous-tendues par la subjectivité, la mémoire et la raison ainsi, plus tard, que par le langage verbal et l’intelligence créatrice. Les instruments et les pratiques qui constituent les cultures et les civilisations (au sens traditionnel du terme) ont émergé par la suite. »

Cette citation de l’auteur que je privilégie, permet en partie de comprendre le cheminement de sa thèse. Je ne peux que recommander de lire cet ouvrage. Je prolonge avec quelques autres citations qui, à mon sens, justifieraient que les physiciens aient la curiosité de savoir ce que d’autres champs scientifiques permettent d’infèrer quant à l’émergence de l’intelligence humaine au sein de la nature. Et que cette intelligence se développe au fur et à mesure qu’elle prend le pas sur la nature en l’investissant et en développant son espace de compréhension et partant en accroissant son espace d’autonomie et de maîtrise à l’égard de celle-ci (soumission de celle-ci : était ce que Descartes préconisait avec force). C’est exactement ce que j’entends depuis que j’évoque l’hypothèse de l’être de la nature et l’être dans la nature ainsi que l’évolution de leur rapport. L’accroissement de l’espace de compréhension de l’intelligence humaine sur la nature, n’est-ce pas le propre de la recherche en science physique ? (Voir article du 23/08/2016 : ‘Décrire comment les humains interagissent avec la nature ? Comment ils évoluent grâce à cette interaction ?’[2])

Quelques autres citations du livre de A. Damasio :

P. 44 : « Les systèmes nerveux ont peu à peu activé un processus de cartographie (sic) du monde qui les entourait ; et l’intérieur de l’organisme était le commencement de ce monde alentour. Ce processus a rendu possible l’émergence de l’esprit – et des sentiments au sein de cet esprit. Cette cartographie était fondée sur diverses capacités sensorielles, qui finirent par inclure l’odorat, le goût, le toucher, l’ouïe et la vue. Comme nous l’expliquerons du chapitre IV au chapitre IX, la construction de l’esprit – et notamment des sentiments – a pour fondement les interactions entre le système nerveux et son organisme. La construction de l’esprit n’est pas une tâche réservée au système nerveux : elle est le fruit d’une coopération entre ces derniers et le reste de leur organisme. Il s’agit là d’une rupture avec la vision traditionnelle du cerveau seul créateur de l’esprit. »

P. 339 : « Les points évoqués, nous amènent à un autre aspect important concernant l’émergence de l’esprit, de la perception des émotions et de la conscience – émergence aux étapes étrangement ordonnées. Cet aspect majeur est toutefois subtil et passe aisément inaperçu. Il est lié à l’idée selon laquelle ni les différentes parties du système nerveux, ni le cerveau dans son ensemble ne peuvent créer ou alimenter à eux seuls les phénomènes mentaux… Pour dire les choses simplement, les cerveaux et les corps sont dans le même bain et produisent l’esprit de manière conjointe. Ce nouvel éclairage de la relation « corps cerveau » permet d’aborder d’innombrables questions philosophiques et psychologiques de manière plus constructive. Ce dualisme a la vie dure : il est né à Athènes, a été érigé en principe par Descartes, a résisté aux féroces assauts de Spinoza et a été intensément exploité par les sciences informatiques. Mais son temps est révolu. »

P. 343 : « Une fois prises en compte, ces émergences étrangement ordonnées nous offrent une nouvelle vue d’ensemble, de plus en plus précise. Pendant environ 3,5 milliards d’années, soit la majorité de l’histoire du vivant[3], de nombreuses espèces d’animaux et de plantes ont développé de multiples capacités permettant de détecter et de répondre aux stimuli du monde extérieur. Elles ont manifesté des comportements sociaux intelligents… Elles ne disposaient que des précurseurs de l’esprit, de la perception des émotions, de la pensée et de la conscience – et non de ces facultés en tant que telles.

 Il ne manquait à ces espèces que la capacité d’élaborer des images des objets et des événements réels survenant à l’extérieur et à l’intérieur de l’organisme. Les conditions nécessaires à l’apparition du monde des images et de l’esprit n’ont été réunies qu’environ un demi-milliard d’années plus tard, et l’esprit humain est encore plus récent : son apparition pourrait remonter à 100 000 à 200 000 ans seulement[4]. »

« Force est de constater que nous pouvons désormais parler des caractéristiques et du fonctionnement des organismes vivants et de leur évolution avec une relative certitude (sic), et que nous pouvons nous accorder sur l’âge approximatif de l’univers (environ 13 milliards d’années). Mais nous ne disposons d’aucune interprétation scientifique satisfaisante quant à l’origine et à la finalité de ce même univers ; d’aucune théorie expliquant l’alpha et l’oméga de notre réalité. Ces lacunes ont valeur d’avertissements. Elles nous rappellent que nos découvertes sont bien modestes et bien incertaines. Elles nous montrent, enfin, à quel point notre ouverture d’esprit doit être grande lorsque nous entreprenons d’explorer l’inconnu. »

Il est possible que le lecteur de cet article à ce niveau de la lecture se demande pourquoi j’associe le commentaire de l’article de Ph. Ball avec le travail de A. Damasio. En premier lieu, je veux préciser que l’impératif homéostatique qui est au cœur de la thèse de Damasio rend compte parfaitement de la dynamique du désir de savoir qui ne peut être assouvi car au-delà, il y a toujours quelque chose à comprendre parce qu’une bonne connaissance acquise ne ferme pas une porte mais elle en ouvre une autre voire plusieurs autres à la fois. C’est pourquoi je considère que les physiciens ont tort de croire qu’ils décryptent le monde réel, ils ne décryptent que le monde tel qu’il nous apparaît provisoirement étant donné nos capacités intellectuelles actuelles. Il est provisoirement un monde de vérités stables, celles que le plus grand nombre de physiciens partagent à un moment donné, jusqu’à ce que des vérités nouvelles s’imposent annulant les anciennes ou bien les englobant. Ainsi en sera-t-il de l’histoire de l’hypothèse du Big-Bang. L’histoire de la connaissance de la nature est et sera toujours devant nous c’est pourquoi nous sommes des êtres vivants habités par l’impératif homéostatique ou quelque chose d’équivalent, de toute façon il n’est pas possible d’ignorer la dynamique qui sans cesse nous propulse vers l’avant.

L’association de l’article de Ball et du livre de Damasio est pour moi totalement approprié et cela est explicite à la lecture de l’article du 05/08/2017 : ‘Appel d’offres’. Dans cet article, je propose une expérience qui permettrait de comprendre la raison pour laquelle nous avons un apparaître ondulatoire ou un apparaître particule suivant les conditions expérimentales et l’état de connaissance de l’observateur. Cette expérience je la propose parce que j’ai la conviction que l’espace-temps est un propre de l’homme, il n’est pas donné dans la nature (contrairement à ce que postule L. Smolin) et toute l’histoire du développement de la physique exclut aussi de pouvoir affirmer que le temps n’existe pas (comme l’affirme C. Rovelli) car cela revient à affirmer que les bonnes lois de la nature sont les lois qui annulent la ‘Présence’ du sujet pensant auteur de ces lois.

Damasio nous explique que dès la genèse la plus profonde du vivant un processus de cartographie s’est mis en place, voir citation de la page 44. Dans la genèse du vivant, l’espace joue un rôle vital, il contribue au développement du vivant, il est inscrit comme le temps[5] dans la texture du vivant, l’espace est comme le temps un composant du substrat du vivant, tous deux contribuent à l’installation de l’intelligence humaine. Quand est évoqué l’aptitude à la cartographie c’est bien de l’étendue spatiale dont il est question, concept qui est le même que celui de l’étendue spatiale qui caractérise une structure galactique, le même quand on mesure l’expansion de l’univers.

Antonio Damasio renforce l’hypothèse qui est à la base de mon projet d’expérience : ‘Appel d’offres’. Evidemment j’ai été très déçu que le site arXiv refuse en Août 2017 mon article puisque le modérateur m’a annoncé qu’il était un site pour physicien sérieux (sic). A bon entendeur salut.

 

[1] Dans le Journal Nature, volume 546, pages 590-592

[2] Dans cet article, j’avais indiqué : « A mon avis cette interaction ne peut pas évidemment être décryptée en temps réel, ni pendant des temps courts. C’est en puisant dans la profondeur des temps très longs qui correspondent à des durées significatives d’évolution jusqu’à l’émergence de l’homme moderne que nous pouvons repérer des évolutions de cette interaction avec la Nature »

[3] Hasard intéressant le 20 Août a été publié un article qui a pour titre : « Une échelle du temps pour l’origine et l’évolution de toute la vie sur terre » qui présente une nouvelle étude menée par des scientifiques de l'Université de Bristol qui ont utilisé une combinaison de données génomiques et fossiles pour expliquer l'histoire de la vie sur terre, de son origine à nos jours. Dans Nature Ecology & Evolution (2018). DOI: 10.1038/s41559-018-0644-x

 

[4] Voir article du 05/01/2018 : « Turing or not Turing ». Réfléchir à ce qu’il y a de commun et complémentaire entre les spéculations de ces deux scientifiques et de divergent. Cela justifie mon souhait que l’échange entre les femmes et les hommes de sciences dans des champs différents soit intense. C’est dans les divergences que se trouvent les sources des progrès de compréhensions.

[5] Voir article du 19/07/2017 en référence avec le livre de Buonomano : ‘Time and Brain’

Partager cet article

Repost0
3 août 2018 5 03 /08 /août /2018 06:18

Quelques nouvelles récentes du ciel

1 - Celles du ciel de notre galaxie : celles-ci sont obtenues grâce à la croissance extraordinaire de la performance des instruments en astrophysique. En l’occurrence, l’instrument, entre autres[1], qui nous permet d’obtenir une connaissance plus assurée de la physique en jeu au cœur de la Voie Lactée s’appelle GRAVITY[2]. Cet instrument est en activité depuis 2016 et il permet l’observation avec une précision inégalée des propriétés physiques que met en jeu le trou noir supermassif, distant de la Terre de 25000 années-lumière, et occupant le centre de notre galaxie. Ces observations sont une réussite technique d'autant plus significative que la communauté scientifique a pu suivre l’évolution de l'étoile S2 ayant une orbite elliptique autour du trou noir supermassif (Sgr A*) passant le 18 Mai 2018 au plus près de ce dernier (périastre), à seulement une distance de 18 heures-lumière soit 120 fois la distance Terre-Soleil, soit encore 1500 fois le rayon de Schwarzschild du trou noir. Dans cette position spécifique S2 parcourt sa trajectoire à presque 2,7 % de la vitesse de la lumière soit 8.000 km/s.

L’objectif de cette observation étant d’évaluer si dans ces conditions extrêmes les prédictions de la loi de la relativité générale sont encore correctes. Plusieurs articles viennent d’être publiés et ils rendent compte d’une confirmation de la validité de la loi lorsque le champ gravitationnel devient de plus en plus intense au fur et à mesure que l’on avoisine Sgr A* qui concentre une masse égale à 4 millions de fois la masse solaire.

Cela fait plus de vingt ans que les astronomes suivent l’évolution de l’étoile S2 sur sa trajectoire autour de notre trou noir supermassif. Lorsque S2 réalisa en 2002 sa précédente approche au plus près du trou noir les télescopes n’étaient pas suffisamment précis pour réaliser les mesures nécessaires. En 2018, au passage au périastre, on a pu constater le décalage gravitationnel vers le rouge. La lumière (La lumière est l'ensemble des ondes électromagnétiques visibles par l'œil humain, c'est-à-dire comprises dans des longueurs d'onde de 380nm (violet) à 780nm (rouge). La lumière est intimement liée...) émise par l'étoile est étirée vers de plus grandes longueurs d'onde (Une onde est la propagation d'une perturbation produisant sur son passage une variation réversible des propriétés physiques locales. Elle...) par l'intense champ gravitationnel généré par le trou noir. Et la variation de longueur (La longueur d’un objet est la distance entre ses deux extrémités les plus éloignées. Lorsque l’objet est filiforme ou en forme de lacet, sa longueur...) d'onde de la lumière issue de S2 est en parfait accord avec celle déduite de la théorie de la relativité générale d'Einstein. Des tests très concluants avaient déjà été réalisés dans le cadre du champ gravitationnel terrestre mais ce test en champ gravitationnel aussi élevé est une première. A propos de ce résultat remarquable, L. Sacco dans Futura Science (26/07) exprime un point de vue que je veux privilégier et que je reprendrai dans un article à venir. De toute façon il est à méditer présentement au pied de la lettre et j’invite les lecteurs à se considérer concernés par ce qui suit car il y là une concentration pertinente de problématiques qui concerne le ciel de la pensée humaine : « La théorie d’Einstein de la relativité générale est plus que centenaire. Bien plus que pour son découvreur, elle témoigne de la mystérieuse capacitée de l'esprit humain à anticiper la structure de la réalité, bien loin de l'univers quotidien qui a accompagné l'évolution du cerveau d'Homo, en se basant sur des mathématiques qu'on n'y trouve pas. Toute confirmation des prédictions de la relativité générale peut être vue comme un triomphe mais également comme un désastre car on attend impatiemment de pouvoir arpenter et comprendre de nouveaux aspects plus profonds et plus vastes du cosmos. Cela serait justement possible si la théorie d'Einstein montrait ses limites. »

Le décalage, observé, vers le rouge d’origine gravitationnel des photons émis par l’étoile S2, laisse penser à une réduction d’énergie de ceux-ci car ils s’extraient avec difficulté de l’intense champ gravitationnel de Sgr A*. Cette explication est en accord avec le fait que la relativité générale met en évidence une interdépendance fondamentale entre matière, espace et temps et en l’occurrence l’écoulement, le battement (tic-tac), du temps ralentit plus le champ de matière est élevé. En conséquence T, la période temporelle du photon s’accroit à cette occasion. Et la longueur d’onde de la lumière λ = CT augmente d’où le décalage vers le rouge.

Une autre confirmation de la relativité générale est attendue : d’ici un an ou deux, il est attendu de constater que la trajectoire de S2 commence à diverger doucement de celle suivie dans le cycle précédent d’il y a 16 ans. Ce phénomène prédit est celui de la précession de Schwarzschild correspondant à un décalage d’une petite valeur de l’axe de rotation de l’orbite de l’étoile. Son équivalent déjà constaté en champ bien plus faible correspond à la fameuse précession relativiste du périhélie de Mercure qui fut la première confirmation (1915) de la validité de la loi de la relativité générale.

De plus, espérons que ce qui nous est annoncé depuis l’an passé, c’est-à-dire une image de l’ombre de Sgr A* soit publiée. Dans ce cas nous espérons obtenir une image qui permettra d’observer les distorsions extrêmes de l’espace-temps au voisinage de la ligne d’horizon des événements, là où le champ gravitationnel est à son acmé dans notre galaxie. Il était prévu qu’un premier résultat soit publié au plus tard en Mai, toutefois nous avons obtenu un message de report de résultat car il semblerait que le dispositif mis en place pour obtenir cette image est difficile à maitriser. Rappelons qu’il s’agit de mettre en réseau de très nombreux télescopes qui se trouvent en activité sur tous les continents afin d’obtenir l’équivalent d’un télescope récepteur de la dimension de la Terre. Souhaitons que d’ici la fin 2018 nous ayons un résultat sinon considérons que le défi posé est encore prématuré.

2 - Des nouvelles récentes du ciel de notre Univers : celles-ci ne nous offrent pas le même enthousiasme car pour ce qui concerne l’étude de l’émergence du ciel de notre univers nous sommes toujours dans l’expectative car une étape vient d’être révolue et la prochaine est encore dans une phase de définition. L’étape révolue est marquée par la dernière publication dans la semaine du 16 juillet des dernières cartes de l’univers précoce obtenues par le satellite Planck.

Le satellite Planck qui a collecté ses données entre 2009 et 2013 est considéré comme l’instrument spatiale (après COBE et WMAP) qui nous a permis d’obtenir les données les plus précises jusqu’à présent. Ainsi l’âge de notre Univers est de 13,8 milliards d’années, sa géométrie est essentiellement euclidienne, et à 95% il est composé de matière noire et d’énergie sombre (sic). Les dernières données confirment que Planck évalue une expansion de notre Univers plus lente de 9% que celle couramment déterminée actuellement grâce à des techniques nouvelles et sur une période de l’évolution de l’univers bien plus récente (les 5 milliards d’années en amont de notre présent).

Les physiciens ont à leur disposition une carte des plus précises de la variation de la température du fond diffus cosmologique (cosmic microwave background : (CMB), fond cosmique micro-onde), ce grand achèvement doit être approfondi pour aller de l’avant.

Pour l’instant aucun projet majeur de continuation de cette étude n’est en vue avec des moyens identiques. Ce qui pourrait conduire à un désastre scientifique car il y a tout un savoir-faire et une capacité d’expertise qui se perdront. La tendance serait plutôt de mettre en œuvre des missions plus petites concentrées sur des mesures plus détaillées d’autres paramètres du CMB, incluant sa polarisation. Avec l’obtention éventuelle de cette donnée, les chercheurs espèrent déduire une signature de l’inflation : cette période très brève au tout début de l’univers qui aurait connu une expansion exponentielle.

Le CMB a certainement encore beaucoup de secrets à nous révéler. Mais avec quels moyens ? L’Europe et les Etats Unis refusent de s’engager financièrement sur de gros projets. Les équipes de chercheurs doivent donc concevoir des projets modestes mais très ciblés sur des quêtes spécifiques d’informations. Les réseaux de télescopes terrestres ont la cote. Des projets de coopération plus amples sont aussi proposés incluant le Japon et/ou l’Inde.

Le CMB a certainement encore beaucoup de secrets à nous révéler est la conviction actuelle de la très grande majorité des physiciens travaillant sur ce sujet. Juste avant le lancement du satellite Planck, la très grande majorité de ces physiciens pensaient qu’ils obtiendraient avec cet instrument un référentiel d’informations parfait et complet permettant de décrire notre Univers qui n’aurait plus de secret pour l’humanité. Heureusement cela n’est pas ainsi, la tâche n’est pas achevée, au contraire nous découvrons qu’il y a encore beaucoup de secrets à dévoiler c’est ce dont nous devons nous satisfaire car cela oblige l’intelligence humaine à se maintenir en éveil. Le ciel de l’Univers et le ciel de l’esprit humain sont dans une interdépendance parfaitement harmonieuse.

 

[1] De nouvelles observations effectuées dans le domaine infrarouge (Le rayonnement infrarouge (IR) est un rayonnement électromagnétique d'une longueur d'onde supérieure à celle de la lumière visible mais...) par les instruments de très grande sensibilité, GRAVITY (2), SINFONI et NACO installés sur le Very Large Télescope de l'ESO (VLT), ont permis aux astronomes de suivre, au cours du mois (Le mois (Du lat. mensis «mois», et anciennement au plur. «menstrues») est une période de temps arbitraire.) de mai 2018, le mouvement de l’étoile baptisée S2.

[2] Le développement de l'instrument GRAVITY résulte d'un partenariat entre l'Institut Max Planck pour  la Physique Extra-terrestre (Allemagne), le LESIA à l'Observatoire de Paris (Paris est une ville française, capitale de la France et le chef-lieu de la région d’Île-de-France. Cette ville est construite sur une boucle de...), PSL / CNRS / Sorbonne (La Sorbonne est un complexe monumental du Quartier latin de Paris. Elle tire son nom du théologien du XIIIe siècle Robert de Sorbon, le fondateur du collège de Sorbonne,...) Université / Université Paris Diderot et l'IPAG à l'Université Grenoble Alpes / CNRS (France), l'Institut Max Planck pour l'Astronomie (Allemagne), l'Université de Cologne (Allemagne), le Centre d'Astrophysique et de la Gravitation (CENTRA, Portugal) et l'ESO.

Partager cet article

Repost0
24 juillet 2018 2 24 /07 /juillet /2018 08:10

Les neutrinos sur de multiples scènes.

Scène I : Interprétation d’un résultat d’expérience controversée. Article du 4/6/2018

            La publication du résultat d’expérience qui s’intitule : Mini Booster Neutrino Experiment (MiniBooNe) au Fermilab (près de Chicago) et qui aurait mis en évidence des neutrinos stériles a immédiatement provoqué des réactions contestant ce résultat. Ce ou ces fameux neutrinos stériles sont théoriquement utiles dans le cadre des modèles standards pour combler les failles au sein de ces modèles. Stériles parce qu’ils n’interagissent pas du tout et sont indétectables, contrairement aux cousins : νe, νµ, ντ, qui interagissent très, très…faiblement mais sont quand même détectables très, très… faiblement. Ces trois cousins, avec trois saveurs distinctes (électronique, muonique, tauique) peuvent nous apparaître dans des saveurs différentes dans les détecteurs appropriés, et il est inféré qu’ils oscillent d’une saveur à une autre. A force d’observations on pense avoir une bonne connaissance de la probabilité de l’oscillation d’une saveur à une autre grâce à une évaluation des ‘angles de mélange’ entre les saveurs.

            Si on observe effectivement des écarts avec ces angles de mélange on pourrait déduire qu’il y a un processus qui perturbe les prévisions théoriques. C’est exactement ce qui fut l’objet de la publication du Fermilab. A l’origine, le faisceau est constitué de νµ qui oscillent en νe suivant une proportion prédite par le modèle standard. Toutefois à la détection, selon l’équipe du Fermilab, le nombre de neutrinos de saveur électronique est significativement plus important. En conséquence, il est considéré que cet excès est dû au fait qu’une certaine proportion de neutrinos muoniques oscillent préalablement en neutrinos stériles avant d’apparaître dans le détecteur en neutrinos électroniques. Ce résultat, s’il était confirmé, ouvrirait la porte à des phénomènes et des objets qui signaleraient un au-delà des modèles standards (des particules élémentaires et celui de la cosmologie) soit une nouvelle physique.

            En fait ce résultat a été rapidement considéré comme douteux par plusieurs équipes de chercheurs de plusieurs autres expériences qui n’ont jamais rien observé de tel. De plus, a priori, si le neutrino stérile existait, il aurait une masse bien plus importante que celle vraisemblable s’il était effectivement inclu dans le processus d’oscillation de ses cousins.

            En résumé le grand scepticisme à l’égard du résultat proclamé est réuni dans l’article du 4/06 de A. Cho qui titre : « Les comptes-rendus sur la résurrection du neutrino stérile seraient grandement exagérés. » Il rappelle toutes les expériences et données qui ne confirment pas l’existence de ce neutrino spécifique ainsi que le résultat déterminé par l’équipe du satellite Planck, publié en 2013, indiquant qu’il n’y a que trois types de neutrinos et pas plus, ceux déjà identifiés à partir de son invention dans les années 1930 par Pauli. Eh oui ! depuis cette époque les progrès de la connaissance sur ces objets sont très lents et la première signature observée attribuée au neutrino électronique date de 1956. Voir mes articles du 14/10/2015 ; du 26/10/2016 ; du 30/10/2016.

Notre connaissance toujours très faible sur les neutrinos s’explique par le fait que la très grande majorité des physiciens s’obstine à étudier, dans le cadre du modèle standard des particules élémentaires : « Les propriétés physiques des neutrinos. », alors que cette majorité devrait étudier ouvertement : « La physique des neutrinos », ceux-ci étant les vecteurs d’une physique avec des propriétés hors ce modèle standard. L’ignorance accumulée et persistante de ces objets présente l’inconvénient majeur de les exploiter à toutes les sauces, ainsi ce 17/07 on peut lire encore sur le site Physicsworld le titre d’un article : ‘Mysterious radio signals could be from new type of neutrino.’ ; ‘Des mystérieux signaux radios pourraient provenir d’un nouveau type de neutrino.’ Quand il y a du mystère, de l’ignorance, les neutrinos sont convoqués.

Scène II : Une expérience voit une solide évidence de l’oscillation d’un antineutrino. Article du 4/06/2018.

            Cette annonce est une première car jusqu’à présent l’oscillation de l’antineutrino muonique en un antineutrino électronique n’avait jamais été observée d’une façon certaine. L’intérêt de savoir si les antineutrinos se comportent de la même façon, ou pas, que les neutrinos, nous permettra peut-être de mettre en évidence des propriétés non encore élucidées au sein de l’univers ainsi que son évolution, notamment pourquoi la matière a gagné sur l’antimatière, une fraction de seconde après le Big Bang, et conséquemment pourquoi nous sommes là.

            Il ne faut pas oublier que nous ne savons toujours pas si les neutrinos sont leurs propres antineutrinos, c’est-à-dire qu’ils seraient des particules de Majorana. Les antineutrinos sont encore plus difficiles à détecter que les neutrinos. Il est pensé que les neutrinos ont une masse au repos mais on est incapables de mesurer directement chacune de leur masse. Toutefois on pense avoir déterminé l’ordre de ces masses. La masse du neutrino tauique > du neutrino muonique > du neutrino électronique. Je doute qu’il soit possible de confirmer ce type de résultat si l’on continue de leur attribuer une masse correspondant à E = mc2 et mi = mg alors que nous sommes dans l’impossibilité d’observer ces objets sur leur ligne de vol, nous sommes incapables de leur attribuer une masse d’inertie, de les accélérer ou de constater une accélération, de les ralentir ou de constater une décélération, nous ne pouvons les deviner que par la signature de leur très, très, faible interaction avec la matière.

                Il semblerait (sic) que certains physiciens soient prêts à admettre que si les neutrinos ont une masse, celle-ci serait d’une nature différente à celle que l’on attribut communément aux autres particules élémentaires (lu dans un article du 09/07). Si c’est le cas je considère que c’est le début d’un éveil. A suivre !

Scène III : Les blazars sources de neutrinos de haute énergie. Nombreux articles à la mi-juillet.

            D’où proviennent les neutrinos de haute et très haute énergie ? L’hypothèse la plus probable est qu’ils sont émis par des objets astrophysiques extrêmement massifs, de plusieurs millions de fois la masse du Soleil. L’observatoire IceCube[1], situé à proximité de la base antarctique Amundsen-Scott, près du pôle Sud, est spécialisé dans la détection de ces neutrinos de très haute énergie. Le 22 septembre 2017, les physiciens travaillant sur cette expérience ont détecté un neutrino d’une énergie supérieure à 290 téraélectronvolts (1012 eV). C’est 20 fois plus que celle atteinte dans les collisions de protons au LHC du Cern ! L’observation conjointe de photons par de nombreux télescopes a permis d’identifier la source de ce neutrino : le blazar TXS 0506+056, situé à plus de 4 milliards d’années-lumière (univers local).

Les blazars sont des galaxies dites actives car elles abritent en leur centre un trou noir supermassif en activité. Une partie de la matière tournant dans un disque d’accrétion autour du trou noir est éjectée le long de l’axe de rotation du trou noir, formant deux jets de particules perpendiculaires au disque. Les blazars sont vraisemblablement la même chose que les quasars, à ceci près que leur jet pointe vers la Terre (une simple question d’angle de vue). Ils rayonnent par ailleurs fortement dans le domaine radio. Les jets contiennent une foule de particules émises à des vitesses relativistes : des photons, des électrons, des positrons, etc. Les blazars ont une activité très variable, sur des échelles de temps qui s’étalent de quelques minutes à plusieurs années. Lors d’un pic d’activité, en période d’éruption, les blazars émettent notamment des photons de haute énergie (au-dessus du gigaélectronvolt 109 eV) – des rayons gamma –, détectés par des télescopes comme Fermi ou Agile (en orbite), ou encore Magic (sur les îles Canaries). Les blazars sont une des sources possibles des neutrinos de haute énergie qui atteignent la Terre.

Cette nouvelle découverte pourrait marquer la fondation de l’astronomie neutrino. La détection met aussi en évidence un exemple puissant d'une autre nouvelle tendance, l'astronomie MultiMessagers, dans laquelle les télescopes et autres instruments ont étudié le signal du Blazard dans toutes les parties du spectre électromagnétique, des rayons gamma aux ondes radio.

Un Blazar produisant des neutrinos pourrait aussi aider à résoudre un mystère séculaire en astronomie : d'où viennent les protons d'énergie extrêmement élevée et autres noyaux qui bombardent occasionnellement la Terre ? Connues sous le nom de rayons cosmiques ultra-haute énergie, ces particules ont un million de fois plus d'énergie que celles accélérées dans nos accélérateurs de particules terrestres, mais ce qui les stimule à de telles énergies colossales est encore inconnue. Parmi les suspects, sont inclus des étoiles à neutrons, des rafales de rayons gamma, des hypernovaes et des trous noirs qui crachent des radiations au centre de certaines galaxies, mais quelle que soit la source, les neutrinos à haute énergie sont un sous-produit probable. Si l'équipe de IceCube a raison, les blazars pourraient être la première source confirmée de ces rayons cosmiques.

Scène IV : Une nouvelle étude prouve qu’Einstein a raison : Le test le plus approfondi à ce jour ne trouve aucune violation de Lorentz dans les neutrinos à haute énergie. Article du 16/07/2018.

L'univers que nous savons présentement étudier est considéré, a priori, comme un univers symétrique, selon l’hypothèse première de la théorie de la relativité restreinte d'Einstein, connue sous le nom de symétrie de Lorentz. Ce principe stipule que tout scientifique doit observer les mêmes lois de la physique, dans n'importe quelle direction, et quel que soit son cadre de référence, tant que cet objet se déplace à une vitesse constante. La symétrie de Lorentz est une symétrie fondamentale de l’espace-temps qui sous-tend et prévaut à la fois au modèle standard de la physique des particules et à la relativité générale.

Par exemple, en raison de la symétrie de Lorentz, cela implique que nous devons observer la même vitesse de la lumière - 300000 Km/seconde - si nous sommes astronautes voyageant à travers l'espace ou molécules se déplaçant dans la circulation sanguine.

Mais pour les objets infiniment petits qui opèrent à des énergies incroyablement élevées, et sur de vastes étendues de l’univers, les mêmes règles de la physique pourraient ne pas s'appliquer. À ces échelles extrêmes, il pourrait exister une violation de la symétrie de Lorentz, ou la violation de Lorentz, dans laquelle un mystérieux champ inconnu distordrait le comportement de ces objets d'une manière que la théorie d’Einstein ne prédirait pas. Alors que la théorie des cordes prévoit une violation de cette symétrie à l’échelle de la gravité quantique. Si cette violation était observée ce serait un indice favorable pour la théorie des cordes.

La chasse à cette violation a été menée, pour trouver des preuves de la violation de Lorentz, dans divers phénomènes, des photons jusqu’à la gravité, sans obtenir de résultats définitifs. Les physiciens croient que si la violation de Lorentz existe, on peut aussi le voir dans les neutrinos, les particules les plus légères connues dans l'univers, qui peuvent parcourir de vastes distances et sont produites par des phénomènes astrophysiques de haute énergie cataclysmique. La moindre confirmation que la violation de Lorentz existerait indiquerait une physique complètement nouvelle qui n’est pas inclus dans la théorie d'Einstein.

Maintenant, les scientifiques du MIT et leurs collègues sur l'expérience IceCube ont conduit la recherche la plus approfondie qui soit de la violation de Lorentz dans les neutrinos. Ils ont analysé deux années de données collectées par l'Observatoire de neutrinos de IceCube. L'équipe a cherché des variations dans l'oscillation normale des neutrinos qui auraient pu être causées par un champ de Lorentz-violation. Selon leur analyse, aucune anomalie de ce type n'a été observée dans les données, qui comprend les neutrinos atmosphériques des plus hautes énergies que toutes les expériences ont jusqu’à présent recueillies.

Le degré de précision du résultat publié est annoncé avec une exactitude de 10-28 ce qui est exceptionnel.

Toutefois, il faut rappeler que nous n’avons aucune preuve observationnelle que les neutrinos oscillent au sens physique du terme. L’hypothèse de l’oscillation de ces objets est selon mon point de vue une façon opportuniste de définir un cadre mathématique qui permet très partiellement de les domestiquer sur le plan intellectuel, mais pas plus. Ainsi dans les équations de ces oscillations, ils ont une masse d’inertie et jusqu’à présent nous sommes toujours incapables d’évaluer leurs masses. Ces trente dernières années, celles que nous avons pensé pouvoir leur attribuer se sont révélées totalement erronées. En fait, chaque fois que nous croyons avoir, enfin, la bonne théorie et les bons paramètres, ces neutrinos nous répondent toujours : « Nous ne sommes pas ce que vous croyez. »

 

[1] En 2010, le plus grand observatoire de neutrinos, IceCube, a été mis en service en Antarctique, succédant à Amanda, situé lui aussi au pôle Sud. Son principe est d’utiliser la glace de la calotte antarctique comme détecteur. En effet, quand un neutrino traverse la Terre, il a une très faible chance d’interagir avec la matière. Il produit alors une particule chargée. La détection est plus facile si cette particule est un muon (un cousin de l’électron plus lourd). Ce muon de haute énergie traverse la glace avec une vitesse supérieure à celle de la lumière dans la glace. Il produit alors un sillage de lumière bleue, nommé rayonnement Tcherenkov (c’est cet effet qui est à l’origine de la lumière bleutée dans le cœur des réacteurs nucléaires). L’observatoire IceCube en lui-même est constitué de modules optiques qui captent ce rayonnement Tcherenkov. Grâce à 86 lignes de 60 détecteurs chacune, enfouis à plus de 1 kilomètre sous la surface, l’observatoire scrute le passage de muons dans 1 kilomètre cube de glace. À partir des signaux enregistrés par les modules optiques, on peut reconstruire la direction de propagation du muon et par extension déduire la direction du neutrino initial. Et ainsi potentiellement déterminer la source des neutrinos.

 

Partager cet article

Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens