Overblog
Suivre ce blog Administration + Créer mon blog
24 juillet 2018 2 24 /07 /juillet /2018 08:10

Les neutrinos sur de multiples scènes.

Scène I : Interprétation d’un résultat d’expérience controversée. Article du 4/6/2018

            La publication du résultat d’expérience qui s’intitule : Mini Booster Neutrino Experiment (MiniBooNe) au Fermilab (près de Chicago) et qui aurait mis en évidence des neutrinos stériles a immédiatement provoqué des réactions contestant ce résultat. Ce ou ces fameux neutrinos stériles sont théoriquement utiles dans le cadre des modèles standards pour combler les failles au sein de ces modèles. Stériles parce qu’ils n’interagissent pas du tout et sont indétectables, contrairement aux cousins : νe, νµ, ντ, qui interagissent très, très…faiblement mais sont quand même détectables très, très… faiblement. Ces trois cousins, avec trois saveurs distinctes (électronique, muonique, tauique) peuvent nous apparaître dans des saveurs différentes dans les détecteurs appropriés, et il est inféré qu’ils oscillent d’une saveur à une autre. A force d’observations on pense avoir une bonne connaissance de la probabilité de l’oscillation d’une saveur à une autre grâce à une évaluation des ‘angles de mélange’ entre les saveurs.

            Si on observe effectivement des écarts avec ces angles de mélange on pourrait déduire qu’il y a un processus qui perturbe les prévisions théoriques. C’est exactement ce qui fut l’objet de la publication du Fermilab. A l’origine, le faisceau est constitué de νµ qui oscillent en νe suivant une proportion prédite par le modèle standard. Toutefois à la détection, selon l’équipe du Fermilab, le nombre de neutrinos de saveur électronique est significativement plus important. En conséquence, il est considéré que cet excès est dû au fait qu’une certaine proportion de neutrinos muoniques oscillent préalablement en neutrinos stériles avant d’apparaître dans le détecteur en neutrinos électroniques. Ce résultat, s’il était confirmé, ouvrirait la porte à des phénomènes et des objets qui signaleraient un au-delà des modèles standards (des particules élémentaires et celui de la cosmologie) soit une nouvelle physique.

            En fait ce résultat a été rapidement considéré comme douteux par plusieurs équipes de chercheurs de plusieurs autres expériences qui n’ont jamais rien observé de tel. De plus, a priori, si le neutrino stérile existait, il aurait une masse bien plus importante que celle vraisemblable s’il était effectivement inclu dans le processus d’oscillation de ses cousins.

            En résumé le grand scepticisme à l’égard du résultat proclamé est réuni dans l’article du 4/06 de A. Cho qui titre : « Les comptes-rendus sur la résurrection du neutrino stérile seraient grandement exagérés. » Il rappelle toutes les expériences et données qui ne confirment pas l’existence de ce neutrino spécifique ainsi que le résultat déterminé par l’équipe du satellite Planck, publié en 2013, indiquant qu’il n’y a que trois types de neutrinos et pas plus, ceux déjà identifiés à partir de son invention dans les années 1930 par Pauli. Eh oui ! depuis cette époque les progrès de la connaissance sur ces objets sont très lents et la première signature observée attribuée au neutrino électronique date de 1956. Voir mes articles du 14/10/2015 ; du 26/10/2016 ; du 30/10/2016.

Notre connaissance toujours très faible sur les neutrinos s’explique par le fait que la très grande majorité des physiciens s’obstine à étudier, dans le cadre du modèle standard des particules élémentaires : « Les propriétés physiques des neutrinos. », alors que cette majorité devrait étudier ouvertement : « La physique des neutrinos », ceux-ci étant les vecteurs d’une physique avec des propriétés hors ce modèle standard. L’ignorance accumulée et persistante de ces objets présente l’inconvénient majeur de les exploiter à toutes les sauces, ainsi ce 17/07 on peut lire encore sur le site Physicsworld le titre d’un article : ‘Mysterious radio signals could be from new type of neutrino.’ ; ‘Des mystérieux signaux radios pourraient provenir d’un nouveau type de neutrino.’ Quand il y a du mystère, de l’ignorance, les neutrinos sont convoqués.

Scène II : Une expérience voit une solide évidence de l’oscillation d’un antineutrino. Article du 4/06/2018.

            Cette annonce est une première car jusqu’à présent l’oscillation de l’antineutrino muonique en un antineutrino électronique n’avait jamais été observée d’une façon certaine. L’intérêt de savoir si les antineutrinos se comportent de la même façon, ou pas, que les neutrinos, nous permettra peut-être de mettre en évidence des propriétés non encore élucidées au sein de l’univers ainsi que son évolution, notamment pourquoi la matière a gagné sur l’antimatière, une fraction de seconde après le Big Bang, et conséquemment pourquoi nous sommes là.

            Il ne faut pas oublier que nous ne savons toujours pas si les neutrinos sont leurs propres antineutrinos, c’est-à-dire qu’ils seraient des particules de Majorana. Les antineutrinos sont encore plus difficiles à détecter que les neutrinos. Il est pensé que les neutrinos ont une masse au repos mais on est incapables de mesurer directement chacune de leur masse. Toutefois on pense avoir déterminé l’ordre de ces masses. La masse du neutrino tauique > du neutrino muonique > du neutrino électronique. Je doute qu’il soit possible de confirmer ce type de résultat si l’on continue de leur attribuer une masse correspondant à E = mc2 et mi = mg alors que nous sommes dans l’impossibilité d’observer ces objets sur leur ligne de vol, nous sommes incapables de leur attribuer une masse d’inertie, de les accélérer ou de constater une accélération, de les ralentir ou de constater une décélération, nous ne pouvons les deviner que par la signature de leur très, très, faible interaction avec la matière.

                Il semblerait (sic) que certains physiciens soient prêts à admettre que si les neutrinos ont une masse, celle-ci serait d’une nature différente à celle que l’on attribut communément aux autres particules élémentaires (lu dans un article du 09/07). Si c’est le cas je considère que c’est le début d’un éveil. A suivre !

Scène III : Les blazars sources de neutrinos de haute énergie. Nombreux articles à la mi-juillet.

            D’où proviennent les neutrinos de haute et très haute énergie ? L’hypothèse la plus probable est qu’ils sont émis par des objets astrophysiques extrêmement massifs, de plusieurs millions de fois la masse du Soleil. L’observatoire IceCube[1], situé à proximité de la base antarctique Amundsen-Scott, près du pôle Sud, est spécialisé dans la détection de ces neutrinos de très haute énergie. Le 22 septembre 2017, les physiciens travaillant sur cette expérience ont détecté un neutrino d’une énergie supérieure à 290 téraélectronvolts (1012 eV). C’est 20 fois plus que celle atteinte dans les collisions de protons au LHC du Cern ! L’observation conjointe de photons par de nombreux télescopes a permis d’identifier la source de ce neutrino : le blazar TXS 0506+056, situé à plus de 4 milliards d’années-lumière (univers local).

Les blazars sont des galaxies dites actives car elles abritent en leur centre un trou noir supermassif en activité. Une partie de la matière tournant dans un disque d’accrétion autour du trou noir est éjectée le long de l’axe de rotation du trou noir, formant deux jets de particules perpendiculaires au disque. Les blazars sont vraisemblablement la même chose que les quasars, à ceci près que leur jet pointe vers la Terre (une simple question d’angle de vue). Ils rayonnent par ailleurs fortement dans le domaine radio. Les jets contiennent une foule de particules émises à des vitesses relativistes : des photons, des électrons, des positrons, etc. Les blazars ont une activité très variable, sur des échelles de temps qui s’étalent de quelques minutes à plusieurs années. Lors d’un pic d’activité, en période d’éruption, les blazars émettent notamment des photons de haute énergie (au-dessus du gigaélectronvolt 109 eV) – des rayons gamma –, détectés par des télescopes comme Fermi ou Agile (en orbite), ou encore Magic (sur les îles Canaries). Les blazars sont une des sources possibles des neutrinos de haute énergie qui atteignent la Terre.

Cette nouvelle découverte pourrait marquer la fondation de l’astronomie neutrino. La détection met aussi en évidence un exemple puissant d'une autre nouvelle tendance, l'astronomie MultiMessagers, dans laquelle les télescopes et autres instruments ont étudié le signal du Blazard dans toutes les parties du spectre électromagnétique, des rayons gamma aux ondes radio.

Un Blazar produisant des neutrinos pourrait aussi aider à résoudre un mystère séculaire en astronomie : d'où viennent les protons d'énergie extrêmement élevée et autres noyaux qui bombardent occasionnellement la Terre ? Connues sous le nom de rayons cosmiques ultra-haute énergie, ces particules ont un million de fois plus d'énergie que celles accélérées dans nos accélérateurs de particules terrestres, mais ce qui les stimule à de telles énergies colossales est encore inconnue. Parmi les suspects, sont inclus des étoiles à neutrons, des rafales de rayons gamma, des hypernovaes et des trous noirs qui crachent des radiations au centre de certaines galaxies, mais quelle que soit la source, les neutrinos à haute énergie sont un sous-produit probable. Si l'équipe de IceCube a raison, les blazars pourraient être la première source confirmée de ces rayons cosmiques.

Scène IV : Une nouvelle étude prouve qu’Einstein a raison : Le test le plus approfondi à ce jour ne trouve aucune violation de Lorentz dans les neutrinos à haute énergie. Article du 16/07/2018.

L'univers que nous savons présentement étudier est considéré, a priori, comme un univers symétrique, selon l’hypothèse première de la théorie de la relativité restreinte d'Einstein, connue sous le nom de symétrie de Lorentz. Ce principe stipule que tout scientifique doit observer les mêmes lois de la physique, dans n'importe quelle direction, et quel que soit son cadre de référence, tant que cet objet se déplace à une vitesse constante. La symétrie de Lorentz est une symétrie fondamentale de l’espace-temps qui sous-tend et prévaut à la fois au modèle standard de la physique des particules et à la relativité générale.

Par exemple, en raison de la symétrie de Lorentz, cela implique que nous devons observer la même vitesse de la lumière - 300000 Km/seconde - si nous sommes astronautes voyageant à travers l'espace ou molécules se déplaçant dans la circulation sanguine.

Mais pour les objets infiniment petits qui opèrent à des énergies incroyablement élevées, et sur de vastes étendues de l’univers, les mêmes règles de la physique pourraient ne pas s'appliquer. À ces échelles extrêmes, il pourrait exister une violation de la symétrie de Lorentz, ou la violation de Lorentz, dans laquelle un mystérieux champ inconnu distordrait le comportement de ces objets d'une manière que la théorie d’Einstein ne prédirait pas. Alors que la théorie des cordes prévoit une violation de cette symétrie à l’échelle de la gravité quantique. Si cette violation était observée ce serait un indice favorable pour la théorie des cordes.

La chasse à cette violation a été menée, pour trouver des preuves de la violation de Lorentz, dans divers phénomènes, des photons jusqu’à la gravité, sans obtenir de résultats définitifs. Les physiciens croient que si la violation de Lorentz existe, on peut aussi le voir dans les neutrinos, les particules les plus légères connues dans l'univers, qui peuvent parcourir de vastes distances et sont produites par des phénomènes astrophysiques de haute énergie cataclysmique. La moindre confirmation que la violation de Lorentz existerait indiquerait une physique complètement nouvelle qui n’est pas inclus dans la théorie d'Einstein.

Maintenant, les scientifiques du MIT et leurs collègues sur l'expérience IceCube ont conduit la recherche la plus approfondie qui soit de la violation de Lorentz dans les neutrinos. Ils ont analysé deux années de données collectées par l'Observatoire de neutrinos de IceCube. L'équipe a cherché des variations dans l'oscillation normale des neutrinos qui auraient pu être causées par un champ de Lorentz-violation. Selon leur analyse, aucune anomalie de ce type n'a été observée dans les données, qui comprend les neutrinos atmosphériques des plus hautes énergies que toutes les expériences ont jusqu’à présent recueillies.

Le degré de précision du résultat publié est annoncé avec une exactitude de 10-28 ce qui est exceptionnel.

Toutefois, il faut rappeler que nous n’avons aucune preuve observationnelle que les neutrinos oscillent au sens physique du terme. L’hypothèse de l’oscillation de ces objets est selon mon point de vue une façon opportuniste de définir un cadre mathématique qui permet très partiellement de les domestiquer sur le plan intellectuel, mais pas plus. Ainsi dans les équations de ces oscillations, ils ont une masse d’inertie et jusqu’à présent nous sommes toujours incapables d’évaluer leurs masses. Ces trente dernières années, celles que nous avons pensé pouvoir leur attribuer se sont révélées totalement erronées. En fait, chaque fois que nous croyons avoir, enfin, la bonne théorie et les bons paramètres, ces neutrinos nous répondent toujours : « Nous ne sommes pas ce que vous croyez. »

 

[1] En 2010, le plus grand observatoire de neutrinos, IceCube, a été mis en service en Antarctique, succédant à Amanda, situé lui aussi au pôle Sud. Son principe est d’utiliser la glace de la calotte antarctique comme détecteur. En effet, quand un neutrino traverse la Terre, il a une très faible chance d’interagir avec la matière. Il produit alors une particule chargée. La détection est plus facile si cette particule est un muon (un cousin de l’électron plus lourd). Ce muon de haute énergie traverse la glace avec une vitesse supérieure à celle de la lumière dans la glace. Il produit alors un sillage de lumière bleue, nommé rayonnement Tcherenkov (c’est cet effet qui est à l’origine de la lumière bleutée dans le cœur des réacteurs nucléaires). L’observatoire IceCube en lui-même est constitué de modules optiques qui captent ce rayonnement Tcherenkov. Grâce à 86 lignes de 60 détecteurs chacune, enfouis à plus de 1 kilomètre sous la surface, l’observatoire scrute le passage de muons dans 1 kilomètre cube de glace. À partir des signaux enregistrés par les modules optiques, on peut reconstruire la direction de propagation du muon et par extension déduire la direction du neutrino initial. Et ainsi potentiellement déterminer la source des neutrinos.

 

Partager cet article
Repost0
12 juillet 2018 4 12 /07 /juillet /2018 09:03

Quel avenir pour le LHC ?

 

Dans cet article, je donne la priorité à la lecture de l’article de Laurent Sacco du site : Futura Science, du 03/07/2018 qui a pour titre : ‘Les travaux de construction d'un nouveau LHC ont débuté’. Celui-ci produira des faisceaux de protons plus intenses pour des collisions plus riches en évènements rares. Ce LHC à haute luminosité, ou HL-LHC, devrait partir chasser de la nouvelle physique à l'horizon 2025-2026 (sic). D’un certain point de vue cet article indique correctement l’impasse dans laquelle se trouvent les tentatives expérimentales d’enrichir, de prolonger, de dépasser, ce qui constitue le modèle standard de la physique des particules élémentaires (MS). Cet article est aussi illustratif de l’indigence théorique actuelle ou bien de sa fossilisation, analysée dans l’article précédent du 01/07/2018 : « Comment la croyance en la beauté a déclenché une crise de la physique. » que j’ai posté quelques jours avant celui de Sacco.

L. Sacco : « Avec ses détecteurs géants et sa connexion à une grille mondiale d'ordinateurs, le LHC est sans doute l'objet technologique le plus avancé créé par l'humanité. Lorsque ce Grand collisionneur de hadrons est enfin parti à la chasse d’une nouvelle physique, en 2010, les physiciens des hautes énergies étaient très majoritairement optimistes.

Ils s'attendaient à mettre en évidence rapidement des particules supersymétriques, dont certaines devaient être la clé de la nature de la matière noire. Il était même raisonnable d'obtenir tout aussi rapidement des preuves de la validité de la théorie des cordes, que ce soit avec la mise en évidence d'un boson Z' ou, mieux encore, avec la mise en évidence de mini-trous noirs de Hawking s'évaporant en un éclair après leur création.

Il n'en fut rien (sic), mais le LHC a tout de même atteint son but principal initial, à savoir la mise en évidence du fameux boson de Brout-Englert-Higgs (BEH) en 2012. Les chercheurs ont pu également vérifier depuis, avec plus de précisions, certaines prédictions du modèle standard de la physique des hautes énergies et commencer à explorer l'origine des masses des quarks et des leptons formant la matière en montrant que, là aussi, intervenait la physique du boson de BEH via les fameux couplages de Yukawa.

Une théorie standard triomphante, hélas…

Les résultats ont été finalement, jusqu'à présent, à la fois triomphants et désastreux. Lors de l'hommage rendu à Pierre Binétruy, hélas décédé, Jean Iliopoulos a argumenté, avec raison, pour que l'on parle désormais de la théorie standard plutôt que du modèle standard après la découverte du boson de BEH et la précision des mesures confirmant sa validité. C'est donc un triomphe spectaculaire. Mais, pour le moment, c'est aussi potentiellement un désastre car nous n'avons toujours pas la moindre indication d'une nouvelle physique dans les résultats des mesures concernant les produits des collisions de protons au LHC. Pire, le triomphe de la théorie standard pourrait indiquer qu'il est à tout jamais hors de portée de la technologie humaine de mettre en évidence directement cette nouvelle physique car nous ne serons jamais capables de construire des accélérateurs assez puissants pour cela (ils pourraient devoir être de la taille de la Voie lactée).

Tout espoir n'est cependant pas perdu. Il est en effet possible d'améliorer encore la précision de ces mesures mais, pour cela, il faut augmenter le nombre de collisions afin de : « faire grimper la statistique », comme disent les physiciens dans leur jargon. Pour obtenir cette augmentation du nombre de collisions en un temps raisonnable, et pas au bout d'un siècle par exemple, il faut faire augmenter ce que l'on appelle : « la luminosité des faisceaux de protons ».

Il est facile de comprendre pourquoi en comparant la situation à la problématique de la formation d'une bonne image avec un appareil photo. Il est nécessaire de faire entrer rapidement suffisamment de lumière pour éviter un temps de pause trop long et, tout simplement, pour avoir assez de photons afin d'obtenir une image assez détaillée et, ainsi, pouvoir identifier ce qu'elle représente et avoir des détails.

Des faisceaux de protons 5 à 7 fois plus lumineux avec le HL-LHC

C'est pourquoi, depuis des années, les ingénieurs et physiciens du Cern étaient engagés dans la conception d'un LHC à haute luminosité (HL-LHC) permettant de passer d'environ un milliard de collisions proton-proton par seconde à 5, voire 7 milliards de collisions par seconde, ce qui devrait permettre d'accumuler environ 10 fois plus de données entre 2026 et 2036, au moment où le HL-LHC partira à son tour à la chasse à de la nouvelle physique.

Or, le laboratoire européen vient de faire savoir dans un communiqué que les travaux de génie civil pour le HL-LHC avaient commencé. Ceux-ci permettront d'installer dans des tunnels et des halls souterrains de nouveaux équipements cryogéniques et systèmes d'alimentation électrique associés à de nouveaux et nombreux composants de haute technologie tels que des aimants supraconducteurs et des cavités radiofréquences. L'objectif est notamment de se servir d'environ 130 nouveaux aimants pour comprimer les paquets de protons, et, donc, augmenter la luminosité des faisceaux.

Comme l'a dit Fabiola Gianotti, directrice générale du Cern, « le LHC à haute luminosité étendra la portée du LHC au-delà de sa mission initiale, apportant de nouvelles opportunités de découvertes, de mesurer avec plus grande précision les propriétés de particules comme le boson de Higgs et de sonder encore plus profondément les constituants fondamentaux de l'univers ». Espérons qu'il permettra de valider la théorie de la supersymétrie, voire de découvrir que les particules de matière sont en fait composées de rishons.

Ce qu'il faut retenir

  • Augmenter le nombre de collisions par seconde avec des faisceaux de protons permet d'augmenter la production de particules ou de réactions rares, et donc d'étudier celles-ci plus facilement en un temps raisonnable, plus court qu'une vie de chercheur de préférence !
  • Il faut, pour cela, augmenter la luminosité de ces faisceaux comme on augmenterait celle d'un faisceau de lumière pour faire une bonne photographie.
  • Le Cern a entrepris de construire une version améliorée du LHC, le HL-LHC, un LHC à haute luminosité pour chasser de la nouvelle physique qui se cacherait dans ces évènements rares. »

Cet article de Sacco n’élude pas ce qui est grandement décevant depuis la mise en œuvre en 2010 du LHC. Toutefois il participe à la confirmation de la croyance qu’il faut continuer comme avant et ce n’est plus qu’un problème de statistiques (sic). Comme je l’ai déjà indiqué dans l’article du 16/01/2016 : ‘Et si notre pensée était mal placée’, pour recueillir de nouvelles données significatives, il faut que théoriquement notre regard soit déjà bien orienté pour voir dans l’infiniment petit de l’espace-temps des phénomènes possibles, nouveaux, préalablement pensés. Prévoir que la nature nous fasse voir au hasard quelque chose de neuf sans que l’intelligence des physiciens l’ait préalablement potentiellement envisagé relève d’une conception paresseuse, franchement erronée. C’est croire que la physique relève d’un monde réel, finalisé, alors que, selon mon point de vue, la physique relève d’un monde qui ne peut être que préalablement envisagé pour être décrypté au fur et à mesure de l’évolution de nos aptitudes à le penser. La réalité c’est que parmi tous les possibles qui constituent le monde nous ne pouvons accéder à l’intelligence de ceux-ci que par étape. L’étape actuelle de notre intelligence du monde ne doit pas être considérée comme une étape d’aboutissement mais elle doit être considérée comme un tremplin pour accéder à l’intelligence de possibles pas encore décryptés. Aucune étape ne correspond à un savoir acquis par les physiciens qui aurait une quelconque composante universelle.

            L’article suivant publié dans Phys.org et fourni par le CERN comprend un pot- pourri d’arguments qui laisse transparaître qu’il y a de sérieuses inquiétudes dans l’air. Il est traduit par mes soins. Je propose une analyse critique à sa fin.

Article fourni par le CERN le 06/07, de Tim Gershon : ‘Nous avons besoin de parler du Higgs’ :

« Il y a six ans que la découverte du boson de Higgs a été annoncée, en grande fanfare dans les médias du monde, présentée comme un succès couronnant le grand collisionneur de hadrons du CERN (LHC). L'excitation de ces jours semble maintenant un lointain souvenir, remplacée par un sentiment de déception croissant en l'absence depuis de toute découverte majeure.

Bien qu'il y ait des raisons valables de se sentir moins que satisfaits par les résultats nuls de recherches de la physique au-delà du modèle standard (MS), cela ne justifie pas une humeur de découragement. Une préoccupation particulière est que, dans le monde d'aujourd'hui hyperconnecté, des discussions académiques apparemment inoffensives risquent d'évoluer dans une perspective négative dans le domaine de la société élargie. Par exemple, des articles nouveaux et récents dans le ‘Natureled’ sur le LHC : "Echec de détection de nouvelles particules au-delà du Higgs" et dans ‘The Economist’ qui reportait que "La physique fondamentale frustre les physiciens. " Tout aussi inquiétant, la situation en physique des particules est parfois négativement comparée avec celle des ondes gravitationnelles : alors que cette dernière est, à juste titre, annoncée comme le début d'une nouvelle ère d'exploration, la découverte du Higgs est souvent décrit comme la fin d'un long effort pour compléter le MS.

Examinons les choses plus positivement. Le boson de Higgs est un tout nouveau type de particule fondamentale qui permet des tests sans précédent de rupture de symétrie électrofaible. Il nous fournit ainsi un microscope neuf avec lequel sonder l'univers aux plus petites échelles, en analogie avec les perspectives pour les nouveaux télescopes d'onde gravitationnelle qui étudieront les plus grandes échelles. Il est clairement nécessaire de mesurer ses couplages à d'autres particules – en particulier son couplage avec lui-même – et d'explorer les connexions potentielles entre le Higgs et les secteurs cachés ou obscurs. Ces arguments seuls (sic) fournissent une motivation suffisante pour la prochaine génération de collisionneurs, comprenant l’amélioration du LHC avec la haute luminosité et au-delà.

Jusqu'à présent, le boson de Higgs semble être un produit du MS (SM-like), mais une certaine perspective est nécessaire. Il a fallu plus de 40 ans entre la découverte du neutrino à la réalisation qu'il n'est pas sans masse et donc pas un SM-like ; s'attaquer à ce mystère est désormais un élément clé du programme mondial de la physique des particules. En ce qui concerne mon domaine de recherche principal, le quark beauté (b) - qui a atteint son 40e anniversaire l'an dernier - est un autre exemple d'une particule aux données scientifiques longuement établies, et elle fournit maintenant des informations passionnantes de nouveaux phénomènes (voir quarks Beauté test lepton universalité). Un scénario passionnant, si ces déviations par rapport au SM sont confirmées, est que le nouveau paysage physique peut être exploré à travers les microscopes de b et de Higgs. Appelons-le : "Physique des particules multi-messages. "

La façon dont les résultats de nos recherches sont communiqués au public n'a jamais été aussi importante. Nous devons être honnêtes au sujet de l'absence de nouvelle physique que nous espérions tous trouver dans les premières données du LHC, de là à caractériser ceci comme un « échec » est absurde. S’il y a un domaine où le LHC a eu plus de réussite que prévue, c’est celui du remarquable taux de données enregistrées et livrées.  La physique des particules est centrée, après tout, sur l'exploration de l'inconnu ; l'analyse des données du LHC a conduit à des milliers de publications et une multitude de nouvelles connaissances, et il est tout à fait possible qu'il y ait de grandes découvertes en attente d'être faites avec d'autres données et des analyses plus innovantes. Nous ne devrions pas négliger les retours des bénéfices pour la société que le LHC a apportés, les développements technologiques et ses dérivés associées telle que la formation de milliers de jeunes chercheurs hautement qualifiés.

Le niveau d'attente et d’espérance à propos du LHC semble avoir été sans précédent dans l'histoire de la physique. Une autre installation a-t-elle été considérée comme ayant produit des résultats décevants parce qu'une seule découverte gagnante du prix Nobel a été faite dans ses premières années d'opération ? Peut-être cela reflète-t-il que le LHC est tout simplement la bonne machine au bon moment, mais que son temps n'est pas terminé : notre nouveau microscope est mis au point pour courir pendant les deux prochaines décennies et de placer la physique à l'échelle du TeV (1012eV) en tant qu’objectif clairement défini. Plus nous en parlons, plus nous avons de chances de succès à long terme (sic). »

Je veux rappeler qu’aux tout début du fonctionnement du LHC, sur le site même du CERN, il y avait l’annonce publicitaire : on va reproduire l’événement du big-bang, cela fut effacé au bout d’une semaine mais la tromperie était établie. Mettre en avant la formation de milliers de jeunes chercheurs hautement qualifiés n’est pas assurément à mettre au bilan des retours bénéficiaires s’ils sont formés à la théorie qui conduit à l’impasse que nous connaissons aujourd’hui, comme ce fut le cas pour ceux que l’on a, autrefois, canalisé vers la théorie des cordes, (voir le livre de L. Smolin : ‘Rien ne va plus en physique ! L’échec de la théorie des cordes.’)

Comme signalé, il est évident que les retours technologiques dus au LHC et au site du CERN en général sont remarquables et incontestables et la société civile, vous et moi, nous en sommes bénéficiaires.

En fait ce qui est en jeu c’est le financement de la prochaine génération de collisionneurs en Europe, puisqu’il y a un niveau de résultats scientifiques trop faible avec le LHC, pourquoi à l’avenir financer des dispositifs encore plus coûteux alors qu’actuellement il n’y a pas d’arguments tangibles qui justifieraient l’immobilisation de plusieurs milliards d’euros, alors que d’autres programmes scientifiques ont le vent en poupe grâce à la production de résultats très significatifs, originaux, comme cela est le cas, par exemple, dans le domaine de l’astrophysique. 

Partager cet article
Repost0
1 juillet 2018 7 01 /07 /juillet /2018 06:17

Comment la croyance en la beauté a déclenché une crise de la physique.

            Le sujet de l’article que je propose est motivé par celui développé dans le livre de Sabine Hossenfelder : ‘Lost in Math’, ‘Perdu en Math’, auteure physicienne théoricienne au ‘Frankfurt Institute for Advanced Studies in Germany’, qui explore le bourbier (sic) dans lequel la physique théorique se trouve depuis quelques décennies à cause de la prolifération de théories conçues qui privilégient des critères esthétiques. Elle met franchement les pieds dans le plat en posant directement la question suivante : « Pourquoi les lois de la nature se soucient-elles de ce que je trouve beau ? » J’ai déjà abordé ce sujet de la ‘beauté’ a priori (article du 20/03/2018) qui serait naturelle et constituant en conséquence un critère de discrimination des bonnes lois de la nature de celles qui ne rendent pas compte de la réalité naturelle. P. Dirac fut un physicien qui dans les années 1930 a explicité que ce critère lui servait de guide pour sélectionner le bon chemin du développement des bonnes lois mathématiques qui embrassent les bonnes lois de la nature. Effectivement cette croyance a conduit P. Dirac à mettre en évidence sous la pointe de son stylo l’antiélectron : le positron. Résultat remarquable !

            Il serait erroné de qualifier ce résultat comme fruit d’un hasard heureux. A mon avis, il rend compte d’une méthode qui a pleinement sa valeur à l’époque de P. Dirac étant donné l’état de la connaissance des propriétés de la nature. Disons qu’à cette époque, les physiciens théoriciens avaient besoin d’inventer ce type de critère pour poser leur pensée créatrice afin qu’elle puisse se développer. Cela correspond à l’ordre Kantien que j’ai mis en valeur dans l’article précédent du 11/06. L’erreur, c’est de penser que ce type de critère est universel et qu’il vaut définitivement alors qu’il faudrait considérer qu’il est fertile jusqu’à un certain niveau de prospection et de connaissance de certaines lois de la nature. Pour voir plus loin, il faut maintenant cogiter, en dehors de toute pensée routinière et conservatrice, un nouveau critère (paradigme) voire plusieurs.

            Deux physiciens importants ont déjà exprimé leur point de vue critique concernant l’exploitation jusqu’à la corde de l’élégance mathématique et de son pouvoir de prédiction à l’encontre de l’évidence empirique, notamment en ce qui concerne la théorie des cordes supersymétriques et la quête de la théorie du tout. Il s’agit de Lee Smolin avec son livre en 2006 : ‘The trouble with Physics’ et de Peter Voit : ‘Not Even Wrong’.

            De L. Smolin : « ‘Le problème avec la physique, est très critique à l’égard de l’importance accordée à la théorie des cordes qui a écarté des recherches vers des approches prometteuses. Smolin indique que la théorie des cordes souffre de déficiences sérieuses et bénéficie d’un quasi-monopole malsain au sein de la communauté des théoriciens de la physique des particules… »

            La même année en 2006, P. Voit publie un livre dont les conclusions sont semblables à celles de Smolin, à savoir que la théorie des cordes était depuis le début un programme de recherche fondamentalement imparfait.

            De P. Voit : “Depuis les 18 dernières années la théorie des particules a été dominé par une unique approche visant l’unification du modèle standard des interactions et de la gravité quantique. Cette ligne de pensée s’est durcie en une nouvelle orthodoxie postulant une théorie supersymétrique fondamentale inconnue impliquant des cordes et d’autres degrés de liberté à l’échelle de Planck. Il est frappant de constater qu'il n'y a absolument aucune preuve pour cette théorie complexe conjecturée et peu attractive. Le seul argument généralement donné pour justifier cette image du monde est que les théories perturbatives des cordes font apparaître un mode de spin 2 pour une particule sans masse qui serait le graviton et pourrait donc fournir une explication de la gravité. »

            Depuis 2006, il faut reconnaître que cet engouement pour la théorie des cordes a heureusement nettement diminué. La raison est simple : elle n’a pas proposé des possibilités de vérifications de la moindre prédiction et celles-ci s’éloignent au fur et à mesure que la théorie est développée.

            Pourtant, il n’est pas possible de nier que l’exploitation de propriétés de symétrie pour franchir certaines étapes de compréhension de lois de la nature a porté ses fruits. Lorsque Emmy Noether (mathématicienne Allemande (1882-1935)) a démontré en 1915 le théorème mathématique précisant que lorsqu’il y avait transformation symétrique, il y avait concomitamment conservation de certaines grandeurs et puisqu’il n’y a rien de plus confortable que de travailler avec des grandeurs invariantes d’un état physique à un autre on devine que la quête des grandeurs invariantes et/ou des transformations symétriques a guidé les cogitations des théoriciens. Par exemple les invariances/symétries de jauge ont pris appui sur la première propriété conjecturée du modèle standard conduisant à l’électrodynamique quantique dont la grandeur invariante est la charge de l’électron. Rien n’est plus plausible que l’invariance de cette grandeur ! De plus, c’est l’introduction du champ électromagnétique, c’est-à-dire le photon, dans l’expression mathématique des équations de l’électrodynamique qui assure la symétrie dite de jauge.

            A partir de là les physiciens ont considéré qu’il était possible de définir les autres interactions fondamentales identifiées sur des bases conceptuelles semblables, ce qui faciliterait ensuite la mise en œuvre d’un processus théorique visant une expression unifiante de ces interactions. Pour ce faire des hypothèses supplémentaires ont été ajoutées, dans certains cas aux forceps, sans justifications probantes sinon mathématiques, pour rester dans le cadre d’un modèle standard. Souvent il m’est arrivé de juger que la théorie quantique des champs du modèle standard est un mille feuilles de couches d’hypothèses artificielles, ad hoc, très/trop fragile.  

            Ainsi, on peut lire dans certains ouvrages de théorie quantique des champs, sans aucune référence à des résultats expérimentaux, : « Pour que les neutrinos deviennent massifs, il suffit (sic) d’introduire les champs des antineutrinos gauches (ou des neutrinos droits) et d’ajouter les termes… à la densité Lagrangienne[1]. »

            En 2011, le 8/11, j’ai posté un article « Qui se permettra de le dire », et je manifestai ma complète insatisfaction ainsi que l’orthodoxie qui prévaut avec la théorie quantique des champs. S. Hossenfelder se permet de le dire d’une voix tranchante et je suis d’accord avec son questionnement principal : « Pourquoi les lois de la nature se soucient-elles de ce que je trouve beau ? », puisqu’elle explicite clairement : « L’idée de la beauté qu’en ce monde j’adore » (poème de J. du Bellay (1522-1560)) est une projection a priori de la pensée scientifique des physiciens sur la nature. Cela valide que, depuis onze ans, j’assure un enseignement intitulé sous l’expression générique : « Faire de la physique avec ou sans ‘Présence’ » où le ‘je’ ne doit pas être occulté.

            Une des preuves du caractère partiel, partial, que l’auscultation des lois de la nature sur la base de ses propriétés de symétries et de l’occurrence de la brisure de ses symétries sur laquelle a été construit le modèle standard des particules, c’est qu’in fine le modèle standard comprend 19 paramètres libres. La valeur de chacun de ces paramètres est obtenue par l’expérience, par l’observation. Chacune de ces valeurs s’impose et ne peut être justifié par la théorie. Ainsi en est-il, par exemple, de la valeur de la charge électrique fondamentale de l’électron, des constantes de couplage des interactions fondamentales… etc., et tout autant de la constante de Newton. Ainsi on peut lire dans ‘Large Hadron Collider Phénoménology’, édité en 2004, page 109, de J. Ellis : « Si ces 19 paramètres ne sont pas suffisants pour vous consterner, au moins 9 paramètres supplémentaires doivent être introduits pour s’accommoder de l’oscillation des neutrinos : les masses des trois neutrinos, les 3 angles de mélanges, et les 3 phases de violations CP. De plus, il y a beaucoup d’autres paramètres cosmologiques qui doivent êtres cherchés et expliqués, la constante de Newton et l’énergie du vide cosmologique. On voudrait aussi construire une théorie du champ pour modéliser l’inflation et nous avons certainement besoin d’expliquer l’asymétrie baryonique dans l’univers. Donc, il y a plein de recherches en physique au-delà du modèle standard. »

            Si l’on considère qu’il faut transcender (comme je le suggère) l’approche du couple symétrie/brisure pour découvrir des lois plus profondes de la nature que celles mises en évidence jusqu’à présent, peut-être faudra-t-il qu’un cap de nos moyens cognitifs soit franchi si ce n’est déjà le cas. En effet, en écrivant cet article, je découvre celui écrit dans le ‘Dictionnaire d’histoire et philosophie des sciences’, page 894 dans la rubrique : ‘Symétrie’, qui est certes daté (1999) mais intéressant : « Bien des ethnologues ont, pour leur part, observé le rôle symbolique que joue dans les sociétés les rapports symétrie/dissymétrie, et finalement ce couple serait utilisé comme support de sens culturel et symbolique. Ces constats soulèvent la question de savoir s’il existe une donnée irréductible de la conscience, d'origine biologique, qui rende l'être humain sensible aux structures symétriques et, par contraste, aux brisures de symétrie d'une façon qui attire son attention et les lui fasse sélectionner. Il semble bien, en effet, que ces propriétés constituent des moyens cognitifs élémentaires qui permettent de conjuguer des exigences conjointes de permanence et de stabilité d'une part, de capacité de changement et de variabilité de l'autre, nécessaires pour appréhender et catégoriser le réel. La sensibilité à la symétrie - et son utilisation en vue de la signification relèverait alors d'un schème cognitif profond dont l'aptitude serait génétiquement présente chez tous et dont la mobilisation serait épigénétiquement assurée[2], notamment par l'environnement culturel qui lui permettrait de s'exprimer par des modalités diverses. Des travaux récents (Enquist el al., Johnstone, Kirkpatrick et al.) sur la perception animale suggèrent de rapporter une telle sensibilité aux propriétés d'apprentissage de « réseaux de neurones », qui reconnaissent plus aisément un objet symétrique s'il se présente dans les positions différentes du fait de ses invariances. Ces recherches sont encore embryonnaires et leurs premiers résultats restent sujets à larges débats… Par-delà perception sensible et significations associées, la question de la symétrie comme telle et comme source d’invariances a gagné le domaine de l’intelligibilité scientifique… »

Ce tropisme profond à propos de ce qui est symétrique correspond exactement à ce que je caractérise comme une détermination de la pensée humaine qui ne doit pas être considérée comme une limite de celle-ci car l’être humain a évidemment l’aptitude de s’émanciper des déterminations qui l’habitent. Ce processus d’émancipation je l’exprime (dans de nombreux articles) avec le schéma de l’évolution que je privilégie : l’Être de la Nature se fait Être dans la Nature au fur et à mesure qu’il accède à la compréhension des lois de celle-ci. C’est effectivement le rapport de connaissances du sujet pensant avec la nature que je privilégie comme étant la cause essentielle de l’évolution de l’être humain.

Je reviens maintenant au plus près des critiques acerbes avancées par S. Hossenfelder dénonçant l’exploitation unilatérale et abusive des propriétés de symétrie à propos de la physique, qui sont difficilement acceptables par un grand nombre de physiciens qui évoquent notamment la découverte des quarks par Murray Gell-Mann et qui le jour de la réception du prix Nobel déclare : « La beauté des lois basiques de la science de la nature, telle qu’elle se révèle dans l’étude des particules et du cosmos, est l’alliance de la souplesse d’une scie à bec plongeant dans un pur lac Suédois. » L’auteure reconnaît la valeur de ces arguments mais elle remet aussi en cause ceux qui cherchent à briser l'impasse actuelle de la physique en insistant sur le fait que la nature doit être toujours belle. Elle admet que « se plaindre des préjugés esthétiques » ne fera pas disparaître les problèmes intimidant de la physique, et elle plaide pour quelques règles de base. Il s'agit notamment de s'assurer qu'il existe un véritable problème, qui émerge des conflits existants entre théorie et données ; être clair au sujet de ses hypothèses (comme le désir de nature ou de simplicité) ; et en utilisant des preuves empiriques pour choisir les bonnes mathématiques pour la physique à portée de main. Ces preuves empiriques sont ses points de boussole pour nous empêcher de perdre notre chemin dans une jungle mathématique, toutefois aussi belle.

J’ajouterai un autre problème, qui aussi expliquerait le bourbier dans lequel la physique théorique se trouve depuis quelques décennies, c’est celui qui est lié au syndrome de ‘Lucky Luke’ qui tire plus vite que son ombre. Transposé en physique, cela concerne les physiciens qui publient plus vite que leur pensée. C’est la loi de la publication à tous prix qui conduit à cette frénésie et ses conséquences négatives deviennent de plus en plus encombrantes. Ainsi quand fut publié tout récemment le résultat remarquable de la formation des premières étoiles dans l’univers et que cette observation renforcée l’énigme de la température de l’univers à cette époque (180 millions d’années post big bang) simultanément un théoricien publié : moi, moi, j’ai l’explication.

 

 

 

[1] Page 319, Théorie quantique des champs, de J.P. Derendinger, 2001.

[2] Dans ce cas, dans l’article du 05/01/2018 : ‘Turing or not Turing’, la communication de S. Dehaene à propos de la pensée géométrique d’Homo erectus serait appropriée à condition de considérer que la cause première de cette pensée géométrique est une aptitude génétique préalablement présente. Il est vraiment intéressant de pouvoir approfondir ce sujet.

Partager cet article
Repost0
23 juin 2018 6 23 /06 /juin /2018 11:52

Cela s’allume beaucoup plus tôt que prévu.

Premières étoiles

Fin février, un article annonce que des astronomes auraient détecté des signaux caractéristiques correspondant à l’émission de lumière des toutes premières étoiles en activités peu après la naissance de l’univers, c’est-à-dire 180 millions d’années après le big bang. Ces tous premiers astres désignés : étoiles de la « population III »[1], constitueraient, si cela est confirmé, un véritable Graal scientifique.

            Ce qui est aussi remarquable c’est l’instrument de détection employé par l’équipe de Judd Bowman : une petite antenne (EDGES) située dans le désert Australien à l’abri de longueurs d’ondes parasites et sensible à la réception de l’onde radio de l’ordre de 3,8 m correspondant à la longueur d’émission de 21 cm rayonnée, à l’origine de la formation de l’étoile, par l’hydrogène ambiant ionisé (redshift de l’ordre de 20). Ce résultat est obtenu après 12 années d’efforts de recherche.

            Ce qu’il faut retenir avec ce premier résultat c’est qu’il n’est pas en accord avec le modèle théorique de la cosmologie car dans ce cadre, la température du gaz primordiale prédite par ce modèle (6°K) est encore trop élevée pour qu’il y ait accrétion du gaz primordial sous l’effet de l’interaction gravitationnelle. L’observation obtenue par J. Bowman et son équipe nous conduit à inférer qu’à cet âge de l’univers la température est deux fois plus faible soit 3°K. Ainsi, dès lors que le résultat de J. Bowman sera confirmé il faudra que le modèle théorique de la cosmologie soit notablement revisité.

            A la mi-Mai, une observation convergente est publiée. L’article en question annonce avoir détecté des étoiles formées 250 millions d’années après le big bang. L’existence de ces étoiles, annoncée par une équipe japonaise, est certes indirecte mais digne du plus grand intérêt car elles sont inclues dans une galaxie qui aurait 500 millions d’années. Et celle-ci a été observée par le télescope Hubble puis par Alma. Les traces d’oxygène dans la jeune galaxie permettent de dater les premières étoiles comme cela est annoncé.

            Premières galaxies.

La date réelle de la formation des premières galaxies est tout autant très différente de celle qui est théorisée (a priori on prévoit qu’il faut entre 500 millions et 1 milliard d’années pour qu’une galaxie se forme). Après observation, grâce à des télescopes de plus en plus performant, il est maintenant estimé que les plus petites (basiques) galaxies pourraient se former dès 300 millions d’années post big bang. Les premières observées datées rigoureusement, le sont à 550 millions. Grâce à Alma[2], il fut observé des galaxies beaucoup plus massives que prévues et plutôt récentes car datées à 780 millions d’années. Ce résultat a été publié en décembre 2017, (revue Nature), indiquant aussi qu’au sein de ces galaxies le taux de formation de nouvelles étoiles par an est de l’ordre de 2900 masses solaires. Ces galaxies très actives (puisque par comparaison dans notre galaxie, actuellement, il se forme à peu près 1 à 2 étoiles par an) contiennent une masse de gaz (hydrogène et lithium…primordial) estimée à 270 milliards de fois la masse du soleil et une masse de poussière (forgée par les étoiles de la génération précédente) estimée à 3 milliards de fois la masse du soleil. Comme s’exclame un des auteurs de l’article : « C'est une extraordinaire énorme quantité de poussière, compte tenu du jeune âge du système ! »

Premiers amas de galaxies

Des observations récentes de l'Univers lointain ont révélé deux amas de galaxies qui se seraient formés il y a plus de 12 milliards d'années, à une époque où l'on pensait que de telles structures n'avaient pas eu le temps de se créer. De quoi bouleverser les certitudes des astrophysiciens. Ces deux embryons d'amas galactiques, des proto-amas formés respectivement de quatorze et dix galaxies en train de fusionner, ont été repérés quand l'Univers n'était âgé que de 1,4 milliard d'années pour le premier, et I,5 milliard d'années pour le second. Soit nettement plus tôt que prévu puisque jusqu’à présent, les astronomes pensaient, avec le modèle théorique, que ce phénomène se produisait 3000 millions d’années après le big bang. En effet le modèle actuel prévoit que ce type d’amas très massif a besoin de beaucoup plus de temps pour évoluer.

            Nous observons directement que les premières étoiles s’allument beaucoup plus tôt que cela est théorisé. Nous constatons que les galaxies se forment beaucoup plus tôt qu’imaginé par le modèle standard et en plus celles-ci se regroupent pour former les premiers amas en une durée deux fois inférieure à celle théoriquement programmée. Ces constatations ne tarissent pas pour autant les raisons de réviser profondément la conception la plus en cours de l’émergence de l’univers en un big bang qui à partir de cet instant se déploierait et se structurerait.

            Grâce aux moyens d’observations de plus en plus technologiquement sophistiqués qui sont à l’œuvre actuellement et en prévision de ceux dont nous disposerons dans un futur proche, nous découvrons dans l’univers primordial d’autres objets célestes dont les caractéristiques sont phénoménales  et théoriquement totalement imprévisibles, ainsi en est-il des Quasars.

Premiers Quasars

            En décembre 2017, il a été publié le résultat de l’observation d’un trou noir supermassif le plus lointain (publication en décembre 2017), jusqu’à présent jamais observé. Le trou noir est situé au centre d’un quasar[3] très brillant et la lumière émise nous permet de le situer à 690 millions d’années après le big bang. Le trou noir est estimé à 800 millions de fois la masse de notre soleil et les caractéristiques font de ce quasar une anomalie dans l’univers primordial.

            A la mi-mai, des chercheurs australiens ont publié le résultat d’une observation phénoménale, il s’agit d’un quasar qui en son cœur gîte un trou noir dont la taille est estimée être de l’ordre de 20 milliards de masse solaire (sic) et il se situe à un peu plus d’un milliard d’années après le big bang. Chaque deux jours il accrète l’équivalent d’une masse solaire ce qui fait qu’il s’accroît d’un pour cent chaque million d’années.

            Un des découvreurs de cet objet phénoménal précise : « Ces énormes trou noir avec une croissance si rapide sont excessivement rares et nous l’avons cherché pendant de nombreux mois. Le satellite européen Gaia, qui mesure les très petits mouvements des objets célestes nous a beaucoup aidé à trouver ce trou noir supermassif… Nous ne savons pas comment celui-ci a pu grossir autant et si rapidement dans les premiers temps de l’Univers. »

            Toutes ces données que j’ai sélectionnées ci-dessus ont été publiées ces six derniers mois. A priori aucunes ne cadrent avec le modèle théorique standard cosmologique. Toutefois, beaucoup de cosmologistes pensent qu’il est trop tôt pour dire que ce modèle standard est définitivement caduc. En effet, il est encore supposé que ces nouvelles données pourraient provoquer, certes, de très sérieux ajustements sans qu’il soit pour autant obligatoire de l’abandonner comme modèle de référence.

            Le modèle standard a été conçu principalement grâce à l’obtention de la première image de l’univers offerte par le fond diffus cosmologique 380 000 ans après le big bang. Il a été considéré que cette première image contenait toute l’information nécessaire et suffisante pour imaginer et décrire ce qui s’est produit avant la formation de cette image depuis le big bang puis décrire et ajuster en fonction de ce que l’on était en mesure d’observer après 380 000 ans grâce à toute la panoplie de nos instruments.

            Il est certain que cette première image a la valeur d’un vaste filet de connaissances qui nous a permis de saisir et décrypter des informations essentielles qui pendant 30 années ont été exploitées avec le bénéfice que l’on reconnaît mais l’erreur qui coure maintenant c’est de croire que les mailles du filet sont suffisamment serrées pour contenir toute l’information. Disposer d’un modèle de référence constitue un confort intellectuel collectif de premier ordre pour enrichir notre compréhension de l’univers mais il ne doit pas nous aveugler et provoquer une inertie intellectuelle collective.

            Un bel et malheureux exemple de cette certitude aveuglante nous est proposé avec l’article publié le 19/06 par Techno-science : « Le modèle cosmologique le plus simple de nouveau favorisé ? » (En copie ci-dessous). Tout ce que j’ai présenté comme étant autant de nouvelles indications qui pourraient remettre en cause le schéma classique est parfaitement ignoré. L’équipe de Planck continue de travailler sur la même base de données qui a été collectée par le satellite en 2013 et montre qu’elle est imperméable à des bases d’informations plus récentes. Elle ne s’interroge pas sur le fait qu’elle se retrouve en accord avec son premier scénario ni qu’elle puisse tout simplement induire ce scénario parce que sa base est loin d’être exhaustive. Il est remarquable qu’elle évalue en terme de quantités sans prendre en compte la dimension temporelle de la formation des objets célestes qu’elle prend en référence alors que l’on découvre que la chronologie de la formation de chacun de ces niveaux structurels s’avère être une bonne raison de remettre l’ouvrage sur le métier.

Le modèle cosmologique le plus simple de nouveau favorisé ?

En 2013, les résultats de Planck ont mis en évidence pour la première fois un désaccord entre les paramètres cosmologiques déterminés par le fond diffus cosmologique et ceux obtenus en analysant l'abondance des amas de galaxies détectés par Planck. Celui-ci est confirmé lors de la seconde analyse de Planck en 2015 ainsi que par des analyses indépendantes impliquant l'utilisation du lentillage gravitationnel ou d'amas de galaxies observés dans le domaine des rayons X. Des chercheurs ont montré, à la lumière d'une nouvelle analyse, que le fond diffus cosmologique et l'abondance des amas de galaxies observés par Planck convergent vers le modèle cosmologique standard le plus simple, dominé par la matière noire froide et une constante cosmologique.
Le fond diffus cosmologique et l'abondance des amas de galaxies permettent de mesurer les paramètres cosmologiques aussi bien indépendamment qu'en
combinaison. Jusqu'en 2013 et les premiers résultats de Planck, le nombre d'amas de galaxies utilisables pour des analyses cosmologiques était trop faible. Les mesures des paramètres cosmologiques déduites étaient donc entachées de grandes barres d'erreurs et donc peu fiables. En 2013 et grâce à environ 200 amas de galaxies observés par le satellite Planck, une mesure précise des paramètres cosmologique a été possible montrant un désaccord entre les paramètres cosmologiques déterminés par le fond diffus cosmologique et ceux obtenus en analysant l'abondance des amas de galaxies. Il portait notamment sur la mesure de la densité de matière dans l'univers et sa distribution aux très grandes échelles. Ce désaccord a été confirmé lors de la second analyse de Planck en 2015, utilisant près de 500 amas de galaxie, ainsi que par des analyses indépendantes basées sur l'utilisation du lentillage gravitationnel ou d'amas de galaxies observés dans le domaine des rayons X.

Une telle différence ne pouvait avoir que deux origines possibles: soit la
masse des amas observés était fausse d'un facteur deux, une hypothèse irréaliste étant donné l'état de l'art sur la compréhension des amas de galaxies, soit le désaccord était le signe d'un écart au modèle cosmologique le plus simple.


En 2016, Planck a publié de nouveaux résultats d'analyse du fond diffus cosmologique révisant notamment le paramètre cosmologique lié à la formation des premières étoiles dans l'univers. Dans une étude parue dans Astronomy & Astrophysics Journal, une équipe de chercheurs a effectué une re-analyse approfondie. Elle a utilisé ces nouvelles données dans une analyse complète combinant le fond diffus cosmologique, l'abondance des amas mais aussi leur fonction de corrélation angulaire sur tout le ciel. Cette nouvelle étude montre que le désaccord entre le FDC et les amas de galaxies est fortement réduit.
L'équipe a exploré des écarts au modèle cosmologique le plus simple, comme l'ajout de neutrinos massifs ou une composante d'
énergie noire différente de la constante cosmologique. Cette analyse montre qu'aucune de ces deux extensions au modèle cosmologie "standard" ne permet de résoudre le faible désaccord restant, qui doit encore être étudié et expliqué.
Le modèle cosmologique le plus simple avec l'époque de formation des premières étoiles nouvellement déduite de Planck, qui permet un meilleur accord entre le fond diffus cosmologique et l'abondance des amas de galaxies, semble donc favorisé.

 

 

[1] Les étoiles qui se forment à notre époque, dans l’univers local, sont de la « population I »

[2] Alma : Radiotélescope formé d’un réseau pouvant associer jusqu’à 66 antennes amovibles situé au Chili à 5500 mètres d’altitude. Il produit des images interférométriques d’une grande précision dans la gamme des ondes millimétriques.

[3] Un quasar (quasi star) est une galaxie très énergétique avec un noyau actif (AGN : active galactic nucleus ou NAG : noyau actif galactique). Les quasars sont les entités les plus lumineuses de l'univers. Un quasar est la région compacte entourant un trou noir supermassif au centre d'une galaxie massive.

Partager cet article
Repost0
11 juin 2018 1 11 /06 /juin /2018 12:04

Temps Quantique

            Le temps quantique a été évoqué par C. Rovelli, dans son livre : « L’ordre du Temps » (voir articles précédents), p.161 et autres, de la façon suivante : « Je crois que c’est ce temps thermique – et quantique – qui est la variable que nous appelons « temps » dans notre univers réel (sic), dans lequel une variable temps n’existe pas (sic) au niveau fondamental. » Cette phrase est étonnamment alambiquée car le niveau quantique est considéré comme un niveau fondamental, alors si comme il l’affirme il y a un temps quantique, que penser ? De plus il n’est pas approprié d’évoquer : « notre univers réel », scientifiquement on ne peut évoquer que l’univers tel qu’il nous apparaît, étant donné l’état actuel de nos connaissances.

            Analysons maintenant la référence sur laquelle s’appuie Carlo pour éclairer une conception du temps quantique qui participerait aussi à une appellation du temps qui n’existe pas au niveau fondamental :

P.161 : « Alain Connes, très grand mathématicien français, a eu une intuition brillante sur le rôle de l’interaction quantique à la racine du temps.

            Quand une interaction rend concrète la position d’une molécule, l’état de la molécule est altéré. La même chose vaut pour sa vitesse. Si la vitesse est concrétisée avant la position, l’état de la molécule change de façon différente de ce qui se serait produit si les deux événements advenaient dans l’ordre inverse. L’ordre compte (sic). Si je mesure d’abord la position d’un électron, et ensuite sa vitesse, je change son état de façon différente de ce que j’aurais fait en mesurant d’abord sa vitesse et ensuite sa position.

            On appelle ceci la « non-commutativité » des variables quantiques, parce que la position et la vitesse ne « commutent » pas, c’est-à-dire qu’elles ne peuvent pas échanger leur place impunément. La non commutativité est l’un des phénomènes caractéristiques de la mécanique quantique. Elle détermine un ordre, et donc un élément minimal de temporalité, dans la détermination des deux variables physiques. Déterminer une variable physique n’est pas une opération inoffensive, c’est une interaction. L’effet de ces interactions dépend de leur ordre, et cet ordre est une interaction. L’effet de ces interactions dépend de leur ordre, et cet ordre est une forme primitive de l’ordre temporel.

            Que l’effet des interactions dépende de l’ordre de leur succession est peut-être précisément un fondement de l’ordre temporel du monde. C’est l’idée fascinante avancée par Connes : le germe premier de la temporalité dans les transitions quantiques élémentaires réside dans le fait que celles-ci sont naturellement (partiellement) ordonnées.

            Connes a donné une version mathématique raffinée de cette idée : il a montré qu’une sorte de flux temporel est défini implicitement par la non-commutativité des variables physiques. »

            Il y a dans cet exposé ci-dessus une extrapolation qui conduit à de la confusion parce que ce sont les opérations de mesure des variables physiques qui ne commutent pas et on ne peut pas inférer sur la non-commutativité des variables physiques comme cela est affirmé.

            Cette remarque ne correspond pas à une volonté de chipotage mais respecte un des concepts fondamentaux prévalant aux bases non contredites de la physique quantique car à l’échelle de celle-ci l’objet en soi est inaccessible directement à notre connaissance et nous devons intervenir activement (instrumentalement) dans tout acte de connaissance des grandeurs qui caractérisent l’objet. Heisenberg a toujours affirmer que la séparation radicale entre l'«objet» et l'observateur à travers ses appareils de mesure est vraiment illusoire ainsi que parler de l’évolution d’un ensemble quantique entre deux mesures n’a pas de sens. Ainsi, il faut considérer que c’est l’ordre de l’intervention de l’observateur qui n’est pas commutatif puisque la mesure des variables conjuguées exige des dispositifs expérimentaux incompatibles.

Comment est-ce possible de considérer qu’il y aurait a priori de l’ordre dans la nature ? Cet ordre qui nous apparaît ne peut être que provisoire et il n’est que le reflet de la méthode d’investigation humaine qui ne peut être que pragmatique et progressive et évolutive au fur et à mesure des avancées de nos connaissances. Penser que la nature serait intrinsèquement ordonnée révèlerait une sorte d’anthropomorphisme qui parasiterait la liberté intellectuelle essentielle qui anime le désir d’enquête, le désir de savoir. L’être humain cherche à savoir parce qu’il s’interroge : « Parmi tous les possibles qui sont dans la nature quels sont ceux que je peux, avec mon bagage actuel, saisir ? »

            En conséquence à ce stade je considère qu’il n’est pas possible, en évoquant les travaux théoriques d’A Connes, d’inférer du ‘Temps intrinsèque de nature Quantique’. Cette évocation me semble d’autant moins plausible en prenant en compte la philosophie Kantienne qu’ici, avec cette citation, je fais mienne : « C’est nous-mêmes qui introduisons de l’ordre et de la régularité dans les phénomènes, que nous nommons nature, et nous ne pourrions les y trouver, s’ils n’y avaient été mis originairement par nous ou par la nature de notre esprit. » Cette citation, je la fais mienne parce qu’il me paraît évident que les « nous-mêmes qui introduisons… » évoluent avec les nouvelles connaissances mises en lumière. En ce sens en s’enrichissant la « nature de notre esprit » évolue et ce sera, par la suite, sur la base d’un nouvel ordre et d’une nouvelle régularité que la nature sera interrogée.  

            Je souhaite aussi reprendre une partie du livre de C. Rovelli qui cite A. Connes, p.164, à propos de son roman co-écrit : ‘Le théâtre quantique’. Puisqu’il propose un croisement avec ce qui est pensé dans un roman de fiction c’est que cela n’est pas, pour lui, aussi fictif et cet extrait reflèterait une pensée digne d’intérêt dans le livre de Carlo, en tous les cas pourrait nourrir une réflexion.

« Dans le roman de science-fiction d’Alain Connes : Charlotte, l’héroïne, réussit pendant un instant à percevoir intégralement l’information du monde, sans aucun flou.

Charlotte arrive à « voir » directement le monde au-delà du temps : « J’ai eu cette chance inouïe d’expérimenter une perception globale de mon être, non plus à un moment particulier de son existence, mais comme un ‘tout’. J’ai pu comparer sa finitude dans l’espace contre laquelle personne ne s’insurge et sa finitude dans le temps qui nous pose problème. »

            Elle retourne ensuite dans le temps : « J’avais l’impression de perdre toute l’information infinie prodiguée par la scène quantique, et cette seule perte m’entraînait irrésistiblement dans le fleuve du temps. » L’émotion qui en découle est une émotion du temps : « J’ai ressenti cette émergence du temps comme une intrusion, source de confusion mentale, d’angoisse, de peur, de dissociation. »

            On retrouve avec cette citation une antienne ambition du physicien qui est convaincu que son domaine de connaissance a vocation de hisser le ‘sujet pensant’ jusqu’au savoir absolu, universel, jusqu’au savoir englobant le ‘Tout’. L’histoire du développement de la connaissance en physique est jalonnée de ces carrefours où le plus réputé de la classe des physiciens de l’époque annonçait à ses pairs : encore un coup de rein, encore une bonne idée, encore quelques détails à régler et la théorie et les équations qui embrasseront le ‘Tout’ est à notre portée. Il est vrai que les savoirs en science physique émergent suivant un processus d’une rationalité très forte dans le cadre d’un langage mathématique qui pourrait être considéré comme un langage universel. Certes, langage qui a une certaine universalité, exactement celle que les êtres humains sont en mesure de concevoir, mais ce langage n’est absolument pas un don de la nature comme le postule le mythe platonicien. Mythe, dont son essence est d’atteindre aussi, en toute plénitude, l’idéal de la contemplation comme Charlotte en aurait été furtivement témoin : « Charlotte, l’héroïne, réussit pendant un instant à percevoir intégralement l’information du monde, sans aucun flou. » Et le temps serait le grand faucheur qui impose le flou.

Que C. Rovelli fasse appel à cet argument d’appoint, de son ami A. Connes, pour résumer son sujet de recherche et sa pensée n’est pas banal. Voilà pourquoi, je n’ai pas pu me retenir d’écrire cet article aussi spécifique sur le temps quantique parce que nous avons sous les yeux l’annonce que l’émergence du temps est comme une intrusion et source de confusion mentale… Alors que selon mon hypothèse le temps est un propre de l’homme, et il n’y a pas d’autre univers qui soit que celui qui est éclairé par le discours scientifique de l’homme. Dans le futur, il sera intéressant de voir comment des hypothèses aussi parfaitement antipodiques évolueront.

Partager cet article
Repost0
29 mai 2018 2 29 /05 /mai /2018 10:57

            Ignorance rédhibitoire : un non-sens anthropologique 

 

Cet article est encore consacré à l’analyse du livre de C. Rovelli. Lorsque durant un cours récent[1] j’ai précisé : « On constate donc contrairement à ce que nous dit C. Rovelli : « le temps serait la marque de notre ignorance », ce serait plutôt la conquête de la précision de sa mesure qui serait notre atout majeur, notre bistouri, pour conquérir de la connaissance. », un étudiant s’est immédiatement exclamé à juste raison : « Mais vos positions respectives ne sont pas si éloignées ! » Je lui ai fait une réponse à la Normande : « Oui et Non. »

Oui, parce que C. Rovelli indique implicitement que l’être humain, à cause d’une ignorance fatale dont il est porteur, serait fondateur d’un certain temps, mais de celui qui fait illusion. Selon lui, qui fait illusion parce qu’il sait que le temps qui serait vrai, celui du monde physique réel bien compris, n’existe pas. Et, je récuse cette affirmation.

Oui, quand même, parce qu’explicitement je suis convaincu que le ‘temps de la connaissance en physique’ est fondé par le sujet pensant que nous sommes et il n’y a que ce temps-là qui compte.

Donc mon oui, à la Normande, est restrictif. Mais on pourrait aussi considérer qu’il y a une accroche possible de nos points de vue parce qu’il y a d’un côté l’ignorance qui est en jeu et de l’autre côté il y a la conquête de la connaissance qui est en jeu. Si on veut bien considérer que la conquête de la connaissance c’est vaincre l’ignorance on pourrait retenir que cette accroche est quelque peu crédible.

Toutefois l’ignorance qu’évoque Carlo est définitive, elle ne peut pas être levée. C’est dans le chapitre 9 de son livre : « Le temps est ignorance » qu’il expose cette ignorance rédhibitoire. Car selon son point de vue, il y a une frontière intangible entre un monde quantique et un monde macroscopique comme il le définit : « un état macroscopique, c’est-à-dire un mélange d’états microscopiques, ou une vision floue du monde (sic) » ; « dans un système physique élémentaire… dont nous avons une vision floue décrite par des états macroscopiques, un état macroscopique quelconque détermine un temps (sic). » ; « Je répète ce point, car il s’agit d’un point clé : un état macroscopique (qui ignore les détails) singularise une variable particulière, qui a certaines caractéristiques du temps. » Enfin dernière citation, toujours dans le même chapitre : « La temporalité est profondément liée au flou. Le flou est le fait que nous soyons ignorants des détails microscopiques du monde. Le temps de la physique, en définitive, est l’expression de notre ignorance du monde. Le temps est ignorance (sic). »

Annoncer comme le fait Rovelli qu’il y aurait une ignorance humaine fatale qui serait la cause de l’illusion du temps et de son émergence n’est pas acceptable[2] car c’est ignorer l’histoire de l’évolution de la connaissance humaine. Prenons par exemple ce que l’on nommait le chaos avant Poincaré et ce qui constitue maintenant une théorie scientifique du chaos avec son cortège de connaissances nouvelles, extraites du flou chaotique, devenues accessibles tout au long du 20e siècle et depuis largement appliquées.

Pour interpeller Rovelli, je peux citer des exemples bien plus récents avec plusieurs articles du mois de Mars de cette année (voir mon article du 12/05/2018) qui nous annoncent que grâce à des horloges de plus en plus précises nous allons être capables de mesurer des intervalles de temps de l’ordre 10-19s au lieu de 10-16s et ainsi disposer de nouveaux moyens de ‘voir’ le monde quantique, ‘voir’ de la nouvelle physique. L’histoire du développement de la connaissance en physique du sujet pensant ne peut être que l’histoire d’une dynamique qui ne cesse de se renouveler et cette histoire nous montre que nous sommes toujours en mesure de lever le voile du flou et de l’indétermination apparents sur des phénomènes physiques jusqu’alors insaisissables. Cette dynamique fondamentale qui est de nature anthropologique a pour conséquence de sans cesse projeter l’être humain vers le futur et cette flèche du temps implicite n’est pas moindre que celle dite thermique que Rovelli privilégie p. 163 : « Je crois que c’est ce temps thermique – et quantique – qui est la variable que nous appelons « temps » dans notre univers réel, dans lequel une variable temps n’existe pas au niveau fondamental. » Bref l’errance épistémologique de C. Rovelli qui affirme avoir repérer l’ignorance humaine, préalable, définitive, est inappropriée. C’est un non-sens anthropologique.

Comme annoncé ci-dessus je cite un exemple typique de cette réduction en cours de l’ignorance en reprenant un paragraphe de l’article 21/04/2018 de M. Brooks du NewScientist qui relate la conquête en cours d’un savoir nouveau sur l’effet tunnel :

« C’est le but de Aephraim Steinberg, un physicien expérimentateur à l’université de Toronto au Canada. Il a passé des décades à réfléchir à la durée d’événements quantiques tel que l’effet tunnel, dans lequel une particule quantique tel qu’un électron atomique se heurte à une barrière d’énergie qui serait insurmontable pour une particule classique. Dans certains cas, l’électron est libéré de son atome et creuse à travers la barrière, apparaissant instantanément de l’autre côté. Ce n’est pas qu’une idée théorique : cela se produit, et c’est central dans le comment du fonctionnement de l’électronique moderne.

Selon la vision la plus populaire du comment l’effet tunnel se produit, dérivé de la théorie des champs quantiques relativistes, cela a lieu sans la moindre durée temporelle, avec des électrons voyageant plus vite que la lumière. Cela tire la sonnette d’alarme. « Beaucoup d’entre nous sont très prudents à ce sujet - nous ne devrions réellement pas penser à des choses voyageant plus vite que la lumière » selon Steinberg.

 

Effet tunnel dans le temps 

 

Steinberg souligne que la théorie indique que l’atome soumis à l’effet tunnel crée une intrication entre régions de l’espace des 2 côtés de la barrière. Des mesures indépendantes des 2 régions devraient donc faire la lumière sur comment temps, espace et matière sont en relation et si quelque chose « d’instantané » peut réellement avoir lieu. Cela pourrait même révéler quelque chose de plus profond sur la relation d’intrication quantique au temps. «Je pense qu’il y a un lien direct » dit Steinberg.

Son équipe a travaillé méticuleusement à poser la question expérimentalement. L’idée de base est d’avoir des atomes ultra froids, refroidis à un milliardième de degré au-dessus du zéro absolu, creusant un tunnel à travers une barrière formée par les champs électromagnétiques d’un rayon laser qui est étroitement focalisé. « Nous avons commencé à voir les atomes traversant le tunnel » relate Steinberg. « Maintenant nous devons ajouter la mesure de combien de temps ils restent à l’intérieur de la barrière. »

Le problème est qu’il n’y a pas d’horloge standard pouvant le faire - chaque atome doit porter son propre chronomètre. L’équipe travaille présentement à utiliser le spin intrinsèque des atomes, dont l’orientation tourne d’une valeur donnée dans un champ magnétique, comme mesure de la durée pendant laquelle ils ont ressenti le champ magnétique de la barrière. Le spin sera mesuré des 2 côtés de la barrière, et les réponses révèleront le temps mis par l’atome pour la traverser. Il s’agit de briques de technologies toutes connues, il est juste question de les faire travailler toutes ensemble » révèle Steinberg. »

Avec cet exemple nous avons une belle illustration du fait que nous sommes capables de lever le voile sur des phénomènes dont jusqu’à encore peu de temps nous étions obligés d’écrire les équations relatives à l’effet tunnel avec un temps imaginaire qui laisse penser que notre intelligence de l’effet tunnel était floue, inaboutie. Comme l’indique Steinberg nous sommes au bord de pouvoir voir effectivement les atomes traverser le tunnel et de mesurer la durée de la traversée. En conséquence l’effet tunnel devient un effet sans flou vis-à-vis de notre capacité de l’observer et de le décrire. Le recours au temps imaginaire n’est plus de mise et je rappelle que des scientifiques Australiens, en juin 2015, avaient déjà obtenu un résultat qui va dans ce sens mais grâce à une étude au moyen d’une simulation de l’effet tunnel d’un électron (voir article du 17/06/2015). Je considère que cet exemple est une belle illustration nous indiquant que la conquête de mesures de plus en plus précises d’intervalles de temps est une condition pour vaincre un état d’ignorance qui ne peut que s’estomper en éclairant de nouvelles lois physiques. Ceci est loin d’être conforme à l’affirmation de Carlo : « le temps est ignorance », car l’ignorance n’est pas, il n’y a que des états d’ignorance (s) provisoires pour l’être humain.  

J’ai déjà commis un article le 26/09/2015 : ‘Non, on ne pense pas quantique. Pas encore !’ qui précise ma conviction : ô combien l’ignorance, l’incompréhension, ne peuvent être chez l’être humain des états permanents. Ci-dessous des extraits de cet article :

« Etant donné ce que j’ai écrit p.4 dans l’article du 19/08 : ‘Fondamentalement : Renoncer’, je fus alerté lorsque j’ai découvert que le mensuel ‘Science et Vie’ d’octobre annoncé en couverture, d’une façon affirmative et au présent : ‘On pense tous quantique’. Or ce que j’ai exprimé le 19/08 est un futur avec l’idée suivante : ‘Cet encore indique qu’il faut accepter l’idée que le sujet pensant évolue et évoluera et qu’ainsi : ‘penser quantique’ pourra devenir progressivement, quelque peu, plus naturel. Personne ne saurait dire, encore combien de générations (2, 3 ou 1 ou 10 ?), mais en effet on peut être assuré que cette conquête intellectuelle en marche doit avoir en retour une influence sur notre culture scientifique collective et partant induire une intelligibilité de plus en plus affûtée de ce qui est de l’ordre du quantique. Au sens propre du terme, notre bagage intellectuel s’enrichit et la pratique du raisonnement propre à la mécanique quantique dans des domaines de plus en plus variés ne peut que progressivement nous accoutumer et rendre plus naturel une pensée quantique.’ ; « Je reste convaincu que dans la durée nous serons à même de décrypter d’une façon de plus en plus pertinente les propriétés fondamentales de la mécanique quantique et que, au moins, certains de ses postulats pourront être dénoués et deviendront directement explicites, sans pour autant qu’il y ait une cognition quantique qui soit obligatoirement à l’œuvre. Cette évolution est à mettre au compte de notre apprentissage de la mécanique quantique depuis un siècle, des succès de celui-ci, de l’enregistrement et in fine de l’adoption de ses spécificités par ceux qui plus spécifiquement la pensent, de l’accoutumance de plus en plus large de ses applications. Grâce à l’éducation profonde qui est en cours, grâce à l’évolution culturelle technologique, il en résulte et il continuera d’en résulter un enrichissement évolutif de notre cerveau et penser quantique devient et deviendra progressivement, quelque peu, plus naturel. »

 

[1] Que j’assure chaque jeudi de 10h30 à 12h, dans le cadre de l’Université Ouverte de Paris Diderot (Paris 13e) entre le 15/10 et le 15/06 de chaque année universitaire.

[2] Ce type d’affirmation me fait penser à une tentative semblable d’Hervé Zwirn pour avoir prétendument déterminé scientifiquement : ‘les limites de la connaissance’ (édit : o. Jacob), dans un livre datant d’octobre 2000 et qui n’a pas retenu l’attention.

Partager cet article
Repost0
22 mai 2018 2 22 /05 /mai /2018 16:01

Bilan d’étape qui me convient.

            Je propose ce bilan parce qu’il y a la matière. Le fait qu’il me convienne doit attirer votre attention car je risque de privilégier ce qui va dans mon sens. A chacun des lecteurs de garder son esprit critique.

            En premier lieu je propose une traduction partielle d’un article du 14/05/2018 qui fait un bilan objectif mettant fin, après plus de 30 années de recherche obstinée, à la matière noire sous forme de WIMP (l’article complet en anglais est en copie à la fin de celui-ci). Bien sûr, en même temps, surgissent des alternatives mais cela est la manifestation du conservatisme et de l’inertie de la pensée scientifique que l’on rencontre tout au long de l’histoire de cette pensée.

            « Meeting : Les alternatives au WIMP sortent de l’ombre. Revue Physics. Compte rendu des rencontres de Moriond.

            A un meeting annuel de physique dans les Alpes, les WIMPs semblent perdre pied en tant que candidats favoris de la matière noire, faisant de la place pour un tas de nouvelles idées (sic)… Les physiciens sont devenus inquiets puisque leur candidat favori, le WIMP, a encore à faire une apparence, alors qu’il y a une multitude de recherches en cours. A Moriond, en Mars de cette année d’autres candidats de la matière noire ont été placés sous les feux de la rampe, tels que les axions, les trous noirs, les superfluides, et plus encore

            La raison de l’enthousiasme passé pour les WIMPs s’explique parce que ces particules apparaissent dans la théorie sans beaucoup de peaufinage. Les extensions du modèle standard comme celle correspondant à la supersymétrie prédisent une quantité de particules avec interaction faible et une masse dans le spectre de 1 à 100 Gev/c2. Si ces WIMPs sont créés dans le Big Bang, alors en accord avec de simples arguments thermodynamiques leur densité correspondrait à celle qui est déduite des observations astronomiques. Cet appariement obtenu sans effort a été appelé le miracle des WIMPs. Mais maintenant, le miracle n’émet plus qu’une faible lumière. A Moriond les données nouvelles sur les WIMPs sont de l’ordre de l’apologétique… Mais les résultats courants éliminent l’existence de ces particules, en mettant des limites de propriétés de plus en plus étroites sans jamais en accorder l’existence. La chasse va continuer dans les années à venir mais le paradigme des WIMPs a commencé à apparaître comme étant de moins en moins la solution au problème de la matière noire… C’est probablement en 2014 que la confiance concernant la découverte de WIMPs a commencé à marquer le pas. ‘Bien sûr, il y a encore des opportunités de découvertes, mais…’

            A Moriond, il fut donné un aperçu des candidats alternatifs à la matière noire. En tête de liste il y a l’axion. Comme les WIMPs, l’axion est bien justifié par la théorie de la physique des particules, car il pourrait expliquer pourquoi l’interaction forte ne viole pas la symétrie CP, alors que l’interaction faible la viole. L’axion est aussi la cible de recherches dédiées, telle que ADMX. D’autres candidats familiers ‘cheval noir’ qui ont été discutés à Moriond sont les neutrinos et les trous noirs – ces derniers connaissant un boom de popularité avec les observations récentes des ondes gravitationnelles.

            Mais à la conférence les portes étaient ouvertes dans tous les angles, avec de multiples nouvelles idées de matière noire : modèle de matière noire superfluide ; matière noire d'interaction de Planck ; matière noire floue (sic) ; etc… »

            Comme on peut le constater dans ce compte rendu, le concept de matière noire n’a pas disparu mais les échecs de découvertes engagées, depuis plus de trente ans, ciblées sur les WIMPs ont fait long feu. Les propositions nouvelles sont peu significatives et là encore comme on peut le vérifier la théorie quantique des champs ne permet pas d’opérer à des discriminations, dans ce cas de figure on peut constater le caractère ad hoc de cette théorie mille-feuilles.

On ne doit pas oublier que la problématique de la matière noire est directement connectée à la problématique du Big Bang puisque dans ce scénario on ne peut pas expliquer l’hypothèse des grumeaux primordiaux de matière ordinaire sans l’existence des puits de potentiel gravitationnels primordiaux formés par la matière noire. Si les physiciens se libèrent enfin du paradigme du Big Bang, l’hypothèse de la matière noire primordiale spécifique a une raison d’être nettement moindre. J’ai souvent indiqué qu’il faudrait vraiment accepter l’idée que les neutrinos sont les vecteurs d’une physique encore inconnue et dans ce cas des éclairages nouveaux seraient perceptibles. En fait lorsqu’on cessera de considérer notre univers compris actuellement comme un ensemble représentant un Tout, c’est-à-dire comme un ensemble exhaustif, autarcique, clos, c’est-à-dire qu’il serait une chose, tandis que comme nous l’ont indiqué récemment dans un article, S. Hawking et Th. Hertog, l’hypothèse de notre univers d’un multivers et d’un non big bang peut être théoriquement envisagée (voir mon article du 09/05/2018), on acquerra un nouveau souffle de conquête de compréhension de ce que l’on pourra toujours nommer notre univers mais amplement enrichi en dimensions, en contenu de propriétés et de composants.

Selon mon point de vue, l’hypothèse du multivers a la valeur d’une entrevue intellectuelle qui, plus ou moins rapidement, permettra de dépasser des contraintes actuelles que nous attribuons à notre univers et qui limitent notre perception théorique et notre perception concrète trop orientée de celui-ci. Trop orientée parce que nous observons ce que notre pensée nous dicte là où observer et c’est naturel. Pensons à cette situation nouvelle qui s’impose avec l’écart significatif maintenant constaté de la ‘constante’ de Hubble.

C’est exactement avec cette perspective que j’ai choisi de titrer le présent article : Bilan d’étape qui me convient.

Je souhaite aussi proposer un bilan de la lecture du livre de C. Rovelli qui est celui résumé dans l’email que je lui ai fait parvenir et auquel il a répondu : Merci philip, sans plus. Il est ci-joint :

Bonjour Carlo

« En premier lieu, je veux te féliciter pour ton nouveau livre. Bien que nous ayons déjà dialogué sur nos désaccords, je te remercie pour la qualité de ton livre.

            Selon moi, le temps est un propre de l’homme et il ne peut pas y avoir de discours scientifique sans scientifique(s), sans ‘Présence’ du physicien. Notre réalité, notre vérité, c’est cette ‘Présence’ et en conséquence le temps est réel. Il ne nous est pas possible d’inférer au-delà si le temps dit physique est absolument réel ou pas, comme tu l’affirmes, car il ne peut y avoir personne, aucune intelligence, pour pouvoir l’énoncer.

            Affirmer ce qui est réel suppose que nos connaissances (certaines au moins) seraient déjà bornées or elles sont toutes provisoires et appelées à être dépassées par des nouvelles qui les enchâsseront ou les réfuteront, sans que ce processus ne s’arrête (voir à titre d’exemple le dernier article de S. Hawking et Th. Hertog, qu’il soit pertinent ou pas). En ce sens le temps n’est pas la preuve de notre ignorance il est au contraire la trace de la dynamique de la conquête permanente de connaissances du ‘sujet pensant’.

            Tu as dû prendre connaissance des différents articles du 1er trimestre 2018 relatifs à la détermination d’intervalles de temps de plus en plus précis autour de 10-19s ce qui permettra de ‘voir’ (sic) de la nouvelle physique. Ceci est en accord avec mon hypothèse du Temps propre du Sujet (TpS) que je situe autour de 10-25s qui correspond aussi à ce que je nomme le point aveugle de l’intelligence humaine. Ce qui est certain, il est de plus en plus difficile d’obtenir des gains de précision de la mesure d’intervalles de temps cela est expérimentalement asymptotique. On ne peut ignorer le résultat expérimental suivant : depuis 6 ans on ne voit rien de neuf dans CMS et ATLAS. Le dernier objet observé : le Boson de Higgs a une durée de vie de l’ordre de 10-21s. Pourtant, il y a toujours certainement des événements nouveaux dans ces détecteurs mais ils sont de durées trop limitées pour que nous puissions les voir présentement. 

            Je t’ai déjà indiqué que c’est à cause de l’affirmation d’Einstein : « Seules les coïncidences spatio-temporelles sont réelles » que j’ai conçu l’hypothèse du ‘Maintenant’, du ‘Moment Présent’ car pour n’importe lequel des observateurs ces coïncidences ne sont pas observables. Et c’est de là que j’ai inféré le TpS, qui lui est irréductible et invariant dans tous les référentiels. 

            Ma métaphysique est la suivante : Au sein d’une Eternité, parmi tous les possibles, Anthrôpos ne cesse de creuser sa connaissance de l’Univers. Son horizon c’est le savoir du Tout pour rejoindre l’Eternité.

A+, si tu le souhaites et Amitiés. »

---------------------------------------------

Je sélectionne particulièrement l’idée que Rovelli met en avant dans son livre : les événements (juste un mot pour un temps donné et une localisation à qui quelque chose pourrait arriver), plutôt que particules et champs (sic), sont les constituants du monde… le temps et l’espace eux-mêmes ne sont seulement et réellement que la manifestation des interactions entre les événements et du réseau de causalité qui les relie.

Plus loin dans son livre il indique que les événements se caractérisent par une durée limitée (page 117). Alors question :  Pourquoi Carlo privilégie-t-il les interactions entre les événements pour justifier l’émergence du temps alors qu’il y a la durée qui caractérise les événements ? Pourquoi émet-il un jugement définitif sur le temps et l’espace à ce stade alors que lui-même indique qu’il y a encore de la durée temporelle en jeu avec les événements qui selon lui interagiraient ?

Plutôt que de vouloir juger définitivement de l’existence ou pas du temps, de son émergence ou pas, il y a mieux à faire et concentrons nos efforts pour éclairer ces intervalles de temps et découvrir la physique que cela dévoilera. Déjà le 17/06/2015, j’ai proposé un article : « Décrypter en ‘Présence’ l’effet tunnel » effet sur lequel, il y a encore du nouveau dans l’article de Michael Brooks, du 21/04/2018, dans le NewScientists et qui va dans le même sens de ce que j’ai mis en exergue en 2015. Je cite en résumé : « Aephraim Steinberg, physicien expérimentateur de l’université de Toronto, qui travaille sur la mesure de la durée réelle que met un électron pour franchir une barrière de potentielle, indique qu’il n’y a plus qu’à concevoir la bonne horloge suffisamment précise pour mesurer complètement cette durée de la traversée. Mais il indique que son équipe a déjà commencé à observer effectivement la traversée du tunnel. »

Grâce à ce type de résultat les physiciens remplacent le temps imaginaire qu’ils écrivent dans l’équation de l’effet tunnel traditionnelle par un temps réel. C’est-à-dire qu’ils remplacent l’expression de leur ignorance par l’expression de leur observation, de leur savoir. On constate donc contrairement à ce que nous dit C. Rovelli : « le temps serait la marque de notre ignorance », ce serait la conquête de la précision de sa mesure qui serait plutôt notre atout majeur, notre bistouri, pour conquérir de la connaissance.

Juste pour conclure, je rappelle : « Il n’est pas banal que Serge Haroche ait intitulé son cours du 07/04/2015 : « La passion (sic) de la précision et la mesure du temps. » Il serait intéressant que S. Haroche nous dise pourquoi cette passion ? Est-ce que la précision et la mesure du temps est motivée par une intuition profondément humaine qui nous conduirait jusqu’à la proximité de la plus pure palpitation existentielle ? »

Meetings: WIMP Alternatives Come Out of the Shadows

May 14, 2018• Physics 11, 48

At an annual physics meeting in the Alps, WIMPs appeared to lose their foothold as the favored dark matter candidate, making room for a slew of new ideas.

The Rencontres de Moriond (Moriond Conferences) have been a fixture of European high-energy physics for over half a century. These meetings—typically held at an Alpine ski resort—have been the site of many big announcements, such as the first public talk on the top quark discovery in 1995 and important Higgs updates in 2013. One day, perhaps, a dark matter detection will headline at Moriond. For now, physicists wait. But they’ve gotten a bit anxious, as their shoo-in candidate, the WIMP, has yet to make an appearance—despite several ongoing searches. At this year’s Moriond, held this past March in La Thuile, Italy, some of the limelight passed to other dark matter candidates, such as axions, black holes, superfluids, and more.

Dark matter theory is no longer dominated by WIMPs.

WIMPs, or weakly interacting massive particles, have been a popular topic over the years at Moriond, according to meeting organizer Jacques Dumarchez from the Laboratory of Nuclear Physics and High Energy (LPNHE) in France. The reason for this enthusiasm is that WIMPs fall out of theory without much tweaking. Extensions of the standard model, like supersymmetry, predict a host of particles with weak interactions and a mass in the 1 to 100GeV∕c2 range. If WIMPs like this were created in the big bang, then, according to simple thermodynamic arguments, their density would match the expectations for dark matter based on astronomical observations. This seemingly effortless matching has been called the WIMP miracle.

But these days, the miracle has less of a halo around it. At this year’s Moriond, updates from direct and indirect searches for WIMPs sounded almost apologetic. Alessandro Manfredini of the Weizmann Institute of Science in Israel told his listeners to “keep calm… and fingers crossed,” as he gave the latest news from Xenon 1T, a one-ton dark matter detector at Italy’s Gran Sasso laboratory. He showed that the experiment has now reached record-breaking sensitivity, so that if a 50GeV∕c2 WIMP exists, the next data release could reveal ten events. But, like other WIMP searches, the current results rule the particles out—by putting tighter limits on their properties—rather than rule them in. The hunt will continue for years to come, but the WIMP paradigm has “started to look less as the obvious solution to the dark matter problem,” Dumarchez said.

When did WIMP confidence start to deflate? Tim Tait from the University of California, Irvine, described the change as gradual. “It is hard to say exactly when it began, but I think it was becoming noticeable around 2014 or so,” Tait said. That’s when the null results from dark matter searches began closing the favored parameter space for the WIMP model. “Of course, there is still a good opportunity for those searches to discover WIMPs,” he said.

At Moriond, Tait gave an overview of dark matter candidates, in which he discussed WIMPs but devoted much of his time to the dazzling variety of other dark matter theories. Chief among these is the axion. Like the WIMP, it is well-motivated from particle physics theory, as it may explain why strong interactions do not violate CP symmetry, while weak interactions do. The axion is also the target of several dedicated searches, such as ADMX. Other familiar “dark horse” candidates discussed at Moriond were neutrinos and black holes—with the latter seeing a boost in popularity after recent gravitational-wave observations.

But at the conference, the doors seemed open to all comers, with several new dark matter ideas taking the stage. One of the talks was by Justin Khoury from the University of Pennsylvania in Philadelphia, who advocates a superfluid model of dark matter. The main assumption here is that dark matter has strong self-interactions that cause it to cool and condense in the centers of galaxies. The resulting superfluid could help explain certain anomalies in observed galactic velocity profiles.

Martin Sloth from the University of Southern Denmark takes a very different approach. Rather than having strong interactions, his so-called Planckian interacting dark matter has zero interactions beyond gravity, but it makes up for its lack of interactions with an enormous mass (around 1028eV∕c2). At the opposite end of the mass spectrum is fuzzy dark matter, weighing in at 10−22eV∕c2. These ethereal particles could explain an apparent lack of small galaxies. But they could also run into constraints from observed absorption in the intergalactic medium, explained Eric Armengaud from France’s Atomic Energy Commission (CEA) in Saclay.

Although WIMPs continue to be the odds-on favorite, the field has certainly expanded—with light and heavy masses, weak and strong interactions, and seemingly everything in between. Sloth compared the current situation without a WIMP detection to a Wimbledon tournament without Roger Federer: “Everybody is signing up, thinking that they now have a chance.”

But can theorists make compelling arguments for these alternatives, as they did for WIMPs? David Kaplan from Johns Hopkins University, Maryland, believes that theoretical backing will not be a problem. In fact, he commented that the community has been too fixated on WIMPs (and the miracle) for the last 30 years. He warned his compatriots to not make the same mistake again: “I don’t want the next 30 years to be just axions.”

Michael Schirber is a Corresponding Editor for Physics based in Lyon, France.

Partager cet article
Repost0
12 mai 2018 6 12 /05 /mai /2018 17:28

Il est temps de résoudre la question du temps.

Au cours du premier trimestre 2018 plusieurs articles ont été publiés pour rendre compte des solutions expérimentales préconisées pour accroître une plus grande précision de la mesure de l’intervalle de temps. Actuellement la mesure standard de cet intervalle sur laquelle tous les physiciens et métrologues s’accordent est de 10-16s, cela signifie que chaque 200 millions d’années ces horloges standards se décalent de 1s. Ce sont des horloges atomiques constituées d’atomes de césium.  C’est au bureau International, des poids et des mesures, situé à Sèvres (Région Parisienne) que se situe le gardiennage de l’horloge standard. Dans l’un des articles dont je fais référence il est affirmé qu’il est nécessaire maintenant de se référer à un temps standard plus précis qui permettra d’améliorer par exemple la navigation des vaisseaux spatiaux et aussi aidera les physiciens expérimentateurs d’observer si les constantes fondamentales de la physique ont varié dans le temps et dans ce cas ce serait une nouvelle physique qui serait en jeu.

Dans un article suivant, il est annoncé qu’une nouvelle horloge atomique expérimentale plus précise a été créée permettant de garantir qu’il ne peut y avoir ni gain ni perte de plus de 100ms durant toute la durée de vie de l’univers soit 13 milliards 800 millions d’années. L’instrument a une précision de 2.5 x 10-19s, dépassant ainsi en précision les 3.5 × 10-19s de l’année dernière. C’est au National Institute of Standards and Technology (NIST) in Boulder, Colorado, que ces performances sont obtenues. L’auteur de l’article indique que ces résultats permettront d’étudier une gamme de phénomènes fondamentaux en physique tels que le magnétisme quantique et la supraconductivité non conventionnelle. Dans le futur cela permettra aux physiciens de finalement voir (sic) une nouvelle physique telle que par exemple la connexion entre la physique quantique et la gravité.

Il n’échappe à personne qu’accroître encore la précision de la mesure d’intervalle de temps permettra de voir encore plus de nouvelles propriétés de la physique fondamentale, au point qu’il est déjà étudié la mise au point d’horloges nucléaires qui seront plus précises encore. On notera que les gains de précision sont asymptotiques et il faut prévoir probablement plusieurs années pour atteindre la précision de 10-21 - 10-22s.

Après avoir pris connaissance de ces articles, j’ai découvert que Carlo Rovelli avait publié un livre qui confirme selon son point de vue que le temps n’existe pas physiquement, pas réellement. Sous un certain angle j’ai déjà évoqué son livre dans l’article du 29/04/2018. Nous avons déjà échangé, les années passées, sur ce sujet et on pourrait penser que la position de Rovelli avec le fait que l’on prévoit de voir de la nouvelle physique grâce aux gains de précision des intervalles de temps remet en cause l’affirmation de son point de vue particulier. Pas si simple car ce que nie C. Rovelli c’est la réalité du temps, de son flot, de son écoulement, alors ce que nous avons évoqué ci-dessus c’est la mesure d’intervalles de temps.

Ce qui est certain c’est que le concept de temps est une énigme, une épine dans le pied des physiciens et des cosmologistes, et constitue un obstacle majeur. Ces premiers jours de Mai, plusieurs articles (4) sont publiés sur ce sujet, notamment dans la revue ‘Nature’, et je vous en communique les synthèses (abstracts) originales puis traduites par mes soins :

« Est-ce que le temps est une illusion ? de Craig Callender.

Le temps est un sujet pérenne, brûlant, en physique. La recherche d’une théorie unifiée oblige les physiciens à réexaminer des suppositions basiques, et peu de choses sont plus basiques que le temps.

Quelques physiciens argumentent qu’il n’y a pas une telle chose comme le temps. D’autres pensent que le temps doit être promu plutôt que rétrogradé. Entre ces deux positions il y a l’idée fascinante que le temps existe mais il n’est pas fondamental. En quelque sorte, un monde statique donne naissance au temps que nous percevons.

Des philosophes ont débattu de telles idées bien avant le temps de Socrate, mais les physiciens en font maintenant un sujet concret. Selon un (C. Rovelli), le temps peut surgir de la façon dont l'univers est partitionné ; ce que nous percevons comme le temps reflète les relations entre ses éléments. »

“Is Time an Illusion? Craig Callender

•Time is a perennial hot topic in physics. The search for a unified theory is forcing physicists to reexamine very basic assumptions, and few things are more basic than time.

•Some physicists argue that there is no such thing as time. Others think time ought to be promoted rather than demoted. In between these two positions is the fascinating idea that time exists but is not fundamental. A static world somehow gives rise to the time we perceive.

•Philosophers have debated such ideas since before the time of Socrates, but physicists are now making them concrete. According to one, time may arise from the way that the universe is partitioned; what we perceive as time reflects the relations among its pieces.”

Est-ce que le temps pourrait arrêter ? George Musser

La théorie de la relativité générale d’Einstein, prédit que le temps disparaît là où il y a des   singularités, là où la matière atteint le centre d’un trou noir ou bien quand l’univers s’effondre dans un « Big Crunch ». Toutefois les singularités requièrent des conditions qui sont physiquement impossibles à atteindre.

Une façon de résoudre ce paradoxe est de considérer que la mort du temps est graduelle plutôt qu’abrupte. Le temps devrait perdre ses attributs un par un : la direction de son écoulement, sa notion de durée et son rôle d’ordonnancement des événements causaux. Finalement, le temps pourrait indiquer la voie à une physique plus profonde et sans temps. »

“Could Time End? George Musser

•Einstein's general theory of relativity predicts that time ends at moments called singularities, such as when matter reaches the center of a black hole or the universe collapses in a “big crunch.” Yet singularities require matter to achieve conditions that are in fact physically impossible.

•A way to resolve this paradox is to consider time's death as gradual rather than abrupt. Time might lose its many attributes one by one: its directionality, its notion of duration and its role in ordering events causally. Finally, time might give way to deeper, timeless physics.”

« Des atomes d’espace et de temps. Lee Smolin

Pour comprendre la structure de l’espace à la plus petite échelle, nous devons passer à la théorie de la gravité quantique. La théorie de la relativité générale d’Einstein révèle que la gravité est provoquée par la déformation de l’espace-temps.

En combinant précautionneusement les principes de la mécanique quantique et de la relativité générale, les physiciens sont conduits à l’expression de la théorie de la « gravité quantique à boucles ». Dans cette théorie, les états quantiques possibles de l’espace sont représentés par des diagrammes de lignes et de nœuds appelés réseaux de spin. L’espace-temps quantique correspond à des diagrammes semblables appelés mousse de spin, dans lequel les réseaux de spin évoluent au cours du temps.

La gravité quantique à boucle prédit que l’espace apparaît en grumeaux discrets, le plus petit est de l’ordre de la longueur de Planck au cube, soit 10-99 cm3. Le temps est produit par des tic-tac de l’ordre du temps de Planck soit 10-43s.

“Atoms of Space and Time. Lee Smolin

•To understand the structure of space on the very smallest size scale, we must turn to a quantum theory of gravity. Einstein's general theory of relativity reveals that gravity is caused by the warping of space and time.

•By carefully combining the fundamental principles of quantum mechanics and general relativity, physicists are led to the theory of “loop quantum gravity.” In this theory, the allowed quantum states of space are represented by diagrams of lines and nodes called spin networks. Quantum spacetime corresponds to similar diagrams called spin foams, in which spin networks evolve over time.

•Loop quantum gravity predicts that space comes in discrete lumps, the smallest of which is about a cubic Planck length, or 10−99 cubic centimeter. Time proceeds in discrete ticks of about a Planck time, or 10−43 second.”

“Un Trou dans le Cœur de la Physique. George Musser

Les physiciens se sont retournés vers les philosophes pour de l’aide avec la fusion de la mécanique quantique et de la relativité, qui traitent l’espace et le temps de deux différentes façons, en une théorie unique de la gravité quantique.

En revisitant une expérience de la pensée inventée par A. Einstein, les philosophes ont trouvé que la relativité générale avait des implications déconcertantes sur la question suivante : soit l’espace et le temps sont des entités de fait ou simplement des dispositifs pour décrire les relations entre les objets physiques.

Les philosophes aident aussi à identifier les inconsistances dans les théories physiques en, par exemple, mettant en évidence que les tentatives pour expliquer la flèche du temps – l’asymétrie entre le passé et le futur – souvent comptent sur un raisonnement circulaire.”

 

“A Hole at the Heart of Physics. George Musser

•Physicists have turned to philosophers for help with merging quantum mechanics and relativity, which treat space and time in two very different ways, into a single theory of quantum gravity.

•By revisiting a thought experiment created by Albert Einstein, philosophers have found that general relativity has puzzling implications for the question of whether space and time are entities in their own right or merely artificial devices to describe the relations between physical objects.

•Philosophers are also helping to identify inconsistencies in physicists' theories by, for example, pointing out that attempts to explain the arrow of time—the asymmetry of past and future—often rely on circular reasoning.”

On doit se réjouir de l’initiative de la revue ‘Nature’ de faire appel, dans les exemples cités, à des corpus de pensée variés sur le sujet du temps mais depuis une vingtaine d’années de semblables tentatives ont été proposées et réalisées sous formes de colloques, de publications conjointes d’articles et de livres sans que malheureusement cela ne produise des avancées significatives.

L’affirmation de C. Rovelli à propos de la non existence du temps comme entité réelle se nourrit de ses travaux sur la gravité quantique à boucles, toutefois une très grande partie de ces travaux ont été développés conjointement avec L. Smolin qui lui affirme que le temps est réel (voir son livre : la Renaissance du Temps (2013)). On peut en conclure qu’il y a une sorte de force de conviction chez chacun de ces physiciens qui joue un rôle tout autant que l’évidence de la réflexion scientifique. Selon moi, la conviction est le fruit de la grande synthèse de toutes les réflexions d’une vie de scientifique qui amène l’un à affirmer : non, le temps ne peut pas être une entité réelle, et l’autre à affirmer : oui, le temps est donné dans la Nature. La force de la conviction, quelle qu’elle soit, pourrait être considérée comme un obstacle à une pensée scientifique idéalement rationnelle, rigoureuse, mais celle-ci étant l’affaire de la pensée humaine, elle est donc incarnée, et toute pensée scientifique exprimée par un individu a obligatoirement un point d’appui de croyance (conviction) forgée à titre personnelle.

Rovelli, réfute l’idée d’un temps réel mais conçoit le fait qu’il y ait un temps émergent puisqu’il est comme nous tous conscient d’un processus d’écoulement irréversible que l’on désigne communément : écoulement du temps. Toutefois il refuse de l’intégrer comme composant d’une réalité de la nature physique. On peut s’interroger sur quelle base il formule la certitude que le temps n’existe pas réellement alors que celui-ci est omniprésent, et ceci est une situation évidemment identique pour tous les physiciens quelques soient les sujets traités. Carlo, prétend que la physique, de fait, déconstruit l’idée de temps (voir la première partie de son livre : ‘L’effritement du temps’). La déconstruction du temps qu’il considère constater avec les exemples qu’il met en exergue, sont connues de tous et sont donc sujet à interprétation. Ce qui m’interpelle chez C. Rovelli c’est sa propension à pouvoir affirmer ceci est dans le monde réel, ceci n’est pas dans le monde réel. Il est donc pris dans le piège de la croyance au Réalisme, croyance qui nie toute l’histoire de l’évolution de la connaissance en physique puisque le Réalisme postulerait que le monde que nous avons inscrit dans nos équations actuelles est un monde final, définitif, qui constitue pour nos aspirations à de futures conquêtes de connaissances un mur puisqu’il n’y en aurait pas au-delà. A titre d’indication, je propose à Carlo de découvrir le presque dernier article de Stephen Hawking, dernier papier écrit avec Th. Hertog : ‘Putting an end to the beginning of the universe’; ‘Mettre fin au début de l’univers’, dans lequel il est conçu que notre univers est juste un univers sans origine, parmi une infinité d’autres dans un multivers. Donc, en conséquence, il ne faut pas confondre l’état de nos connaissances actuelles qui ne peuvent être que provisoires (elles ne sont qu’un apparaître temporellement local dans l’histoire humaine de la connaissance en physique) et connaissances du réel. Faisons preuve d’humilité.

Enfin je ne comprends pas comment un physicien peut dire ce qu’est le monde physique réel sans temps car selon ma conviction le temps est inhérent à la ‘Présence’ du sujet pensant et donc pas de temps = pas de sujet pensant et donc pas de discours (logos) possible sur le monde physique de la part du physicien.

Malgré ce que j’ai écrit ci-dessus, j’ai rencontré des choses intéressantes et des points de vue que je suis prêt à partager avec Rovelli dans la partie 2 de son livre, puisqu’il propose, entre autres, de mettre en doute la validité et la valeur de la : « Théorie Quantique des Champs », (TQC) pour faire de la bonne physique. J’ai écrit un article exprimant plus qu’un doute sur l’intérêt et la valeur de cette théorie le 08/11/2011 : « ‘Qui se permettra de le dire.’ » Depuis, j’ai eu l’occasion dans d’autres articles d’écrire que certaines impasses des modèles standards de la physique des particules et de la cosmologie étaient dues à des abus de traitements de celles-ci à l’aide de la TQC. Carlo propose de se focaliser sur les événements plutôt que sur les champs et les particules et il considère que ceux-ci sont les ingrédients élémentaires constitutifs du monde physique non pas pour les étudier en tant que tels mais pour prendre en compte leurs relations et c’est grâce à ce réseau de relations qu’il considère pouvoir nous dire que le temps et l’espace eux-mêmes ne sont seulement et réellement que la manifestation de leurs interactions et du réseau de causalité qui les relie. Je cite page 117 :

«On peut penser le monde comme constitué de choses. De substances. D’entités. De quelque chose qui est. Qui demeure. Ou bien on peut penser le monde comme constitué d’événements. D’occurrences. De processus. De quelque chose qui se produit. Qui ne dure pas, qui se transforme continuellement. Qui ne persiste pas dans le temps. La destruction de la notion de temps par la physique fondamentale implique l’écroulement de la première de ces deux conceptions, non de la seconde. C’est la réalisation de l’omniprésence de l’impermanence, et de l’immuabilité dans un temps immobile. 

Penser le monde comme un ensemble d’événements, de processus, est le mode qui nous permet de mieux le saisir, le comprendre, le décrire. C’est l’unique mode compatible avec la relativité. Le monde n’est pas un ensemble de choses, c’est un ensemble d’événements.

La différence entre les choses et les événements, c’est que les choses perdurent dans le temps. Les événements ont une durée limitée(sic).»

Je suis d’accord avec C. Rovelli pour considérer que ce qui est de l’ordre de l’événementiel et du phénomène est ce qui est le plus juste éclairage et la manifestation la plus pertinente pour évaluer ce qui se joue dans le processus sans fin de la conquête de la connaissance du monde physique par le sujet pensant. Au tout début de l’article, j’ai mis en exergue les articles qui nous expliquent ô combien gagner de la précision dans la mesure de l’intervalle de temps le plus minimal était essentiel pour ‘voir’ de la nouvelle physique était crucial et de plus en plus asymptotique. Inventer l’horloge au tic-tac le plus élémentaire était une voie incontournable pour mieux connaître la physique qui gouverne le monde, si gouvernance il y a. Qu’est-ce que pense Carlo de cet éclairage ? Est-ce que cette problématique est encore compatible avec sa thèse principale de la ‘non existence du temps’ ?

Dans ce paragraphe on peut mesurer notre opposition première qui est de nature anthropologique. Lui dit d’une façon péremptoire que : « Le temps de la physique, en définitive, est l’expression de notre ignorance du monde. Le temps est ignorance. » Moi je dis que le temps est la marque de la ‘Présence’ du sujet pensant à la conquête de la connaissance. La volonté de conquérir de la connaissance, signifie s’opposer à l’acceptation de l’ignorance qui ne peut pas être, en tous les cas, pour l’être humain, définitive, absolue. Sinon c’est le figement de l’être humain, c’est sa minéralisation. Donc l’affirmation de Carlo : « Le temps est ignorance. » est l’expression d’une ignorance redoutable. Désolé !

Carlo, le dit lui-même : « Les événements ont une durée limitée. » Ceci est donc de sa part le contraire d’une ignorance et c’est un intervalle de temps qui caractérise les événements, ingrédients élémentaires fondamentaux, selon Carlo. Le ‘sujet pensant’, l’’être réflexif’, ne peut pas être passif face à ce constat, et il mobilisera toute son intelligence pour conquérir la mesure de cette durée limitée et y voir la propriété physique qui cause cet événement car un événement est par définition le symptôme d’une propriété physique.

Dans ma thèse principale j’introduis le point aveugle de l’intelligence humaine soit le ‘temps propre du ‘sujet pensant’ : TpS que je situe autour de 10-26s. Ainsi, c’est avec un très grand intérêt que je constate le caractère asymptotique de l’évolution de nos capacités instrumentales de mesure. C’est aussi avec curiosité que je constate notre incapacité d’observer depuis 6 ans un événement franchement neuf, tout aussi bien, dans CMS que dans ATLAS au CERN à Genève. Selon moi cela ne veut pas dire qu’il ne se passe rien dans ces détecteurs mais en fait nous ne savons pas les voir. On estime que la durée de vie du Boson de Higgs est de l’ordre de 10-21s donc encore loin de TPS. Je pense que l’on va pouvoir améliorer encore la situation mais cela sera de plus en plus difficile, coûteux en énergie cérébrale.

Contrairement à l’affirmation de C. Rovelli, je suis incapable d’indiquer si le temps existe réellement dans la nature ou pas. Ce problème est un faux ami pour les physiciens. Selon mon point de vue l’être humain est fondateur du temps, en un sens le temps est un propre de l’homme et la ‘Présence’ de l’être humain dans le monde que l’on cherche à comprendre est Réelle, inexpugnable, et comme telle doit être prise en compte par les physiciens.

Partager cet article
Repost0
9 mai 2018 3 09 /05 /mai /2018 13:08

Le presque dernier article de S. Hawking : mettant une fin au début de l’univers.

            Ceci est le titre d’un article publié dans la revue ‘Science’, constitué d’une interview par A. Cho de Thomas Hertog cosignataire avec S. Hawking de l’article qui théorise le début de la fin du Big Bang de l’univers. Dans le présent article je propose une traduction de l’interview, avec une copie de l’original en Anglais en fin d’article. La seule chose que je peux ajouter présentement c’est que cela fait longtemps que je considère qu’il faut dépasser cette histoire de Big Bang (voir, entre autres, articles : ‘Pour un authentique Big bang’ du 26/08/2014 ; ‘Big bang et au-delà’ du 13/02/2016 ; ‘Quid du Big Bang ?’ du 27/06/2017) et donc je suis satisfait de cette publication qui ne peut représenter qu’un début de confirmation de ce sujet. Je ne peux préciser si cette théorie proposée est valable et je dirais, quitte à choquer, que peu importe car c’est le début d’un dépassement très significatif qui compte. C’est comme si un tabou de la pensée scientifique s’effritait et c’est ce qui est présentement essentiel. J’ai toujours dit que la thèse du big bang avait son utilité tant que les cosmologistes avaient besoin de poser leur pensée sur une origine pour que celle-ci puisse se déployer valablement sur une histoire de l’univers jusqu’à ce que cette origine provisoire devienne un obstacle pour penser un nouvel univers, avec plus d’ampleur et de richesses, qui inclurait, enchâsserait, évidemment celui actuel. A mon sens cela faisait beaucoup de temps qu’il fallait franchir le Rubicon et c’est tant mieux.

            De même la thèse du multivers me convient parfaitement puisqu’elle nous permet de dépasser la frontière de notre univers qui correspond à l’étape actuelle de nos capacités de connaissances. D’autres univers du multivers avec des lois physiques différentes, plus riches, deviendront accessibles et nous les intègrerons dans notre univers qui prendra de l’ampleur et c’est un processus incontournable. Je pense par exemple au fait que la vitesse de la lumière est une borne qui sera dépassé et que des événements ou phénomènes (voir la physique des neutrinos) se produisent à des vitesses qui lui sont supérieures et nous finirons par les inférer. Cela n’est pas facile parce que nous sommes, nous-mêmes, des êtres de cette lumière (sachant que la matière qui nous constitue et la lumière qu’elle rayonne sont les deux versants d’une même entité).

            Je rencontre ainsi un fondement à ma métaphysique : « Au sein d’une Eternité, parmi tous les possibles Anthrôpos ne cesse de creuser sa connaissance de l’univers… » Et il y a encore à creuser pour rejoindre l’éternité qui est évidemment inaccessible mais elle est un horizon !! Ce qui est essentiel c’est la dynamique qui rend compte de la ‘Présence’ du ‘Sujet Pensant’.

« Aujourd’hui 2 Mai, ‘Le Journal de la Physique des Hautes Energies’ publie le dernier travail de Hawking en cosmologie – la science qui rend compte comment l’univers surgit et évolue. Dans ce nouvel article, S. Hawking et Th. Hertog, tentent de coller une épingle dans un concept bizarre appelé l'inflation éternelle, ce qui implique – inévitablement, selon plusieurs physiciens – que notre univers est simplement un parmi une infinité d’autres dans un multivers. Empruntant un concept de la théorie des cordes, Hawking et Hertog argumentent qu’il n’y a pas d’inflation éternelle et seulement un univers. Mais ce qu’ils déduisent est encore quelque chose de plus basique : Ils affirment que notre univers n’a jamais connu un moment singulier de création.

Comment leur argument fonctionne ? Suivons leur fil sinueux de la fin du début.

Suit ce dessous l’interview de Th. Hertog par A. Cho.

Question : Commençons avec ce qui est basique : Qu’est-ce que l’inflation cosmique ?

Réponse : L’inflation cosmique est une poussée de croissance monumentale qui aurait étiré l'univers naissant pendant la plus petite fraction de seconde. Imaginé en 1979 par le théoricien américain Alan Guth, l’inflation se produit juste après le Big Bang, l’espace s’étend exponentiellement, doublant la dimension de l’univers encore et encore au moins 60 fois avant de ralentir considérablement.

Q : Pourquoi les cosmologistes croient en quelque chose d’aussi si bizarre ?

R : L’inflation résout un casse-tête majeur : Pourquoi l’univers est aussi uniforme ? Par exemple, l’espace est rempli d’une radiation persistante du big bang, le fond de microondes cosmique (cosmic microwave background : CMB). Il a exactement la même température dans toutes les parties du ciel. C’est étrange, que des points si largement séparés semblant à première vue être trop éloignés pour une quelconque influence l’un sur l’autre après 13.8 milliards d’années d’existence de l’univers. L’inflation résout ce casse-tête en impliquant que tous les points de l’univers étaient, au tout début, suffisamment proches pour interagir, et par la suite réparties très loin de l’un à l’autre.

Q : Est-ce que c’est tout ce que l’inflation produit ?

R : Ironiquement, l’inflation fournit aussi une explication pourquoi l’univers n’est pas complètement uniforme. Evidemment, l’espace est parsemé de galaxies. En accord avec la théorie, l’expansion étend des fluctuations quantiques infinitésimales durant ces premiers instants jusqu’à la dimension extragalactique. Les fluctuations produisent alors des variations dans la soupe dense des particules fondamentales qui ensemencent la formation des galaxies. L’inflation prédit un spectre spécifique de grandes et petites fluctuations. D’une façon frappante, les études du fond diffus cosmologique confirment cette distribution. L’inflation cosmique explique avantageusement la naissance de l’univers provenant d’une  poussée de croissance ahurissante, étirant instantanément des ondulations subatomiques à l'échelle cosmique.

Q : Alors qu’est-ce que l’inflation éternelle ?

R : C’est là que le concept d’inflation pose ses propres problèmes. Les physiciens désapprouvent profondément l’idée que l’inflation s’arrêterait soudainement, sans aucune raison particulière. Ils préféreraient de loin avoir un mécanisme qui explique ce qui a conduit à l'inflation, puis ce qui l'a fait s'arrêter. Ceci explique pourquoi ils acceptent qu’une sorte de champ quantique conduise celle-ci, avant de disparaître. L’idée est que le champ surgit seulement dans un état approximativement stable, conduisant à un état d’énergie plus élevé de ‘faux vide’ durant lequel l’espace s’étire exponentiellement. Ensuite il se relaxe à son véritable état d’énergie, durant lequel l’espace s’étend plus lentement. Toutefois ce scénario fonctionne un petit peu trop bien. L’expansion exponentielle de faux vide s’autoproduit de plus en plus, il y a donc encore plus d’expansion de l’espace à une vitesse de plus en plus grande. Notre univers est un patch qui a subi la transition vers l'état de vide vrai de basse énergie. Mais de telles transitions doivent se produire d’une façon aléatoire, donc il devrait y avoir aussi une grande quantité d’autres univers. En fait, le processus devrait produire une quantité d’espace sans cesse croissante à la vitesse exponentielle, ponctué par un nombre infini d '"univers de poche" croissant plus lentement.

Q : Est-ce que cela pose problème ?

R : Cela dépend de qui interroge. Au niveau le plus basique, l’existence de tous ces autres univers n’affecterait pas notre univers. Ils sont tellement éloignés qu’ils ne peuvent avoir la moindre connexion avec le nôtre. D’un autre côté, la notion d’inflation éternelle et de multivers peut contrecarrer toute l'entreprise des cosmologistes d'expliquer pourquoi l'univers est comme il est. Les choses comme les valeurs de certaines constantes physiques clés pourraient variées aléatoirement parmi les univers de poche, ce qui rendrait discutable les efforts pour expliquer pourquoi ils ont les valeurs qu’elles ont dans notre univers. Ils seraient déterminés par chance aléatoire et ce n’est pas très satisfaisant (sic).

Q : Donc comment la publication de Hawking et Hertog résout le problème ?

R : Hawking et Hertog argumentent qu’en fait l’inflation éternelle ne se réalise pas. Pour penser ainsi, ils empruntent un concept de la théorie des cordes qui les rend capables d’assimiler deux types différents de théories avec différentes dimensions. En 1997, le théoricien J. Maldacena a considéré un volume d’espace dans laquelle la gravité fonctionnait. Maldacena, démontra que la théorie était équivalente à une autre plus facile à travailler avec la théorie quantique sur l’espace enveloppe de ce volume qui n’incluait pas la gravité. C’est comme dire quel que soit ce qu’il y a l’intérieur d’une canette de soda il peut être saisi ce qu’il y a  dedans par une théorie décrivant seulement ce qui se produit sur la surface de la canette.

L’inflation éternelle émerge parce que dans le très primordial univers, les fluctuations quantiques du champ quantique qui mène l’inflation sont aussi importantes que la valeur moyenne du champ. Mais Hawking et Hertog argumentent que sous ses conditions on ne peut pas simplement continuer avec la relativité générale d’Einstein, mais autrement on peut exploiter une manœuvre comme celle de Maldacena pour voir toute la situation dans un espace avec une dimension en moins. Dans cet espace alternatif, les choses sont plus dociles, et la physique ne mène pas à une inflation éternelle. Au contraire, un simple, bien défini, univers fusionne.

Alors qu’est-ce que ceci a à voir avec le tout début de l’univers ?

C’est là que les choses deviennent intéressantes – et rusées. Le concept d’assimiler une théorie à une autre dans un espace avec une moindre dimension est connu par les physiciens théoriciens comme l’holographie. Dans ce travail, Maldacena assimile une théorie à une autre avec une dimension spatiale en moins. Mais il est considéré que le principe de l’holographie permet aussi d’abandonner la dimension du temps. Donc dans la théorie de Hawking et Hertog, grâce au principe de l’holographie, l’univers très primordial devrait être décrit par une théorie avec juste trois dimensions spatiales et pas de temps.

Q : Mais pourquoi voudriez-vous vous débarrasser du temps ?

R : Dès qu’il devint clair que l’univers avait un début, le moment de sa naissance devint un casse-tête pour les théoriciens. Grosso modo, la théorie de la relativité générale d’Einstein est performante pour explique les choses après le big bang, mais est inefficace pour rendre compte du moment de la création lui-même. Ce moment constitue une ‘singularité’ de l’espace-temps – comme une fonction mathématique qui explose à l’infini – disparaît de la théorie. Donc les théoriciens ont longtemps cherchés un moyen d’éviter cette singularité – et perdre le temps serait une voie pour cela.

C’est un problème qui a fasciné Hawking toute sa carrière. Il y a des dizaines d’années, il suggérait une solution alternative en spéculant qu’au tout début, le temps était, grossièrement parlant, dimensionnel, une idée qui ne correspond pas à ce  nouveau travail.

Q : Ainsi donc ceci est la fin de l’inflation éternelle et de la singularité du big bang ?

R : Probablement pas. D’autres étudieront cette publication invoquant la relation avec  changement de dimension. Et même si d’autres chercheurs sont d’accords, il y a encore une question majeure à résoudre. Si les théoriciens commencent avec une théorie comprenant seulement des dimensions spatiales, comment est-ce que le temps finalement émerge de cet espace ? Nous avons lancé un nouveau paradigme. Mais il y a beaucoup de travail à faire.  

 

Stephen Hawking’s (almost) last paper: putting an end to the beginning of the universe

By Adrian ChoMay. 2, 2018 , 5:55 PM

When Stephen Hawking died on 14 March, the famed theoretical physicist had a few papers still in the works. Today, the Journal of High Energy Physics published his last work in cosmology—the science of how the universe sprang into being and evolved. (Other papers on black holes are still being prepared.) In the new paper, Hawking and Thomas Hertog, a theoretical physicist at the Catholic University of Leuven (KU) in Belgium, attempt to stick a pin in a bizarre concept called eternal inflation, which implies—unavoidably, according to some physicists—that our universe is just one of infinitely many in a multiverse. Borrowing a concept from string theory, Hawking and Hertog argue that there is no eternal inflation and only one universe. But what they’re driving at is something even more basic: They’re claiming that our universe never had a singular moment of creation.

How does the argument work? Follow its winding thread to the end of the beginning.

Let’s start with the basics: What is cosmic inflation?

Haut du formulaire

Bas du formulaire

Cosmic inflation is a monumental growth spurt that supposedly stretched the infant universe during the first tiniest fraction of a second. Dreamed up in 1979 by American theorist Alan Guth, inflation holds that just after the big bang, space stretched exponentially, doubling the size of the universe again and again at least 60 times over before slowing dramatically.

Why would cosmologists believe in something so bizarre?

Inflation solves a major puzzle: Why is the universe so uniform? For example, space is filled radiation lingering from the big bang, the cosmic microwave background (CMB). It has almost exactly the same temperature everywhere in the sky. That’s odd, as widely separated points seem at first glance to be too far apart for any influence to reach from one to the other over the 13.8 billion years the universe has been around. Inflation solves that puzzle by implying that all the points in the sky started out close enough to interact, and then were stretched far apart.

Is that all inflation does?

Ironically, inflation also does a great job of explaining why the universe isn’t completely uniform. Obviously, space is studded with galaxies. According to the theory, inflation stretched infinitesimal quantum fluctuations in those first moments to extragalactic size. The fluctuations then produced variations in the dense soup of fundamental particles that seeded the formation of the galaxies. Inflation predicts a particular spectrum of longer and shorter fluctuations. Strikingly, studies of the CMB and the galaxies confirm that distribution. 

 

So what’s eternal inflation?

Here’s where the concept of inflation runs into problems of its own. Physicists deeply dislike the idea that inflation would stop suddenly, for no particular reason. They’d much rather have a mechanism that explains what drove inflation and then caused it to stop. That’s why they assume some sort of quantum field drove it, before petering out. The idea is that the field starts out in an only approximately stable, higher-energy “false vacuum” state in which space stretches exponentially. It then relaxes to its true lowest energy state, in which space expands much more slowly.

The scenario works a little too well, however. The exponentially expanding false vacuum produces more and more of itself, so there’s ever more space expanding at an incredibly fast rate. Our universe is a patch that has undergone the transition to the low-energy true vacuum state. But such transitions should happen randomly, so there should be lot of other universes, too. In fact, the process should produce an ever-increasing amount of space that’s growing at an exponential rate, peppered with an infinite number “pocket universes” growing more slowly.

Is that a problem?

It depends on whom you ask. At the most basic level, the existence of all these other universes wouldn’t affect our universe. They’re just too far away to have any connection with ours. On the other hand, the notion of eternal inflation and a multiverse may thwart cosmologists’ entire enterprise of explaining why the universe is the way it is, Hertog says. Things like the values of certain key physical constants could vary randomly among the pocket universes, he says, which would render moot any effort to explain why they have the values they do in our universe. They would be set by random chance, Hertog says, and that’s not very satisfying.

So how does Hawking’s and Hertog’s paper solve the problem?

Hawking and Hertog argue that, in fact, eternal inflation does not occur. To do that, they borrow a concept from string theory that enables them to equate two different types of theories with different dimensionalities. In 1997, Argentine-American theorist Juan Maldacena considered a volume of space in which gravity was at work. Maldacena, who is now at the Institute for Advanced Studies in Princeton, New Jersey, then demonstrated that theory was equivalent to an easier-to-work-with quantum theory on the boundary of the space that didn’t include gravity. It’s like saying whatever goes on inside a can of soda can be captured by a theory describing only what’s happening on the can’s surface.

Eternal inflation emerges because, in the very early universe, the quantum fluctuations in the field that drives inflation are as big as the field’s average value. But Hawking and Hertog argue that under those conditions one cannot simply carry on with Albert Einstein’s general theory of relativity, but instead must use a maneuver like Maldacena’s to view the entire situation in a space with one less dimension. In that alternative space, things are more tractable, they claim, and the physics does not lead to eternal inflation. Instead, a single, well-behaved universe merges.

So what does this have to do with the beginning of the universe?

That’s where things get interesting—and tricky. The concept of equating one theory to another in a space with one fewer dimension is known to theoretical physicists as holography. In his work, Maldacena equated one theory to another in a space with one less spatial dimension. But, Hertog argues, the principle of holography allows theorists to jettison the dimension of time, instead. So in Hawking’s and Hertog’s theory, through the principle of holography, the very early universe should be described by a theory with just three spatial dimensions and no time.

But why would you want to get rid of time?

Ever since it became clear that the universe had a beginning, the moment of its birth has been a headache for theorists. Roughly speaking, Einstein’s general theory of relativity does a fine job of explaining things after the moment of the big bang, but cannot handle the instant of creation itself. That moment forms a “singularity” in spacetime—like a mathematical function that explodes to infinity—that trips up the theory. So theorists have long sought a way of avoiding that singularity—and losing time would be one way to do that.

It’s a problem that fascinated Hawking his entire career, Hertog says. Decades ago, he suggested an alternative fix by speculating that in the very beginning, time was, crudely speaking, dimensional, an idea that doesn’t mesh with the new work.

So is this the end for eternal inflation and the big bang singularity?

Probably not. Others will scrutinize Hawking’s and Hertog’s invocation of the dimension-changing relation. And even if other researchers find it to be sound, there’s still a major question to be answered, Hertog acknowledges. If theorists start with a theory with only spatial dimensions, how does time finally emerge from it? “We threw out a new paradigm,” Hertog, says, “but there's a lot of work to be done.”

Posted in:

doi:10.1126/science.aau0598

Partager cet article
Repost0
29 avril 2018 7 29 /04 /avril /2018 06:52

L’Ordre du Temps selon C. Rovelli

J’ai encore récemment abordé le sujet du temps dans l’article du 04/04/2018 où j’ai cité E. Witten : « L’espace-temps est peut-être maudit » et N. Seiberg : « l’espace-temps était une illusion ». Plus antérieurement entre autres, le 03/06/2016 : « Bienvenu au ‘Temps Créatif’ de N. Gisin » j’avais indiqué que l’approche de ce sujet par Gisin était intéressante et j’en avais discuté directement avec lui, mais c’était de sa part juste un ‘éclat’ auquel il n’avait pas l’intention d’y consacrer plus de temps (dommage !!). Le 02/05/2013, j’ai posté un article : « Bienvenu au ‘Moment Présent’ de Lee Smolin » mais je n’ai jamais pu en parler avec lui. Par contre, il me fut possible d’échanger sur ce sujet avec Carlo, le 09/01/2016 puis le 10/12/2016. Ces échanges sont communiqués ici à la fin de l’article dans P.S.1. Enfin, on ne peut ignorer l’article du 19/07/2017, consacré à la publication du livre de Dean Buonomano : ‘Your Brain is a Time Machine ; The neuroscience and Physics of Time’.

            Dans son livre récent, édit : Flammarion, C. Rovelli[1] présente une synthèse du travail essentiel de sa vie de chercheur consacrée au questionnement sur la nature du temps. D’emblée les premières lignes de son livre nous disent : « Je m’arrête. Je ne fais rien. Rien ne se produit et je ne pense à rien. J’écoute le temps qui passe. C’est cela, le temps. Familier et intime. Son vol nous emporte. La fuite des secondes, des heures, des années nous lance vers la vie, puis nous entraîne vers le néant… Nous habitons le temps comme les poissons habitent l’eau. Notre être est un être au temps. Sa cantilène nous nourrit, nous ouvre au monde, nous trouble, nous épouvante, nous berce. C’est entraîné par le temps, selon l’ordre du temps, que l’univers dévide son devenir… »

            Dommage, car dès ces premières lignes superficielles Carlo nous annonce une des conceptions du temps des plus banales. Je me permets de le dire parce qu’en 2000, j’ai publié un livre[2] comprenant un chapitre premier s’intitulant : « Portraits du Temps » traitant du même sujet durant 15 pages, extraits en copie en P.S.2, et aboutissant à une conclusion franchement différente : « Le temps s'accroche à tout ce qui vit. » ; « Il savourait une réelle sérénité induite par la pensée de l'enchevêtrement du temps physique et du temps de l'humain pour rendre compte de l'équilibre de l'existence, là où se noue, dans un flux continu comme dans un dialogue perpétuel, la nature de l'univers et la nature de l'humain. Cette conclusion le comblait»

            Ma thèse est que l’être humain est le fondateur du temps et celui-ci est inhérent à la pensée qui investit la compréhension, la connaissance, du monde physique. ‘Présence’ du sujet pensant et ‘Temps’ sont les versants d’une seule et même entité. Selon Rovelli : « Le temps de la physique, en définitive, est l’expression de notre ignorance du monde. Le temps est ignorance. » Au contraire, je considère que le temps est le symptôme, le cheminement du sujet pensant qui inexorablement doit conquérir une plus grande connaissance du monde pour toujours se situer et s’émanciper des déterminations du monde naturel qui l’a engendré. En conséquence, il est erroné de vouloir découpler ces deux versants de la seule et même entité.

            Plus loin en page 12, il pose des questions plus appropriées, mais les idées prémisses biaisent les réponses à ce questionnement. Je cite : « J’ai aussi découvert que nous ne savons pas encore exactement comment fonctionne le temps. Sa nature reste un mystère, peut-être le plus grand de tous. D’étranges liens le rattachent à d’autres énigmes non résolues : la nature de la consciences, l’origine de l’univers, le destin des trous noirs, le fonctionnement de la vie. Quelque chose d’essentiel nous renvoie sans cesse à la nature du temps. » ; « Est-ce que nous existons dans le temps, ou bien le temps existe-t-il en nous ? Qu’entend-on exactement par « l’écoulement » du temps ? Comment le temps est-il relié à notre nature de sujet ? Et qu’est-ce que j’écoute, lorsque j’écoute le temps qui passe ? »

            Ce livre de C. Rovelli sera le sujet d’un prochain article dans quelques temps, notamment sur le thème de la déconstruction comme Carlo l’annonce.

P.S.1. Première discussion :

o De Carlo Rovelli le 09/01/2016

o Cher Philippe,
Merci pour votre intéressant message. Est-ce que vous avez des articles ou de textes dans lesquelles votre idée est développée ? Comment arrivez-vous à l'estimation de 10-23 à 10-25s pour ce temps du sujet ?

L'idée d'un temps minimal dans le fonctionnement de la conscience est très convaincante, bien sûr, mais un rôle de ce temps au niveau physique est une idée nouvelle, à notre connaissance.
C'est intéressant de considérer la possibilité que la réalité physique soit interprétée en termes de relations entre systèmes, et dans ce cas, le temps de résolution de sujet de l'information devient important, mais d'où viendrait-t-il un temps de l'ordre 10-24s ? Quels phénomènes indiqueraient ce temps ? Carlo Rovelli 

o  Le 16/01

Cher Carlo Rovelli, je vous joins volontiers mes réponses à votre questionnement. Voilà où j’en suis avec mes réflexions. Peut-être qu’un échange fructueux va s’installer. J’y suis favorable. Bien amicalement.  

Réponses à C. Rovelli.

Comment estimer 10-23 à 10-25s ? Cette estimation résulte de la conjonction de 2 réflexions distinctes a priori. En premier, dans les années 1960-70 nous étions submergés par la production de particules résonantes. Certaines avaient une durée de vie τ tellement brève que l’on ne pouvait pas observer leur trace physique dans les détecteurs quels qu’ils soient. Par contre on pouvait les reconstituer à partir des éléments de désintégration. Cela a conduit à l’idée qu’il y avait des particules virtuelles mais réelles jusqu’à une certaine limite et au-delà on ne savait plus se prononcer quant à la réalité en maintenant l’idée de virtualité. La limite se situait autour de 10-21 à 10-22s. Cette limite d’observation est encore vraisemblable malgré les progrès technologiques de la détection directe. Pour avoir de la marge j’ai placé le point aveugle de l’observateur autour des valeurs estimées

L’autre réflexion concerne mon impossibilité d’adhérer au réalisme absolu d’Einstein. A mon sens son affirmation : « Ce qui du point de vue physique est réel … est constitué de coïncidences spatio-temporelles. Et rien d’autres. », contient une contradiction, puisque dans ce contexte l’observateur n’a plus besoin d’être présent. Le mot « observateur » employé après coup (seulement à partir de 1936) par Einstein est à cet égard révélateur. Les coïncidences peuvent exister dans la réalité mais on ne peut pas les observer. Ce n’est que lorsque la présence de l’observateur est incluse que l’on peut constater des quasi coïncidences qui ne sont pas réelles mais considérées comme telles. L’observateur occupe un intervalle de temps TpS qui est la condition de sa ‘Présence’ et qui est aussi un point aveugle de ses facultés. Vous comprenez qu’à ce niveau je fus très intéressé lorsqu’après coup j’ai lu les propositions d’A Connes en 1997 car malgré TpS la métrique est égale à 0 ; (voir article blog du 26/05/2015). Il y avait la possibilité d’une superposition qualitative qui m’intéressait car en plus je partageais sa thèse que le point 0 avait une structure interne. Mais il n’y eut pas de suite de sa part, autant que je sache. Il serait intéressant de comprendre pourquoi il n’a pas persévéré.

Il n’y a pas la possibilité pour le sujet pensant d’accéder à la réalité du monde physique (au sens einsteinien), car ce monde ne peut être pensé que par la ‘Présence’ intégrale de l’être réflexif pour qu’il y ait un discours scientifique sur ce monde.

Enfin un article de Marcia Bartusiak, en avril 1993 : relatant vos travaux avec Ashtekar et Smolin m’avait interpelé : ‘ They need a quantum clock. And that may require some new mathematics…”. Je considère que TpS est le tic-tac primordial de cette horloge quantique.

Vous dites : « un rôle de ce temps au niveau physique est une idée nouvelle. » Effectivement je ne connais pas un développement équivalent et à ce sujet j’éprouve parfois, depuis une dizaine d’années, une solitude intellectuelle pesante. J’ai reconnu des convergences intéressantes. Ainsi L. Smolin, il y a quelques années, a émis l’hypothèse du ‘moment présent’ mais il n’a pas su franchir le Rubicond c’est-à-dire le quantifier. Il n’a pas voulu non plus toucher au totem (voir article blog : 2/05/2013). 

 En ce qui concerne les travaux de S. Dehaene, ils sont de très grandes qualités mais ils traitent de la conscience (voir article blog du 26/05/2015). Je m’appuie sur ces résultats pour accentuer le caractère vraisemblable de mon hypothèse TpS mais cela se joue sur un autre plan. On ne peut pas envisager qu’à partir du résultat de Dehaene on puisse par intégration passer au niveau de l’existentialité ou bien par un chemin inverse analytique trouver une correspondance logique entre les deux termes. Il y a des niveaux intermédiaires extraordinaires qui relient ces deux extrêmes de la mesure de l’être humain qui nous interdisent de l’envisager (actuellement et probablement jamais). Toutefois il serait intéressant de poser la question à S. Dehaene ou à des spécialistes de ce domaine. Il m’arrive de penser que TpS pourrait être considéré comme un existential au sens donné par Heidegger. Les travaux de Dehaene confirment ce que j’appelle une petite ‘présence’ et il est impossible de considérer : ‘Présence’ = ∑ petites ‘présences’.

A partir du moment où une grandeur physique est attribuée à la ‘Présence’ de l’être réflexif, il est possible, comme vous le dites, d’envisager : « en termes de relations entre systèmes, et dans ce cas, le temps de résolution du sujet de … » D’accord pour systèmes, au pluriel, puisque dès qu’il y a quantification de la ‘Présence’, le sujet pensant peut être considéré comme système (à nuancer). Mais sujet de l’information me semble réducteur car la ‘Présence’ du sujet pensant ne peut être réduite au rôle de vecteur d’information(s). A tout moment il est concepteur, il traite l’information et la façonne.

Votre question : Quels phénomènes indiqueraient ce temps ?

En premier lieu TpS, sa valeur, et le concept de ‘Présence’ sont totalement corrélés.

En plus des considérations sur les particules réelles mais virtuelles le résultat des travaux de Seth Lloyd validerait mon hypothèse. La dimension du proton est in fine la dimension ultime que nous savons estimer. Quid de l’électron.

Le phénomène de l’intrication s’explique, selon moi, à cause de TpS qui est un invariant et Δti < TpS, avec Δti : la durée de la production de l’intrication qui donc obéit à la R.R. Si un observateur observe cette opération dans un référentiel qui se déplace à grande vitesse, s’il voit Δt’i = ϒ Δti> TpS, l’observateur ne voit aucune intrication. J’admets que c’est une expérience compliquée mais…

Une autre expérience est, je crois, maintenant possible. Elle concerne la thèse de la ‘Présence’. Il s’agit de faire appel aux moyens de la magnéto-encéphalographie (Labo de Dehaene, par ex.). Il s’agit de placer un physicien appareillé devant un interféromètre et de détecter ce qui se produit dans son cerveau lorsqu’il a une information spatio-temporelle sur l’objet quantique qui parcourt l’interféromètre, puis lorsqu’il n’a aucune information spatio-temporelle sur sa trajectoire. Cette même expérience doit être réalisée avec une autre personne qui n’a pas de connaissance (formelle) au moins sur le phénomène ondulatoire. On devrait constater que ce ne sont pas les mêmes parties du cerveau qui travaillent. Ainsi on pourrait mieux comprendre le pourquoi de deux apparaitre distincts.

Maintenant que nous savons mesurer l’attoseconde cela a permis de traiter l’effet tunnel d’une façon différente (voir article blog : 17/06/2015). La prochaine étape sera d’accéder à la mesure de 10-21s. Etape intéressante car on sera au bord de la limite de TpS mais il faut attendre encore quelques années.

Les articles indiqués : blog, sont accessibles en demandant sur internet : philip.maulion et les articles apparaissent dans l’ordre chronologique.

Deuxième discussion :

Je me réfère à l’article du 10/12/2016 et plus spécifiquement au paragraphe qui commence par : « Ce que je voudrais dire à CR (Carlo Rovelli)… », puisque CR a répondu à mon interpellation, promptement, après que je lui ai envoyé un tiré à part avec ce commentaire préalable : « En premier lieu, je remercie Carlo qui formule avec clarté et force de sa conviction ses idées originales car cela oblige, quand on ne partage pas son point de vue, d’essayer de répondre avec une clarté et une force les plus équivalentes. »

            Mon interpellation était suscitée par ce qu’il affirmait dans une interview de l’actuel N° hors-série de décembre-janvier de la revue ‘La Recherche’ : « Même si l’on ignore exactement comment cela se passe, je suis persuadé que le temps émerge parce qu’on n’a accès qu’à une vision partielle du monde qui nous entoure. » ; « Imaginons un système – nous-mêmes – qui interagit avec le reste du monde. Le temps émerge (distinction entre le futur et le passé) au moment où il y a interaction entre les systèmes. » ; « En fin de compte, je suis dans le camp de ceux non pas qui pense que le temps n’existe pas, mais qu’il n’est pas utile d’avoir du temps dans les équations fondamentales. »

            Ci-joint, ce qu’il m’a fait parvenir en retour à cette interpellation :

               Cher Philip,

« Je vous remercie de l’appréciation que vous aviez manifesté quant à mes paroles, et je voudrais vous répondre avec le plus de précision possible, étant donné que nous sommes, dans les domaines dont vous parlez, à la limite de la physique et de la philosophie.
Quand vous dites « je n’utilise pas la notion de conscience, car c’est une notion trop subjective », je voudrais vous dire, que si l’on veut suivre un grand maître en la matière, Sir Roger Penrose, la conscience dans (sic) l’univers est la notion la plus objective qui soit.
C’est à partir d’elle que, selon nous, devrons être construits, aussi bien les concepts d’intelligence dans le monde, que la notion de temps.
En ce qui concerne le temps, nous avons probablement, encore là, un point de désaccord amical car je crois que la notion de temps a déjà reçu un sérieux choc, avec le concept de cohérence quantique entre deux particules éloignées, ce à quoi s’ajoute la relativité générale où Einstein avait démontré combien les notions de temps étaient justement très « relatifs ».
Voilà donc pourquoi, j’ai cru pouvoir dire, qu’il ne serait pas utile d’avoir le temps dans les équations fondamentales. »

Carlo Rovelli 

Réponse exprimée sur le site le 20/03 :

o   SMC Quantum Physics Dit:

20th March 2016 at 9:43 pm

 

Cher Philip Maulion,
 
Ceci est un sujet qui se trouve au cœur de la gravité quantique. Comme vous le dites, « l'invariance par difféomorphisme » conduit à la conclusion que le
champ métrique à partir duquel nous définissons la relativité générale ne correspond pas lui-même à un objet physique (voir "hole argument" et "manifold sustantialism"). Au contraire, l'espace-temps est identifié avec le champ gravitationnel (c.a.d. avec le champ dynamique).  Cette interprétation est à la base de la gravité quantique à boucles. Un exposé complet se trouve dans le livre de Carlo Rovelli "Quantum Gravity" (section 2.3.2 ‘la disparition de l’espace-temps’). Néanmoins l'espace-temps est toujours bien présent dans la théorie, sous cette nouvelle forme dynamique, qu'ici nous appelons le "métabolisme" de l'espace-temps.  Ainsi donc, pour répondre à votre question : ce qu'on appelle l'espace-temps et le champ gravitationnel sont ultimement la même chose. Puisque que c’est un objet dynamique, ce n'est pas très étonnant qu'il contienne des oscillations qui se propagent dans sa structure.

            P.S.2 ‘Portrait du Temps’, chapitre I du livre « En dix Escales vers l’ouest » publié en mars 2000.

« Il essayait d'imaginer un espace vide de toute présence matérielle, plus désertique qu'un ciel sans nuage.

            Il essayait d'imaginer un espace totalement silencieux, plus silencieux encore que celui de l'océan profond.

            Il essayait de se représenter mentalement un espace sans limite, sans relief, sans aspérité, infiniment lisse où le regard ne rencontre aucun obstacle, où l'ouïe ne distingue aucune sonorité.

               Evidemment une telle étendue infinie, vidée de toute présence, n'a probablement pas d'équivalent réel. Dans tout notre univers, jusque dans ses confins extrêmes, il doit être impossible d'isoler, en toute logique, une étendue qui satisfasse simultanément à ces conditions exceptionnelles. 

               Il devait donc procéder par abstraction pure, mettre en jeu la puissance imaginative de la pensée pour approcher progressivement l'idée d'un espace théorique à trois dimensions,

 

[1] C. Rovelli est physicien, auteur avec Lee Smolin de la théorie de la gravité quantique à boucles. Il est directeur de recherche au CNRS à Marseille.

[2] ‘En dix escales vers l’Ouest’, édit : Publisud. (si vous souhaitez l’acquérir : maulion.philip ϱ orange.fr)

absolument vide, où aucun événement ni aucune présence ne demeurent.

 

            A l'époque où Frédéric menait le plus fréquemment cet exercice intellectuel, sa capacité de concentration était parfois soumise à rude épreuve. Il habitait dans une maison entièrement construite en bois, craquant sans cesse à cause du vent qui par bourrasques plus ou moins soudaines la bousculait. Aussi il devait attendre tard dans la nuit jusqu'à ce que les personnes aimées, avec lesquelles il partageait le toit, soient assoupies. Chaque fois qu'un craquement réel transperçait l'état de vide qu'il imaginait, il lui fallait redoubler de concentration pour amortir au plus vite son écho et colmater ainsi la brèche ouverte dans la volonté de s'immerger dans un état d'isolement parfait.

            A force de volonté et par idéations successives, il parvenait à stabiliser une représentation du vide le plus pur. Il disposait alors d'un banc d'essai, lui servant de référence, pour soumettre à l'épreuve du questionnement logique quelques hypothèses qui l'intriguaient, à propos de l'existence d'un temps physique discernable, indépendamment de toute autre présence.

            Produire un savoir sur l'existence du temps physique ne peut pas se concevoir autrement que par la saisie de son écoulement grâce à une opération de mesure. Cette mesure consiste toujours à définir au préalable, les bornes entre lesquelles celle-ci sera effectuée. L'exercice implique que se mette à l'œuvre une conscience humaine déployant une intention continue partant d'une borne origine, jusqu'à son aboutissement prévu dans un futur appréhendé où est positionnée la borne terminale. L'activité de mesure d'une distance temporelle, met en jeu une faculté de projection, dans le temps à venir, d'une action commencée à un instant présent identifié par l'opérateur de la mesure. Seul l'être humain est doué d'une telle faculté de projection, lui seul a une conscience du temps en devenir ; évaluer des distances temporelles est une activité exclusivement humaine.

En s'appuyant sur cette première observation, Frédéric poursuivait sa réflexion et tentait de comprendre jusqu'à quel degré, l'existence d'un flux du temps physique perceptible est inhérente à l'activité humaine dans toute sa diversité.

            Dans l'espace imaginé par Frédéric à force d'abstraction, vidé d'événements, de reliefs, de bornes et d'appareils de mesure, la saisie d'un intervalle de temps devenait a priori inconcevable. Dans ces conditions l'écoulement du temps n'était plus repérable par une mesure directe ou indirecte. Mais formuler une pensée, de l'évanescence du temps, du silence temporel, n'est pas un exercice aisé, au contraire, le sentiment troublant d'une mise en cause essentielle toujours l'accompagne. C'est pourquoi avant de se hâter de conclure, Frédéric recherchait toutes les failles éventuelles de son raisonnement et essayait d'imaginer d'autres processus susceptibles d'assurer la saisie du temps. Après de nombreuses tentatives toujours infructueuses, il ne pouvait plus exclure la conclusion suivante : il est impossible de dire le temps en dehors de sa mesure entre deux intervalles.

Une question qu'il considérait comme essentielle mobilisait aussi toute son attention : "Peut-on identifier au moins un support de représentation du temps physique autre que celui déterminé par l'action et la pensée humaines ?"

            Depuis plusieurs années, Frédéric relançait régulièrement cette enquête intellectuelle, activité résiduelle d'une curiosité qui avait pris son essor pendant ses études supérieures scientifiques lorsqu'il avait été initié à l'interprétation relativiste du temps.

            Depuis les découvertes d'Einstein on peut démontrer par le calcul que la grandeur mesurée d'un intervalle de temps a une valeur relative aux conditions de la mesure réalisée par l'observateur. Un intervalle de temps fini peut devenir, dans certaines conditions extrêmes de mesure par un observateur, infiniment grand. Dans ce cas les bornes qui servent à repérer l'intervalle de temps sont rejetées à une distance temporelle infinie. Alors, devenu infiniment grand, l'intervalle de temps rejoint l'ordre de grandeur des durées éternelles.

 

            Au fur et à mesure que Frédéric affinait sa conception théorique de l'espace imaginé de silence temporel, un autre temps faisait entendre son rythme et se révélait à sa conscience. C'était un temps intérieur, intime, jusqu'alors implicite et il bruissait maintenant, alors que dans tous ses raisonnements précédents Frédéric avait négligé son existence. Il devait maintenant se rendre à l'évidence, les battements de son cœur, le mouvement cadencé d'inspiration et d'expiration de l'air de ses poumons, ainsi que toutes les autres fonctions élémentaires et essentielles de son organisme constituaient autant d'horloges et d'instruments potentiels de mesure d'intervalles du temps.

            Ses premières conclusions avaient une validité limitée, et pis encore, une durée de vie très courte. Il avait privilégié les conditions de l'évanescence du flux du temps extérieur à son enveloppe physique existante, alors que dans le même instant une multitude d'horloges biologiques lui révélaient maintenant leurs tempos, elles rappelaient que l'opérateur d'une mesure d'un intervalle de temps n'est pas passif, n'est pas neutre, il est là, il interfère, il ne peut pas faire abstraction de sa présence.

            Le temps s'accroche à tout ce qui vit.

            Frédéric devait donc persévérer, aiguiser toujours plus loin ses capacités de concentration, tenter, par extrapolation, d'imaginer un espace où s'effaceraient les horloges biologiques qui font vibrer son enveloppe corporelle. Avec moult précautions, toujours avec rigueur, il tentait de s'engager dans ce nouveau processus d'abstraction. Mais peu à peu un tel projet s'avérait irréalisable et il devait accepter l'évidence que l'opération mentale de l'abstraction du bruissement de l'existant biologique devenait clairement insuffisante. Car à peine prospectait-il cette piste par le raisonnement, qu'un nouveau plan de références entrait en jeu et des horloges immatérielles donnant le tempo de sa propre pensée ondulante relevaient les indices d'une ponctuation du temps qui s'écoule.

            Sa propre activité cérébrale devenait un obstacle à sa tentative de conception théorique d'un espace parfaitement vide de signes. Cette pensée prenait forme et persistait avec ses redoutables conséquences. L'édifice du raisonnement construit avec précautions et patience se fissurait. Comment pouvait-il produire des réponses, en tout cas au moins une, à ses interrogations relatives à l'existence d'un temps physique indépendant de toute "conscience humaine", si son cerveau devait, séance tenante, cesser toute production de pensées ? Puisqu'il devait s'abstraire en tant qu'être biologique et être pensant, il ne pouvait pas être le témoin de la conclusion qu'il cherchait à produire ! Il s'inclinait devant le mur infranchissable de son projet initial qui lui paraissait, maintenant, totalement incongru.

            Alors qu'à plusieurs occasions il avait cru formuler l'ultime interrogation qui lèverait l'ultime voile masquant l'accès à une compréhension de l'existence autonome du temps physique, il se trouvait en fait à chaque fois embarqué dans une dérive de questions successives, à propos des conditions préalables à sa mesure. Son entendement n'avait jamais pu franchir l'obstacle ; il n'avait jamais pu atteindre l'objectif qu'il s'était fixé. Mais il se souvenait des face-à-face vertigineux avec la question fondamentale de l'existence du temps, quand il croyait raisonner dans le champ de la rigueur de la physique rationnelle, et qu'il se retrouvait dans un domaine où se croisaient des interrogations de nature plutôt métaphysiques sans pouvoir discerner le passage par lequel, à son insu, ces deux mondes communiquaient.

            En dernier recours, Frédéric disséquait alors ce qui apparaissait comme un piège de la raison : la moindre trace d'existence était saisie par le temps pour y inscrire la marque de son passage, il fallait donc au préalable concevoir l'inexistence absolue, avant qu'une pensée exprime un point de vue positif ou négatif à propos d'une réalité supposée d'un temps autonome.

            Loin de ses préoccupations initiales, irrésolues, Frédéric découvrait, par contre, une communauté apparente de destin entre le cours du temps mesurable et le cours de l'existence humaine. Il découvrait que le moindre frémissement d'une vie matérielle ou immatérielle servait de support à l'empreinte du temps. Frédéric avait recensé et analysé toutes les conditions irréductibles pour procéder à sa mesure quantitative, mais dès qu'il avait tenté de déterminer le sens de sa mesure, de comprendre s'il mesurait effectivement une grandeur indépendante de son projet conscient, il s'était trouvé confronté à une série de questions gigognes qui l'avaient progressivement entraîné sur le terrain d'un questionnement existentiel.

            A l'époque où il était accaparé par ces réflexions, il vivait dans un pays du cône sud de l'Amérique latine. Librairies et bibliothèques étaient rares et peu garnies ; dans son entourage il ne connaissait pas de collègues avec lesquels il aurait pu prolonger et réactiver ses interrogations par des dialogues. Enfin, il faut le dire aussi, avant qu'il ne prenne le risque de les exposer à d'autres personnes, il eut fallu qu'il soit lui-même nettement plus convaincu de la validité et de l'exhaustivité de son raisonnement. A cette époque, il ignorait le nom du philosophe allemand Heidegger ainsi que la substance de ses travaux, pourtant déjà connue de par le monde. Celui-ci affirmait au cours de son enseignement en 1935 : " Il est parfaitement possible que l'homme ne soit pas. Il a été un temps où l'homme n'était pas. En tout temps l'homme était et est et sera, parce que le temps se temporalise seulement du fait que l'homme est. Il n'y a aucun temps où l'homme n'ait pas été, non que l'homme soit de toute éternité et pour l'éternité, mais parce que le temps n'est pas l'éternité et que le temps ne se temporalise que pour chaque temps…"

            Frédéric aurait peut-être été stimulé dans sa réflexion à propos de la relation entre le temps et la conscience humaine de sa perception, s'il avait eu la chance de connaître alors cet enseignement. Mais la réalité était tout autre.

            Il était convaincu d'avoir épuisé toutes les ressources de sa pensée sur ce sujet ; il pouvait entr'apercevoir, sur un versant du prisme temporel, les couleurs contrastées du temps psychologique, du temps sociologique, du temps physique, ..., mais il renonçait à s'interroger si, sur l'autre versant du prisme, on pouvait distinguer une ou plusieurs sources du temps.

            Irrémédiablement, il se trouvait dans une impasse…

            Entre conscience et flux du temps, quel est l'un qui prête vie à l'autre ? Voilà bien le genre de questions qu'il voulait éviter, parce que sans réponse satisfaisante, même à titre provisoire. Interrogation obsédante, elle précipite dans la solitude celui qui l'entretient. Après avoir recherché en vain tous les appuis susceptibles de nourrir un nouveau regard scrutateur, Frédéric optait donc pour une fuite en avant et il s'accommodait d'une représentation dynamique où l'un et l'autre constituaient un entrelacs intime et perpétuel tissant ainsi le substrat de l'existence.

            Il évacuait les origines temporelles de cet entrelacs en le déclarant perpétuel. Il l'imaginait infini dans sa durée future, mais sa pensée vacillait dès qu'il avait la velléité de remonter la flèche du temps et tentait d'imaginer une origine quand la dynamique de l'entrelacs prenait son élan. Il ne se faisait aucune illusion sur sa capacité à partager avec d'autres sa conception, et cela n'était plus une priorité. Il savourait une réelle sérénité induite par la pensée de l'enchevêtrement du temps physique et du temps de l'humain pour rendre compte de l'équilibre de l'existence, là où se noue, dans un flux continu comme dans un dialogue perpétuel, la nature de l'univers et la nature de l'humain. Cette conclusion le comblait. »

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens