Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
16 janvier 2018 2 16 /01 /janvier /2018 08:14

S’écarter du CERN : Il y a une voie plus économique pour percer la physique.

Ce titre est celui de l’article (publié en accès libre), le 10/01 dans ‘Nature’ : ‘Step aside CERN : There’s a cheaper way to break open physics’. L’article est signé par le physicien Gerald Gabrielse qui ouvertement ne croit plus que le LHC et ses détecteurs puissent révéler une nouvelle physique s’il y en a une. Je cite : « Mais la production de six années de données au LHC n’a pas permis de produire quelque chose de nouveau. » ; « Plus de physiciens suivent la même direction que Gabrielse, avec de modestes installations expérimentales qui correspondent à la dimension standard des laboratoires universitaires. Au lieu des méthodes de la force brute telles que celles de collisions de particules, ces expérimentateurs utilisent des techniques de précision pour chercher des déviations extraordinairement subtiles sur les paramètres de la nature les plus fondamentaux. Quelques différences, aussi faibles qu’elles soient, pourraient indiquer la voie vers des champs futurs. »

Cet article laisse entendre qu’à défaut d’une analyse sérieuse et collective de l’impossibilité de faire émerger une physique originale, nouvelle, au CERN, les physiciens définissent à leur niveau des cibles de recherche qu’ils considèrent plus prometteuses. Toutefois ces cibles privilégiées sont déterminées par ce que le CERN n’a pas été en mesure de confirmer ni d’infirmer. Ce qui indique qu’il n’est pas possible de se dispenser de cette réflexion collective qui devrait s’imposer. Dans l’article du 29/09/2017, suite au silence assourdissant à propos de l’ICHEP du 21 au 22 septembre, j’avais proposé que l’absence de résultats significatifs, depuis plusieurs années, provenant du CERN, soit considérée comme un résultat expérimental. Selon moi, c’est le propre d’un scientifique d’enclencher une réflexion sérieuse quand il n’y a pas de réponse à une (des) question(s) posée(s).

J’ai déjà exprimé une inquiétude certaine dans l’article 16/01/2016 dans lequel j’ai été amené à énoncer un désaccord total (et c’était à regret) à l’égard du contenu du premier article d’arrivée en fonction de la Directrice Générale du CERN qui affirmait : « Si une nouvelle physique est là, nous pouvons la découvrir, mais c’est entre les mains de la nature. » Je ne prenais aucun risque en disant que préalablement il faut avoir la pensée bien placée pour détecter une nouvelle physique. Prenons en exemple le domaine de l’astrophysique où les moyens d’observations, quels qu’ils soient, sont définis par des cahiers des charges très précis, ceux-ci témoignant d’un investissement intellectuel significatif préalable de ce que l’on cherche à voir avant de mettre en œuvre ces moyens d’observations. On comprend ainsi la remarquable vitesse avec laquelle des découvertes nouvelles et des précisions nouvelles sont annoncées dans ce domaine.

A propos du développement de la physique des particules élémentaires, G. Gabrielse met le doigt sur le fait que l’essor du développement de cette physique est dû aussi à des critères exogènes à celles-ci. Il a raison de pointer cette dynamique exogène qui a prévalue et dont les inconvénients se font ressentir encore actuellement. Après avoir rappelé qu’en 1956, Mme Chien-Shiung Wu avait découvert une propriété[1] physique inattendue et remarquable grâce à un dispositif expérimental à l’échelle du laboratoire dont il préconise le retour, il nous rappelle : « Mais la physique se développait déjà vers la création d’instruments de plus en plus gros et de plus en plus coûteux. Soutenu par un flux de crédits et de prestiges (sic) de l’après-seconde guerre mondiale et par les prédictions de nouvelles particules qui émergeraient des collisions à haute énergie, les physiciens demandaient des accélérateurs de particules toujours plus puissants et plus onéreux. Et ils les obtinrent : les équipements jaillissent à Stanford, au Fermilab, près de Batavia (Illinois), au CERN près de Genève, et ailleurs. Quarks, muons, neutrinos et, finalement le boson de Higgs était découvert. Le Modèle Standard était complet. » Quelques lignes plus loin il s’exclame : « J’aime dire que le Modèle Standard est un grand triomphe et une grande frustration de la physique moderne. D’une part, il permet aux physiciens de prédire et de calculer quelques quantités (avec une précision ridicule (sic)), d'autre part, nous avons un trou (de connaissances) dans lequel nous pouvons installer l'Univers. » Il est vrai qu’il peut exploiter cette image du trou dans lequel pourrait sombrer l’Univers puisque nous ignorons 95% de ce qui le constitue.

Paradoxalement, Gabrielse concentre toute son attention sur l’électron, l’objet quantique le plus exploré et a priori le mieux connu parce que le plus commun du modèle standard. Gabrielse considère que l’élection décèle une très, très, faible dissymétrie spatiale et en conséquence il serait doté d’un moment dipolaire électrique très, très, faible, qui n’a jamais été détecté ni évalué, jusqu’à présent. Cette piste risque de conduire à une impasse car plus nous gagnons en précision moins il est possible d’attribuer une dimension à l’électron. Il y a une dizaine d’année on lui attribuait (au doigt mouillé) encore une dimension de l’ordre de 10-18m (la dimension du proton est de 10-15m), maintenant on ne peut le considérer que comme sans dimension, c’est-à-dire ponctuel (sic). En tous les cas, il est plus petit que ce que permet nos capacités de mesure et c’est ce que nous devons retenir. Notons que 10-18m est la plus petite variation de distance qu’il est possible d’enregistrer en ce qui concerne les miroirs des interféromètres des ondes gravitationnelles Ligo et Virgo.

Pour d’autres raisons, étonnamment, l’électron pourrait encore être à l’origine d’une révision du Modèle Standard à condition que l’on prenne en compte ses particules jumelles que sont le muon et le tau. Ces trois particules sont de la famille des leptons et ce qui les différencie c’est leur masse respective. L’autre famille étant celle des quarks. D’après les règles établies du Modèle Standard ces trois particules leptoniques devraient se comporter comme un triplet de particules identiques. Or trois expériences indépendantes ont mis en évidence des indices que ces particules se comportent différemment en raison d’une influence qui reste encore inconnue.

Le premier constat d’une disparité éventuelle et significative entre ces trois leptons date de 2012 à propos de l’expérience BaBar du Centre de l'accélérateur linéaire de Standford (SLAC) en Californie. Ensuite deux autres expériences nommées LHCb au Cern et Belle au Japon ont en 2015 relevé des disparités similaires qui ont été à nouveau confirmées au LHCb en 2017. Etant donné les conditions très distinctes de l’apparition de ces disparités on ne peut pas a priori évoquer des erreurs expérimentales. Si une disparité était confirmée, il y aurait violation de l’universalité leptonique et donc le Modèle Standard devrait être reconsidéré et cela ouvrirait la porte pour cogiter une nouvelle physique. Toutefois, il ne faut pas s’emballer car bien que ces résultats soient de plus en plus consistants, ils ne sont pas irréfutables car ils pourraient encore être dus tout simplement aux effets de fluctuations, du hasard, donc statistiques. Il faut donc accroitre le nombre d’expériences et le nombre d’événements pour réduire la marge d’incertitude et ainsi pouvoir proclamer la découverte éventuelle d’une propriété nouvelle, d’une force nouvelle, etc… Patience dans 5 ans on en saura plus.

Certains physiciens sont sceptiques car même si ces déviations sont confirmées le nouveau modèle qui s’ensuivrait n’offrirait aucune nouvelle hypothèse transcendante : « À première vue, le type de modèle qui peut reproduire les anomalies n’explique... rien d’autre », précise Zoltan Ligeti. « Par exemple, il ne nous aidera pas à comprendre ce que peut être la matière noire. »

L’idée élémentaire de départ à la conception du LHC, a été que les physiciens devaient disposer d’un accélérateur qui produise des collisions aux énergies les plus élevées et en nombre par unité de temps le plus élevait. Et puis la puissance de stockage des données et de calcul informatique permettront de sélectionner le bon grain de l’ivraie parmi la foultitude de traces qui surgiront dans les détecteurs à une fréquence prodigieuse et là où il y a quelque chose d’inédit à voir les physiciens immanquablement le verront. Je ne caricature pas car c’est bien ce que nous a dit, début 2016, F. Gianetti et que j’ai critiqué.  A part le Boson de Higgs (et on peut dire qu’à ce propos la pensée des physiciens étaient placée depuis très longtemps), le LHC n’a rien montré par lui-même et cela devrait être considéré comme matière à réflexion collective.

S’il n’y a pas de point de vue théorique préalable, s’il n’y a pas d’investissement intellectuel préalable, s’il n’y a pas un regard intellectuel qui scrute intentionnellement, on ne peut être qu’aveugle. La légende dit que c’est quand Newton, se reposant sous un pommier, a reçu une pomme sur le crâne qu’il a découvert la loi de la gravitation mais la légende n’a jamais caché que son cerveau avait déjà largement cogité la chose. La légende dit aussi que lorsqu’Einstein a pris l’ascenseur il a été convaincu du bien fondé de son hypothèse basique (propriété d’invariance) qui allait le conduire jusqu’à l’invention de la loi de la Relativité Générale.

Il se pourrait qu’il y ait une cause réelle, concrète, de notre aveuglement intellectuel, et c’est une hypothèse que je n’exclus pas à cause de l’hypothèse que je privilégie avec TpS. Cette hypothèse est totalement corrélée avec le fait actuel (entre autres) que nous sommes incapables d’attribuer une dimension spatiale à l’électron. Car à TpS correspond un ∆l = C × TpS : aveugle, C étant la vitesse de la lumière.

Peut-être que l’article du 12/01/2018, dans Phys.org : « Vitesse quantique limite peut freiner l’ordinateur quantique. » ; « Quantum speed limit may put brakes on quantum computers », offre des arguments qui confirmeraient ceux que j’ai déjà développés dans de nombreux articles et in fine valideraient mon hypothèse, je cite quelques extraits de ce nouvel article de Sebastian Deffner : «… mais ma recherche récente a révélé que les ordinateurs quantiques auront des limites (de vitesse de calcul) qui leur seraient propre – et a indiqué la voie par laquelle on peut préciser ce qu’elles seraient… » ;  

Les limites de la compréhension.

« Pour les physiciens, nous, humains, vivons dans ce que nous appelons le monde « classique » et dans ce contexte nous avons progressivement compris intuitivement la physique. Avec les lois de la physique classique il y a des limites théoriques qui s’imposent. Mais elles sont tellement élevées : par exemple nous savons qu’un objet ne peut jamais dépasser la vitesse de la lumière. Les gens ne rencontrent jamais les limites physiques du monde, mais elles existent. Jusqu'à récemment, cependant, les savants avaient seulement une idée assez vague que la physique quantique avait des limites aussi, mais ne savaient pas réellement comprendre comment cela pourrait s'appliquer dans le monde réel. »

« L’incertitude de Heisenberg »

« Il est important de réaliser que cette « incertitude quantique » n’est pas un défaut de l’équipement de mesure ni de l’ingénierie, mais témoigne plutôt de la façon dont notre cerveau fonctionne (sic). Nous avons évolué par l’intermédiaire d’une confrontation courante avec le "Monde Classique " et nous comprenons comment il fonctionne alors que les mécanismes physiques réels du "Monde Quantique" sont tout simplement au-delà de notre capacité à les saisir pleinement »

Si les physiciens acceptaient l’idée qu’au CERN, l’impossibilité depuis plusieurs années de détecter des événements nouveaux, significatifs, devrait être considérée comme un fait expérimental significatif, alors les arguments exposés dans cet article de S. Deffner seraient d’une très grande utilité.

 

[1] Découverte que l’interaction nucléaire faible distinguée la droite de la gauche, c’est-à-dire qu’il y avait là une preuve d’une brisure de symétrie spatiale.

Partager cet article

Repost0

commentaires

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens