Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
1 septembre 2018 6 01 /09 /septembre /2018 15:15

Les physiciens du LHC adoptent une approche de la force brute pour la chasse aux particules

« Le collisionneur de particules le plus puissant du monde n'a pas encore permis la mise en évidence d’une nouvelle physique. Maintenant certains physiciens se tournent vers une stratégie différente. »

L’article au titre ci-dessus je l’ai obtenu le 14 Août sur le site de la revue ‘Nature’ et je soumets à votre réflexion ma traduction un peu laborieuse. Je ne prévois pas de commenter l’article parce qu’il est totalement explicite et il renvoie à mon article du 16/01/2016 : ‘Et si notre pensée était mal placée’. Pour mon compte cet article est très déroutant et il pose très sérieusement la question de l’avenir du métier de physicien dans toute son ampleur qu’il soit théoricien ou expérimentateur. Quels seront la fonction et le rôle de ceux qui en toute conscience se situeront en arrière de la ‘Learning Machine’ attendant qu’elle fasse de la physique à leurs places. A quels renoncements (transferts) devront-ils consentir volontairement ou involontairement ? car ce n’est pas qu’une nouvelle technique de recherche qui est proposée. A chacun des lecteurs de s’interroger sur cette problématique et de se faire une opinion sur un sujet qui certainement, maintenant qu’il est posé, sera l’occasion de longs débats.

Ci-dessous la traduction de l’article :  

« Une nouvelle approche controversée de la physique des particules commence à s’imposer au grand collisionneur de hadrons (LHC). Le détecteur Atlas du LHC a officiellement relégué au passé la méthode courante qui correspondait au meilleur espoir pour détecter des phénomènes qui correspondent à un au-delà du modèle standard. Puisque les techniques conventionnelles ont été jusqu’à présent stériles une autre façon d’exploiter les données massives collectées est proposée.

Jusqu'à présent, presque toutes les études au LHC ont impliqué des « recherches ciblées » pour mettre en évidence la signature de théories favorites. La collaboration d'Atlas décrit maintenant sa première recherche « générale » et globale des données du détecteur, dans une pré-impression affichée le mois dernier sur le site d’arXiv, et aussi proposée au Journal de Physique Européen C. l’autre détecteur majeur du LHC : CMS, travaille sur un projet similaire.

« Mon objectif est d'essayer de trouver une façon vraiment nouvelle de chercher de la physique nouvelle » - être piloté par les données plutôt que par la théorie, dit Sascha Caron de l'Université Radboud de Nimègue aux Pays-Bas, qui a contribué à la décision concernant Atlas. Les recherches générales sont de mêmes natures à celle particulière qui consiste à vérifier un texte entier pour y trouver un mot particulier. Ces vastes recherches pourraient fournir leur plein potentiel dans un avenir proche, lorsqu'elles seront combinées à des méthodes de plus en plus sophistiquées d'intelligence artificielle (A.I)

Les chercheurs du LHC espèrent que les méthodes les mèneront à leur prochaine grande découverte, quelque chose qui n'est pas arrivé depuis la détection du boson de Higgs en 2012, qui a mis en place la dernière pièce du modèle standard. Développé dans les années 1960 et 1970, le modèle décrit toutes les particules subatomiques connues, mais les physiciens soupçonnent que l'histoire ne s’arrête pas là - la théorie ne tient pas compte de la matière noire, par exemple. Mais de grandes expériences comme celles réalisées au LHC n'ont pas encore fourni de preuves pour un telle existence. Cela signifie qu'il est important d'essayer de nouvelles choses, y compris des recherches générales, explique Gian Giudice, qui dirige le département de physique théorique du CERN et n'est pas impliqué dans des expériences. "C'est la bonne approche, à ce stade."

Collision

Le LHC provoque la collision de millions de protons par seconde à des énergies colossales pour produire une profusion de particules de désintégration, qui sont enregistrées par des détecteurs tels que Atlas et CMS. Beaucoup de différents types d'interactions de particules peuvent produire les mêmes débris. Par exemple, la désintégration d'un Higgs peut produire une paire de photons, mais le peuvent aussi d'autres processus plus ordinaires. Donc, pour rechercher le Higgs, les physiciens ont d'abord multiplié des simulations pour prédire combien de ces paires d'imposteurs sont prévisibles. Ils ont ensuite compté toutes les paires de photons enregistrées dans le détecteur et les ont comparées à leurs simulations. La différence — un léger excès de paires de photons au sein d'une gamme étroite d'énergie — était la preuve que le Higgs existait.

Atlas et CMS ont exécuté en plus de ces recherches ciblées des centaines d’autres pour rechercher des particules qui ne sont pas prévues dans le modèle standard. Beaucoup de celles-ci ont cherché des saveurs différentes de la supersymétrie, une prolongation théorisée du modèle standard qui inclut les particules hypothétiques, par exemple le neutralino, un candidat pour la matière noire. Mais ces recherches sont jusqu'ici infructueuses.

Cela laisse ouvert la possibilité qu'il y aurait des particules exotiques produisant des signatures que personne n'a pensé jusqu’à présent – quelque chose que des recherches générales ont plus de chance de trouver. Les physiciens n'ont pas encore regardé, par exemple, des événements qui ont produit trois photons au lieu de deux, dit S. Caron. « Nous avons des centaines de personnes qui regardent la désintégration du Higgs et la supersymétrie mais peut-être que nous manquons quelque chose que personne n'a pensé, » dit Arnd Meyer, un membre de CMS à l'Université d'Aix-la-Chapelle en Allemagne.

Alors que les recherches ciblées ne regardent généralement que quelques-uns des nombreux types de produits de désintégration, la dernière étude a examiné plus de 700 types à la fois. L'étude a analysé les données recueillies en 2015, la première année après la mise à niveau du LHC en augmentant l'énergie des collisions des protons dans le collisionneur de 8 téraélectronvolts (TEV) à 13 TEV. Au CMS, Meyer et quelques collaborateurs ont mené une étude de validation de principe, qui n'a pas été publiée, sur un plus petit ensemble de données du run de 8 TEV.

Aucune expérience n'a fourni de déviations significatives jusqu'à présent. Ce n'était pas surprenant, disent les équipes, parce que les ensembles de données étaient relativement petits. Atlas et CMS sont maintenant à la recherche des données collectées en 2016 et 2017, une mine de dizaines de fois plus importante.

Problématique des statistiques

L'approche « a des avantages clairs, mais aussi des lacunes claires », dit Markus Klute, un physicien au Massachusetts Institute of Technology à Cambridge. Klute fait partie de CMS et a travaillé sur les recherches générales au cours des expériences précédentes, mais il n'a pas été directement impliqué dans les études plus récentes. Une limitation est la puissance statistique. Quand une recherche ciblée trouve un résultat positif, il existe des procédures normalisées pour calculer son importance ; cependant quand on jette un grand filet, quelques faux positifs sont amenés à surgir. C'est une des raisons pour lesquelles les recherches générales n'ont pas été favorisées dans le passé : de nombreux physiciens craignaient qu'ils ne mènent trop souvent dans des impasses. Mais les équipes disent qu'elles ont beaucoup investi pour rendre leurs méthodes plus solides. « Je suis excité que cela soit possible dans le futur proche », dit Klute.

La plupart des personnes ressources et décisionnaires des expériences du LHC travaillent encore sur des recherches ciblées, et ceci pourrait ne pas changer de sitôt. « Certaines personnes doutent de l'utilité de telles recherches générales, étant donné que nous avons tant de recherches qui couvrent exhaustivement une grande partie de l'espace des paramètres », explique Tulika Bose, de l'Université de Boston, au Massachusetts, qui aide à coordonner le programme des recherches sur CMS.

De nombreux chercheurs qui travaillent sur des recherches générales disent qu'ils ont finalement envie d'utiliser l'IA pour éliminer complètement les simulations de modèle standard. Les partisans de cette approche espèrent utiliser la technique de ‘la learning machine’ pour trouver des modèles dans les données sans aucun biais théorique. « Nous voulons inverser la stratégie — laisser les données nous dire où chercher par la suite », dit Caron. Les informaticiens poussent également vers ce type de « non supervisé » de ‘la learning machine’ - comparé au type supervisé, dans lequel la machine « apprend » en passant par des données qui ont été marquées précédemment par les humains. » Article dans la revue : Nature 560, 293-294 (2018)

 

         L’annonce suivante du 28/08, pourrait reporter à plus tard les positions radicales de Sascha Caron et les autres et plutôt donner raison à Tulika Bose, mais pour l’instant satisfaisons nous de l’annonce suivante :

« Six ans après sa découverte, le boson de Higgs a enfin été observé en se désintégrant en des particules fondamentales connues sous le nom de : quark Bottom. La découverte, présentée aujourd'hui au CERN par les équipes d’Atlas et de CMS au grand collisionneur de hadrons (LHC), est compatible avec l'hypothèse que le champ quantique omniprésent qui engendre le boson de Higgs attribue également de la masse au Quark Bottom. Les deux équipes ont présenté leurs résultats pour publication aujourd'hui. »

En 2017, ils avaient annoncé qu'ils commençaient à voir l'existence de ces couplages avec les quarks b. Mais, techniquement, le signal observé n'était guère au-dessus de 3 sigmas donc insuffisant pour faire des affirmations solides. Pourtant il est prédit que le mode de désintégration de H par la voie du b est le plus fréquent, de l’ordre de 60%. Avant l'observation du canal de désintégration H en quark et antiquark b, un autre canal de désintégration, avec les quarks et antiquarks t, avait été observé.

Cette découverte reste tout de même une belle performance à porter au crédit du travail complexe et acharné des physiciens et ingénieurs à l'origine de l'aventure du LHC depuis des décennies. Elle a nécessité de modéliser le bruit de fond produit par les myriades de particules générées par chaque collision pour en extraire les rares évènements intéressants (sic) à l'aide de techniques d'analyse des données sophistiquées.

            Les porte-parole des collaborations Atlas et CMS ont fait des déclarations au sujet de ce travail remarquable dans un communiqué du CERN. Ainsi pour Karl Jakobs (Atlas) : « Cette observation constitue une étape marquante dans l'étude du boson de Higgs. Elle montre que les expériences Atlas et CMS sont parvenues à une compréhension approfondie de leurs données, et à une maîtrise des bruits de fond qui dépasse les attentes. Atlas a désormais observé tous les couplages du boson du Higgs aux quarks lourds et aux leptons de troisième génération ainsi que l'ensemble des modes de production principaux. »  En ce qui concerne Joel Butler (CMS) : « Depuis la première observation, dans une seule expérience, de la désintégration du boson de Higgs en leptons tau, il y a un an, CMS, de même que nos collègues d'Atlas, a observé le couplage du boson de Higgs aux fermions les plus massifs : le tau, le quark t, et à présent le quark b. La magnifique performance du LHC, et les techniques modernes d'apprentissage automatique nous ont permis d'aboutir à ce résultat plus tôt que prévu. »

Enfin selon Eckhard Elsen, directeur de la recherche et de l'informatique du Cern : « Les expériences continuent à se concentrer sur la particule de Higgs, qui est souvent considérée comme une porte d'accès à la nouvelle physique. Ces très beaux résultats, obtenus rapidement, montrent l'intérêt de nos projets d'amélioration du LHC visant à augmenter substantiellement la quantité de données. Il apparaît désormais que les méthodes d'analyse atteignent la précision requise pour l'exploration de la totalité du paysage de la physique, y compris, nous l'espérons, la nouvelle physique qui est restée si bien cachée jusqu'à présent. »

            « Les techniques modernes d'apprentissage automatique » est certainement l’expression qui correspond au mieux à « Learning Machine ». On doit remarquer que E. Elsen est directeur de la recherche et de l’informatique, c’est-à-dire que l’on ne peut pas être un chercheur physicien sans être informaticien. Cela ne doit pas être spécifique à la recherche en physique mais ici l’inclusion est inexorablement établie. Que doit-on en penser?

Partager cet article
Repost0

commentaires

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens