Le conditionnel est toujours de mise.
Lu, dans la dernière livraison du Cern-Courier (Janvier/Février 2012) : «[1]Si le boson de Higgs existe suivant les prévisions du Model Standard, alors sa masse est comprise, avec la plus grande probabilité, entre 115,5 et 127 Gev. Pour être plus précis, l’équipe du CMS exclut, avec 95% d’assurance, que ce boson ait une masse supérieure à 127 Gev, tandis que l’équipe d’ATLAS exclut une masse inférieure à 115.5 et supérieure à 131 Gev (avec une possible petite fenêtre de 237-251 Gev pas encore exclue par Atlas). Les limites supérieures de la région d’exclusion sont 468 Gev pour Atlas et 600 Gev pour CMS.
La possibilité d’exclure la région de masse inférieure est contrariée dans les deux expériences par le fait qu’il y ait un excès d’événements au voisinage de 120 Gev. De tels excès pourraient être tout simplement des fluctuations du fond (donc non significatif) ou bien les prémices d’un signal caractéristique de Higgs. Ces résultats sont consistants avec ce qui est attendu avec les statistiques accumulées jusqu’à présent, que le boson de Higgs de masse légère existe ou pas (sic).
La campagne de collecte de données programmée en 2012, attendue pour fournir au moins deux fois plus de collisions que en 2011 (soit dit en passant : 2 fois 300.000 milliards), devrait conduire à résoudre la quête du boson de Higgs du modèle standard – qui dure depuis 40 ans – en nous fournissant la réponse : oui, il est mis en évidence, ou bien, non il est totalement exclu. »
« Les résultats dévoilés au cours des présentations du 13/12 ont montré qu’une compréhension profonde est achevée, par chacune des équipes, des performances respectives des détecteurs et des nombreux bruits de l’arrière-fond. » Dans la même veine, il est écrit plus loin : « Pour le CMS, une bonne résolution de masse est possible grâce en particulier au progrès majeur qui a été finalisé dans la compréhension du calibrage du calorimètre de cristal ; dans l’aire centrale du calorimètre la performance est désormais voisine de la prévision nominale. »
Ces commentaires concernant l’évolution de la maîtrise du fonctionnement des deux détecteurs favorisent l’optimisme en ce qui concerne la fiabilité de ce qui sera détecté ou pas en 2012, mais ceux-ci permettent aussi de comprendre toutes les précautions prises à propos des événements (une dizaine) qui ont été sélectionnés comme pouvant être significatifs.
Voilà pourquoi, plus que jamais, le conditionnel est de mise !
Ce qui peut laisser perplexe c’est le rapport suivant : une dizaine d’événements sélectionnée en aval, 300.000 milliards de collisions en amont. Même avec une plus grande maîtrise du fonctionnement et de la sensibilité des deux détecteurs, annoncée pour 2012, pourra-t-on distinguer significativement un nombre suffisant d’événements au-dessus du bruit de fond ? On ne doit pas oublier que ATLAS et CMS ont en premier lieu étaient conçus avec la perspective prioritaire de la détection irrévocable du boson de Higgs s’il existe.
En fait de ce fameux boson de Higgs, on en a plus besoin qu’il ne se justifie. Il a été véritablement inventé.
a) Besoin de l’inventer pour consolider la construction théorique de l’unification (ou du processus inverse) de l’interaction électrofaible : c'est-à-dire expliquer pourquoi dans ce cas les bosons de jauge W et Z de l’interaction faible ne se différencient pas (ou inversement se différencient), par leur masse, du boson de jauge de l’interaction électromagnétique : le photon.
b) Besoin de l’inventer pour consolider le scénario de la genèse de l’Univers avec Big-Bang, et expliquer qu’à partir d’un Univers constitué exclusivement de rayonnement celui-ci évolue, après de l’ordre de 10-12s, vers un Univers empli de rayonnement et de particules de matière[2].
Que l’on découvre ou pas de boson de Higgs, 50 années après son invention, où cela nous mènera ? Cela nous mènera à un palier d’interrogations plus qu’à un aboutissement. Certes, selon le cas de figure qui s’imposera, les bifurcations seront différentes et référons-nous à celles que préemptent John Ellis (site de Techno-Science le 13/09/2011) :
1 « Toutefois, si le Higgs se trouve dans cet intervalle (114-135 Gev), la théorie du modèle standard reste incomplète ; le vide électrofaible tel que nous le comprenons actuellement serait instable pour un Higgs aussi léger dans le modèle standard, et donc nous devrions produire une nouvelle physique pour le stabiliser. »
2 « Deuxième possibilité : le boson de Higgs est plus lourd que 500 Gev, auquel cas ce pourrait être un Higgs du modèle standard… Dans ce cas, je pense que nous aurions besoin d’une nouvelle physique afin de ‘domestiquer’ ce Higgs lourd. »
3 « La troisième possibilité est que le boson de Higgs se trouve quelque part entre 135 et 500 Gev. Dans ce cas, les couplages ne pourraient être ceux du Higgs du modèle standard….et, là encore, nous aurions besoin d’une façon ou d’une autre d’une nouvelle physique. »
4 « Bien sûr, il existe encore une quatrième possibilité : qu’il n’y ait pas de Higgs du tout ! Eh bien, cela pourrait vouloir dire qu’il n’y a rien qui ressemble à un boson de Higgs du Modèle Standard, ou alors que cette particule est tellement lourde qu’elle se comporte d’une façon que nous ne pouvons pas calculer (pour le moment bien sûr !). J’ai toujours dit que le résultat le plus intéressant pour les théoriciens serait qu’il n’y ait aucun boson de Higgs d’aucune sorte. Cela nous obligerait à abandonner toutes les idées qui inspirent nos théories depuis 47 ans. » Commentaire : n’oublions pas que dans ce cas c’est fondamentalement la théorie quantique des champs qui devra être remise en question.
Il y a-t-il des théories bien nées et d’autres mal nées ?
Dans les années 1930, il n’aura pas fallu plus de trois ans pour que la prédiction théorique remarquable de Dirac sur l’existence de l’antiélectron soit expérimentalement vérifiée. Et de là, c’est le monde de l’antimatière qui prenait de la consistance. Pour ceux qui ont eu la curiosité de connaître l’histoire de cette découverte, la simplicité des arguments de Paul Dirac ainsi que les critères ‘esthétiques’ qui ont guidé ce savant, pour affirmer qu’à la pointe du crayon il dévoilait un monde totalement nouveau, ne manquent pas d’étonner.
La relativité générale relève aussi de considérations premières basiques, ‘naturelles’, qui, malgré l’exploitation d’un arsenal mathématique peu développé à l’époque, a mis en évidence des prédictions confirmées, quatre années après, avec la déflection au voisinage du soleil de la lumière émise par une étoile.
La constante de Planck, pur artéfact mathématique en 1900, selon l’auteur, est consacrée grandeur physique fondamentale en 1905 par Einstein avec cette belle et simple formule E = hν, suite à l’analyse de l’effet photoélectrique.
Le neutrino a été inventé pour les besoins d’une construction théorique. En effet, Pauli a inventé le neutrino pour les besoins de la cause : maintenir le principe de la conservation de l’énergie en mécanique quantique. Celui-ci a été pour la première fois détecté ¼ de siècle après, en 1956, à Savannah River. Depuis on a distingué 3 saveurs et l’énigme des lois physiques qui les caractériseraient est entière. Les neutrinos sont toujours aussi peu saisissables.
Si on prend en compte l’histoire plus ancienne de la pensée scientifique, on constate que dans des situations cruciales, de grands savants (et leurs contemporains) ont été conduits à concevoir de véritables chimères parce que leur entendement ne pouvait dépasser des contraintes imposées par leur propre sens commun de l’époque. Ainsi Newton a eu besoin d’inventer l’éther gravitationnel parce que selon lui il est inconcevable qu’une force puisse se transmettre à travers le vide. Plus tard dans le prolongement de cette ‘inconcevabilité’, ce fut l’éther luminifère qui servira de substrat nécessaire à la propagation de l’onde de lumière.
Aujourd’hui pour que nos modèles théoriques soient consistants nous avons besoin du ou (des) boson(s) de Higgs (et du ou (des) mécanisme(s) qui l’engendre(nt)) pour rendre compte de la transition d’entités immatérielles vers des particules de matière. Puisque, avec le Big-Bang, nous théorisons sur une origine fondamentale, immatérielle, avec une chronologie, nous sommes obligés de projeter dans cette réalité hypothétique un processus qui assurerait une telle transition.
La quête actuelle de ces bosons de Higgs, met en évidence, entre autres, le besoin de cohérence attaché à la conception dominante d’un Univers qui, telle une machine, s’est mis en route il y a 13 milliards 800 millions d’années et il est contraint par le respect de la chaîne de causalité, substrat inaliénable de notre capacité de raisonnement.
Ma conception est toujours de considérer que la matière se décline à partir du rayonnement, pas pour des raisons chronologiques ayant pour cause principal le Big-Bang mais plutôt pour des raisons de capacités conceptuelles propres à l’anthrôpos. Dans mon référentiel théorique il n’y a pas de big-bang chronologique, puisque notre Univers est enchâssé au sein d’une Eternité et il est parmi tous les possibles, celui qui nous correspond, celui que nous pouvons au fur et à mesure[3], élucider, décrypter et structurer. Les autres possibles ne sont pas exclus (ils ne doivent pas l’être) mais tout simplement ils ne sont pas de notre ressort. L’origine que l’on attribue au nôtre correspondrait en fait à la pointe extrême de nos capacités actuelles de conception, là où il n’y a que du rayonnement. Le monde premier que l’anthrôpos perçoit est celui du rayonnement (de la lumière). Il constitue le fond à partir duquel se décline notre compréhension du monde et la mise en forme de ses propriétés. On ne peut s’y situer mais nous pouvons abstraitement, partiellement, l’investir, grâce à nos capacités cérébrales de raisonnement. Se décline : implique que le rayonnement et ses propriétés soient considérés comme constituant le paradigme absolu. C’est à travers ce rapport primordial que nous identifions ce qui constitue la matière avec ou sans mécanisme de Higgs au sens strict.
[1] Traduction assurée par mes soins, étant donné que la version en français de ce journal a été retirée du circuit depuis plusieurs années quand le directeur général était un français. Pour évaluer les dégâts auxquels contribue ce type de décision, lire le livre du linguiste Claude Hagège : ‘Contre la pensée unique’, édit. O. Jacob, janvier 2012, notamment p. 119 : « Langue et pensée scientifique ». Pour rappel le CERN a été fondé par la France et l’Allemagne au début des années 1950.
[2] Les cosmologistes sont amenés à distinguer plusieurs champs de Higgs. Champs qui, en prenant une valeur non nulle, donnent des masses aux particules auxquelles ils sont couplés. Ces champs dont il est question sont conçus suivant la même idée générique que celui rechercher au LHC. Ils sont de plus hautes énergies. A chacun de ces champs est associé une particule de Higgs de masse spécifique.
[3] Dans ce contexte, l’usage de cette locution mériterait d’être médité, notamment sous le versant : quelles sont les conditions de ces : au fur et à mesure, successifs ?