Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
7 mai 2017 7 07 /05 /mai /2017 06:15

La science a besoin de raison pour produire de la confiance

 

Dans des articles principaux du 11/04/2017 et du 16/01/2016 et quelques autres, j’ai exprimé une sérieuse inquiétude à propos de ce que j’analyse comme étant une dérive redoutable de la pensée scientifique en tant que discipline ayant l’objectif d’accéder à des connaissances rigoureuses et partageables. Il y a maintenant quelques décennies que cette discipline prend des chemins qui fourvoient les fondements et les contraintes de celle-ci. Ce qui est impressionnant c’est que cela prend de l’ampleur avec l’impossibilité toujours actuelle de sortir des impasses théoriques aussi bien en cosmologie, en physique des particules élémentaires et plus particulièrement celle des neutrinos. Cette fuite en avant s’explique en partie à cause des moyens technologiques de plus en plus fabuleux dont l’humanité dispose et disposera ainsi que des moyens de calcul qui laissent croire que l’on peut voir originalement, par simulation, ce que l’on est incapable de penser. La communauté scientifique est dans l’incapacité de proposer de nouveaux paradigmes qui donneraient l’élan nécessaire pour dépasser les impasses actuelles. La nature ne nous dévoilera jamais ces paradigmes (naturellement) puisqu’ils ne sont que des productions de l’intelligence humaine engagée dans le dépassement perpétuel pour que la Nature nous dévoile ses lois et ses propriétés. C’est une praxis qui fut inhérente à l’histoire de l’émancipation de l’humanité, praxis qui continue de l’être pour son émancipation future, c’est-à-dire la nôtre.

C’est avec beaucoup d’intérêt et de satisfaction que j’ai pris connaissance d’un article du 05/04 dans la revue Nature : ‘Science needs reason to be trusted’, de Sabine Hossenfelder, qui nous dit avec beaucoup de lucidité et de sincérité, là où elle exerce son métier de physicienne, pourquoi nous nous rejoignons pour exprimer nos états d’alerte. Elle indique aussi – un point de vue que je partage – que les physiciens et spécialistes des sciences exactes ont tort de considérer que leur activité professionnelle les rend imperméables aux influences sociétales et à ses valeurs qui peuvent être versatiles. Sabine Hossenfelder exerce à l’institut des études avancées de Francfort.

Ci-joint le texte de l’article traduit par Michel, Alain, François, Daniel, dont j’assume la responsabilité de son assemblage.

« Je suis physicienne dans le domaine : théorie de la physique des particules, et je doute de la validité de la recherche dans ce domaine. Je sais que c’est déjà gênant mais il y a encore pire. Je crains que le public ait de bonnes raisons de ne pas faire confiance aux scientifiques et – triste mais vrai – moi-même je trouve également qu’il est de plus en plus difficile de leur faire confiance.

Au cours des dernières années la confiance en la science a été sévèrement mise en question par la crise de la reproductibilité. Ce problème a principalement touché les sciences de la vie où il arrive que de nombreuses découvertes validées par des pairs ne peuvent être reproduites de manière indépendante. Les tentatives pour remédier à cela se sont concentrées sur l’amélioration des dispositions actuelles relatives à la fiabilité statistique et la façon dont elles sont appliquées en pratique. Des changements de ce type ont été mis en œuvre pour améliorer l’objectivité scientifique ou – de manière plus brutale – empêcher les scientifiques de se mentir et de mentir aux autres. Ils ont été conçus pour rétablir la confiance.

La crise de la reproductibilité est un problème mais au moins c’est un problème qui a été identifié et qui est traité. Néanmoins, où je suis, dans un domaine de recherche qui peut, grosso modo être défini comme les fondements de la physique – cosmologie, physique au- delà du modèle standard, fondements de la mécanique quantique – je suis au contact direct d’un problème bien plus important.

  1. travaille dans l’élaboration des théories. Notre tâche, consiste en gros à trouver des nouvelles – et d’une certaine façon meilleures – explications à des observations déjà existantes et à en tirer ensuite des prédictions pour tester ces nouvelles propositions prédictives. Nous n’avons pas de crise de reproductibilité car au départ nous ne disposons pas de données – toutes les observations disponibles peuvent s’expliquer par des théories bien établies (à savoir : le modèle standard de la physique des particules élémentaires et le modèle standard de la cosmologie : LCDM).

Mais nous avons une crise d’une toute autre nature : nous produisons une énorme quantité de théories nouvelles et pourtant aucune d’entre elles n’est jamais confirmée expérimentalement. Appelons cela la crise de surproduction. Nous utilisons les méthodes reconnues dans notre discipline, constatons qu’elles ne marchent pas mais n’en tirons aucune conséquence. Comme une mouche frappant une vitre, nous nous répétons sans cesse, en attendant de nouveaux résultats

Quelques-uns de mes collègues ne seront pas d’accord pour reconnaître qu’il y a une crise. Ils vous diront que nous avons fait de grands progrès au cours des quelques dernières décades (en dépit du fait qu’il n’en est rien sorti) et en conséquence il est normal qu’il y ait un ralentissement du progrès de la connaissance comme lorsqu’un champ arrive à maturité. Ce n’est pas le 18e siècle et découvrir aujourd’hui sur le plan fondamental une nouvelle physique n’est pas aussi simple que cela a été. Cela se comprend. Mais mon problème ce n’est pas le chemin du progrès, per se, à la vitesse de l’escargot, c’est que les pratiques actuelles des développements théoriques contemporains montrent un défaut de la méthode scientifique.

Permettez-moi d’illustrer ce que je veux dire :

En décembre 2015 les ensembles CMS et Atlas du LHC ont présenté une évidence d’un écart par rapport au modèle standard de la physique avec, approximativement, une résonnance de masse à 750 GEV. L’excèdent est apparu dans le canal de désintégration avec deux photons et avait un faible niveau de signification statistique. Cela ne correspondait à rien de ce qui avait été jusqu’à présent prédit. En aout 2016, de nouvelles données ont révélé que l’excédent était simplement une fluctuation statistique. Mais avant que ceci soit mis en évidence, les physiciens des hautes énergies ont produit plus de 600 articles pour expliquer le signal supposé. Beaucoup de ces articles furent publiés dans les principaux journaux de ce domaine. Aucun d’entre eux n’a décrit la réalité.

Actuellement, la communauté des physiciens des particules est toujours sujette aux marottes et aux modes. Bien que ce cas soit extrême à la fois par le nombre de participants et par leur célérité, il y eut auparavant de nombreux cas similaires. Dans la physique des particules, se précipiter sur un sujet chaud dans l’espoir d’obtenir des citations est si commun qu’il a un nom : ‘la chasse à l’ambulance’, en référence (vraisemblablement apocryphe) à la pratique des avocats suivant les ambulances dans l’espoir de trouver de nouveaux clients.

On pourrait argumenter que même si toutes les explications de cette excroissance de 750 GEV étaient fausses, c’était cependant un bon exercice pour l’esprit, une sorte d’opération de forage pour atteindre un vrai résultat. Je ne suis pas convaincue que ceci soit du temps bien utilisé, mais d’une façon ou d’une autre, chasser l’ambulance n’est pas ce qui m’inquiète. Ce qui me préoccupe, c'est que cette quantité produite de documents est une démonstration frappante de l'inefficacité des critères de qualité actuels. Si seulement quelques mois suffisent pour produire plusieurs centaines d'’explications pour un accident statistique, alors à quoi ces explications seraient-elles bonnes ?

Et ce n'est pas seulement en physique théorique des hautes énergies. On le constate aussi en cosmologie, où les modèles d'inflation abondent. Les théoriciens introduisent un ou plusieurs nouveaux champs et potentiels qui régulent la dynamique de l'Univers avant qu’ils ne se désintègrent en matière courante. Les données d'observation actuelles ne permettent pas de distinguer ces différents modèles. Et même en disposant de nouvelles données, il restera encore beaucoup de modèles pour écrire des articles. Selon mon estimation, la littérature en contient actuellement plusieurs centaines.

Pour chaque choix de champs et potentiels d'inflation, on peut calculer des observables, puis passer aux champs et potentiels suivants. La probabilité que l'un de ces modèles décrive la réalité est infime - c'est un jeu de roulette sur une table infiniment grande. Mais selon les critères de qualité actuels, c'est une science de première qualité.

Ce syndrome de comportement se manifeste également en astrophysique, où les théoriciens évoquent des champs pour expliquer la constante cosmologique (qui est bien expliquée par le fait que c’est bien une constante) et suggèrent des «secteurs cachés» de plus en plus compliqués de particules qui pourraient être ou n’être pas de la matière noire.

Il n’est pas dans mon intention de rejeter indistinctement toute cette recherche comme inutile. Dans chaque cas, il y a de bonnes raisons pour que le sujet mérite d'être étudié et conduise à de nouvelles idées - raisons que je n’ai pas la place de développer ici. Mais en l'absence de mesures de bonne qualité, les idées qui s’imposent sont les plus fructueuses, même s'il n'y a aucune preuve que la fécondité d'une théorie soit en corrélation avec sa justesse. Permettez-moi de souligner que cela ne signifie pas nécessairement qu'individuellement les scientifiques modifient leur comportement pour satisfaire leurs pairs. Cela signifie seulement que les tactiques qui survivent sont celles qui se reproduisent.

Beaucoup de mes collègues croient que cette abondance de théories sera éventuellement réduite grâce aux données factuelles. Mais dans les processus de fondation de la physique, il a été extrêmement rare d’éliminer un modèle quel qu’il soit. La pratique admise est au contraire d’ajuster le modèle pour qu’il continue à être en accord avec le manque de preuves empiriques.

La prédominance d’hypothèses fertiles et facilement modifiables a des conséquences. Etant donné que les expériences prouvant les fondations des théories physiques sont devenues tellement couteuses et tellement longues à mettre sur pied, nous devons examiner soigneusement lesquelles d’entre elles sont aptes à révéler de nouveaux phénomènes. Dans cette évaluation les avis des théoriciens sur les modèles susceptibles d’être corrects, jouent un grand rôle. Bien sûr les expérimentateurs mettent en avant leur propres délais, mais c’est la théorie qui devrait éclairer leur mission. Quoi qu’il en soit ceci signifie que si les théoriciens sont perdus, les expériences deviennent moins aptes à produire de nouveaux résultats interprétables, en conséquence les théoriciens ne peuvent s’appuyer sur de nouvelles données et le cercle (vicieux) se referme.

Il n’est pas difficile de voir comment nous en sommes arrivé à cette situation. Nous sommes jugés sur le nombre de nos publications – ou au moins nous pensons être jugés ainsi – et l’exigence d’éléments qualitativement meilleurs pour assurer le développement des théories amputerait la production de celles-ci. Mais que la pression pour publier récompense la quantité au détriment de la qualité a souvent été dit dans le passé et je ne veux pas encore ajouter d’autres reproches sur les éléments mal conçus pour assurer un succès scientifique. Il est évident que de tels reproches n’ajouteraient rien.

Des complaintes sur la pression pour publier ne servent à rien car cette pression est seulement un symptôme et pas la maladie. Le problème sous-jacent est que la science comme toute autre activité collective humaine est soumise à la dynamique sociale. A la différence de la plupart des autres activités humaines collectives, les scientifiques devraient reconnaitre les menaces portant sur l'objectivité de leur jugement et trouver les moyens de les éviter. Mais ce n'est pas ce qui arrive.

Si les scientifiques sont sélectivement exposés aux informations émanant de pairs pensant la même chose, s'ils sont punis pour ne pas suffisamment attirer l'attention, s'ils font face à des obstacles pour quitter des domaines de recherche promis au déclin, ils ne peuvent être comptés comme étant objectifs. C'est la situation dans laquelle nous sommes actuellement et nous devons l'accepter.

Pour moi, notre incapacité -- ou peut-être même notre mauvaise volonté -- à limiter l'influence des biais sociaux et cognitifs au sein des communautés scientifiques est une sérieuse défaillance du système. Nous ne protégeons pas les valeurs de notre discipline. La seule réponse que je vois, sont des tentatives pour rendre les autres responsables : les agences de financement, les administrateurs de l'enseignement supérieur ou les décideurs politiques. Mais aucun de ces acteurs n'est intéressé à gaspiller de l'argent dans des recherches inutiles. Ils comptent sur nous, les scientifiques, pour leur dire comment la science fonctionne.

J'ai indiqué des exemples de ces manquements à l'autocorrection dans ma propre discipline. Il semble raisonnable de penser que la dynamique sociale est plus influente dans les domaines privés de données, ainsi les fondements de la physique représentent-ils peut être un cas extrême. Mais à la base, le problème affecte toutes les communautés scientifiques. L'an dernier, la campagne du Brexit et la campagne de la présidentielle américaine nous ont montré à quoi ressemblent les politiques post-factuelles -- un développement qui peut être complétement perturbant pour quiconque est doté d'un bagage scientifique. Ignorer les faits est vain. Mais, nous aussi, nous ignorons les faits : il n'y a aucune évidence que l'intelligence fournisse une immunité contre les biais sociaux et cognitifs, aussi cette présence doit être considérée comme défaut supposé. Et tout comme nous avons des règles pour éviter des biais systématiques dans l'analyse des données, nous devrions également avoir des lignes directrices pour éviter les biais systématiques découlant de la façon dont les cerveaux humains traitent l'information.

Cela signifie, par exemple, que nous ne devrions pas pénaliser les chercheurs qui travaillent dans des domaines « impopulaires », ni filtrer les informations en utilisant les recommandations d’amis, ni utiliser les techniques de marketing, et nous devrions agir contre la crainte de l’échec avec des incitations à changer de domaine, et donner plus d’importance aux connaissances qui ne sont pas encore largement partagées (Pour éviter le «biais d'information partagée»). Par-dessus tout, nous devrions commencer à prendre le problème au sérieux.

Pourquoi n'est-il pas pris au sérieux jusqu'à présent ? Parce que les scientifiques font confiance à la science. Cela a toujours fonctionné ainsi, et la plupart des scientifiques sont optimistes sur le fait que cela continuera - sans qu’ils aient à agir. Mais nous ne sommes plus au dix-huitième siècle. Les communautés scientifiques ont radicalement changé au cours des dernières décennies. Nous sommes plus nombreux, nous collaborons davantage et nous partageons plus d'informations que jamais. Tout cela est amplifié par les commentaires dans les réseaux sociaux, et il est naïf de croire que quand nos communautés changent nous n’aurions pas aussi à réévaluer nos méthodes.

Comment pouvons-nous blâmer le public d'être mal informé parce qu'ils vivent dans des bulles sociales si nous en sommes également coupables ? »

 

Partager cet article
Repost0

commentaires

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens