Overblog
Suivre ce blog Administration + Créer mon blog
7 mai 2017 7 07 /05 /mai /2017 06:15

La science a besoin de raison pour produire de la confiance

 

Dans des articles principaux du 11/04/2017 et du 16/01/2016 et quelques autres, j’ai exprimé une sérieuse inquiétude à propos de ce que j’analyse comme étant une dérive redoutable de la pensée scientifique en tant que discipline ayant l’objectif d’accéder à des connaissances rigoureuses et partageables. Il y a maintenant quelques décennies que cette discipline prend des chemins qui fourvoient les fondements et les contraintes de celle-ci. Ce qui est impressionnant c’est que cela prend de l’ampleur avec l’impossibilité toujours actuelle de sortir des impasses théoriques aussi bien en cosmologie, en physique des particules élémentaires et plus particulièrement celle des neutrinos. Cette fuite en avant s’explique en partie à cause des moyens technologiques de plus en plus fabuleux dont l’humanité dispose et disposera ainsi que des moyens de calcul qui laissent croire que l’on peut voir originalement, par simulation, ce que l’on est incapable de penser. La communauté scientifique est dans l’incapacité de proposer de nouveaux paradigmes qui donneraient l’élan nécessaire pour dépasser les impasses actuelles. La nature ne nous dévoilera jamais ces paradigmes (naturellement) puisqu’ils ne sont que des productions de l’intelligence humaine engagée dans le dépassement perpétuel pour que la Nature nous dévoile ses lois et ses propriétés. C’est une praxis qui fut inhérente à l’histoire de l’émancipation de l’humanité, praxis qui continue de l’être pour son émancipation future, c’est-à-dire la nôtre.

C’est avec beaucoup d’intérêt et de satisfaction que j’ai pris connaissance d’un article du 05/04 dans la revue Nature : ‘Science needs reason to be trusted’, de Sabine Hossenfelder, qui nous dit avec beaucoup de lucidité et de sincérité, là où elle exerce son métier de physicienne, pourquoi nous nous rejoignons pour exprimer nos états d’alerte. Elle indique aussi – un point de vue que je partage – que les physiciens et spécialistes des sciences exactes ont tort de considérer que leur activité professionnelle les rend imperméables aux influences sociétales et à ses valeurs qui peuvent être versatiles. Sabine Hossenfelder exerce à l’institut des études avancées de Francfort.

Ci-joint le texte de l’article traduit par Michel, Alain, François, Daniel, dont j’assume la responsabilité de son assemblage.

« Je suis physicienne dans le domaine : théorie de la physique des particules, et je doute de la validité de la recherche dans ce domaine. Je sais que c’est déjà gênant mais il y a encore pire. Je crains que le public ait de bonnes raisons de ne pas faire confiance aux scientifiques et – triste mais vrai – moi-même je trouve également qu’il est de plus en plus difficile de leur faire confiance.

Au cours des dernières années la confiance en la science a été sévèrement mise en question par la crise de la reproductibilité. Ce problème a principalement touché les sciences de la vie où il arrive que de nombreuses découvertes validées par des pairs ne peuvent être reproduites de manière indépendante. Les tentatives pour remédier à cela se sont concentrées sur l’amélioration des dispositions actuelles relatives à la fiabilité statistique et la façon dont elles sont appliquées en pratique. Des changements de ce type ont été mis en œuvre pour améliorer l’objectivité scientifique ou – de manière plus brutale – empêcher les scientifiques de se mentir et de mentir aux autres. Ils ont été conçus pour rétablir la confiance.

La crise de la reproductibilité est un problème mais au moins c’est un problème qui a été identifié et qui est traité. Néanmoins, où je suis, dans un domaine de recherche qui peut, grosso modo être défini comme les fondements de la physique – cosmologie, physique au- delà du modèle standard, fondements de la mécanique quantique – je suis au contact direct d’un problème bien plus important.

  1. travaille dans l’élaboration des théories. Notre tâche, consiste en gros à trouver des nouvelles – et d’une certaine façon meilleures – explications à des observations déjà existantes et à en tirer ensuite des prédictions pour tester ces nouvelles propositions prédictives. Nous n’avons pas de crise de reproductibilité car au départ nous ne disposons pas de données – toutes les observations disponibles peuvent s’expliquer par des théories bien établies (à savoir : le modèle standard de la physique des particules élémentaires et le modèle standard de la cosmologie : LCDM).

Mais nous avons une crise d’une toute autre nature : nous produisons une énorme quantité de théories nouvelles et pourtant aucune d’entre elles n’est jamais confirmée expérimentalement. Appelons cela la crise de surproduction. Nous utilisons les méthodes reconnues dans notre discipline, constatons qu’elles ne marchent pas mais n’en tirons aucune conséquence. Comme une mouche frappant une vitre, nous nous répétons sans cesse, en attendant de nouveaux résultats

Quelques-uns de mes collègues ne seront pas d’accord pour reconnaître qu’il y a une crise. Ils vous diront que nous avons fait de grands progrès au cours des quelques dernières décades (en dépit du fait qu’il n’en est rien sorti) et en conséquence il est normal qu’il y ait un ralentissement du progrès de la connaissance comme lorsqu’un champ arrive à maturité. Ce n’est pas le 18e siècle et découvrir aujourd’hui sur le plan fondamental une nouvelle physique n’est pas aussi simple que cela a été. Cela se comprend. Mais mon problème ce n’est pas le chemin du progrès, per se, à la vitesse de l’escargot, c’est que les pratiques actuelles des développements théoriques contemporains montrent un défaut de la méthode scientifique.

Permettez-moi d’illustrer ce que je veux dire :

En décembre 2015 les ensembles CMS et Atlas du LHC ont présenté une évidence d’un écart par rapport au modèle standard de la physique avec, approximativement, une résonnance de masse à 750 GEV. L’excèdent est apparu dans le canal de désintégration avec deux photons et avait un faible niveau de signification statistique. Cela ne correspondait à rien de ce qui avait été jusqu’à présent prédit. En aout 2016, de nouvelles données ont révélé que l’excédent était simplement une fluctuation statistique. Mais avant que ceci soit mis en évidence, les physiciens des hautes énergies ont produit plus de 600 articles pour expliquer le signal supposé. Beaucoup de ces articles furent publiés dans les principaux journaux de ce domaine. Aucun d’entre eux n’a décrit la réalité.

Actuellement, la communauté des physiciens des particules est toujours sujette aux marottes et aux modes. Bien que ce cas soit extrême à la fois par le nombre de participants et par leur célérité, il y eut auparavant de nombreux cas similaires. Dans la physique des particules, se précipiter sur un sujet chaud dans l’espoir d’obtenir des citations est si commun qu’il a un nom : ‘la chasse à l’ambulance’, en référence (vraisemblablement apocryphe) à la pratique des avocats suivant les ambulances dans l’espoir de trouver de nouveaux clients.

On pourrait argumenter que même si toutes les explications de cette excroissance de 750 GEV étaient fausses, c’était cependant un bon exercice pour l’esprit, une sorte d’opération de forage pour atteindre un vrai résultat. Je ne suis pas convaincue que ceci soit du temps bien utilisé, mais d’une façon ou d’une autre, chasser l’ambulance n’est pas ce qui m’inquiète. Ce qui me préoccupe, c'est que cette quantité produite de documents est une démonstration frappante de l'inefficacité des critères de qualité actuels. Si seulement quelques mois suffisent pour produire plusieurs centaines d'’explications pour un accident statistique, alors à quoi ces explications seraient-elles bonnes ?

Et ce n'est pas seulement en physique théorique des hautes énergies. On le constate aussi en cosmologie, où les modèles d'inflation abondent. Les théoriciens introduisent un ou plusieurs nouveaux champs et potentiels qui régulent la dynamique de l'Univers avant qu’ils ne se désintègrent en matière courante. Les données d'observation actuelles ne permettent pas de distinguer ces différents modèles. Et même en disposant de nouvelles données, il restera encore beaucoup de modèles pour écrire des articles. Selon mon estimation, la littérature en contient actuellement plusieurs centaines.

Pour chaque choix de champs et potentiels d'inflation, on peut calculer des observables, puis passer aux champs et potentiels suivants. La probabilité que l'un de ces modèles décrive la réalité est infime - c'est un jeu de roulette sur une table infiniment grande. Mais selon les critères de qualité actuels, c'est une science de première qualité.

Ce syndrome de comportement se manifeste également en astrophysique, où les théoriciens évoquent des champs pour expliquer la constante cosmologique (qui est bien expliquée par le fait que c’est bien une constante) et suggèrent des «secteurs cachés» de plus en plus compliqués de particules qui pourraient être ou n’être pas de la matière noire.

Il n’est pas dans mon intention de rejeter indistinctement toute cette recherche comme inutile. Dans chaque cas, il y a de bonnes raisons pour que le sujet mérite d'être étudié et conduise à de nouvelles idées - raisons que je n’ai pas la place de développer ici. Mais en l'absence de mesures de bonne qualité, les idées qui s’imposent sont les plus fructueuses, même s'il n'y a aucune preuve que la fécondité d'une théorie soit en corrélation avec sa justesse. Permettez-moi de souligner que cela ne signifie pas nécessairement qu'individuellement les scientifiques modifient leur comportement pour satisfaire leurs pairs. Cela signifie seulement que les tactiques qui survivent sont celles qui se reproduisent.

Beaucoup de mes collègues croient que cette abondance de théories sera éventuellement réduite grâce aux données factuelles. Mais dans les processus de fondation de la physique, il a été extrêmement rare d’éliminer un modèle quel qu’il soit. La pratique admise est au contraire d’ajuster le modèle pour qu’il continue à être en accord avec le manque de preuves empiriques.

La prédominance d’hypothèses fertiles et facilement modifiables a des conséquences. Etant donné que les expériences prouvant les fondations des théories physiques sont devenues tellement couteuses et tellement longues à mettre sur pied, nous devons examiner soigneusement lesquelles d’entre elles sont aptes à révéler de nouveaux phénomènes. Dans cette évaluation les avis des théoriciens sur les modèles susceptibles d’être corrects, jouent un grand rôle. Bien sûr les expérimentateurs mettent en avant leur propres délais, mais c’est la théorie qui devrait éclairer leur mission. Quoi qu’il en soit ceci signifie que si les théoriciens sont perdus, les expériences deviennent moins aptes à produire de nouveaux résultats interprétables, en conséquence les théoriciens ne peuvent s’appuyer sur de nouvelles données et le cercle (vicieux) se referme.

Il n’est pas difficile de voir comment nous en sommes arrivé à cette situation. Nous sommes jugés sur le nombre de nos publications – ou au moins nous pensons être jugés ainsi – et l’exigence d’éléments qualitativement meilleurs pour assurer le développement des théories amputerait la production de celles-ci. Mais que la pression pour publier récompense la quantité au détriment de la qualité a souvent été dit dans le passé et je ne veux pas encore ajouter d’autres reproches sur les éléments mal conçus pour assurer un succès scientifique. Il est évident que de tels reproches n’ajouteraient rien.

Des complaintes sur la pression pour publier ne servent à rien car cette pression est seulement un symptôme et pas la maladie. Le problème sous-jacent est que la science comme toute autre activité collective humaine est soumise à la dynamique sociale. A la différence de la plupart des autres activités humaines collectives, les scientifiques devraient reconnaitre les menaces portant sur l'objectivité de leur jugement et trouver les moyens de les éviter. Mais ce n'est pas ce qui arrive.

Si les scientifiques sont sélectivement exposés aux informations émanant de pairs pensant la même chose, s'ils sont punis pour ne pas suffisamment attirer l'attention, s'ils font face à des obstacles pour quitter des domaines de recherche promis au déclin, ils ne peuvent être comptés comme étant objectifs. C'est la situation dans laquelle nous sommes actuellement et nous devons l'accepter.

Pour moi, notre incapacité -- ou peut-être même notre mauvaise volonté -- à limiter l'influence des biais sociaux et cognitifs au sein des communautés scientifiques est une sérieuse défaillance du système. Nous ne protégeons pas les valeurs de notre discipline. La seule réponse que je vois, sont des tentatives pour rendre les autres responsables : les agences de financement, les administrateurs de l'enseignement supérieur ou les décideurs politiques. Mais aucun de ces acteurs n'est intéressé à gaspiller de l'argent dans des recherches inutiles. Ils comptent sur nous, les scientifiques, pour leur dire comment la science fonctionne.

J'ai indiqué des exemples de ces manquements à l'autocorrection dans ma propre discipline. Il semble raisonnable de penser que la dynamique sociale est plus influente dans les domaines privés de données, ainsi les fondements de la physique représentent-ils peut être un cas extrême. Mais à la base, le problème affecte toutes les communautés scientifiques. L'an dernier, la campagne du Brexit et la campagne de la présidentielle américaine nous ont montré à quoi ressemblent les politiques post-factuelles -- un développement qui peut être complétement perturbant pour quiconque est doté d'un bagage scientifique. Ignorer les faits est vain. Mais, nous aussi, nous ignorons les faits : il n'y a aucune évidence que l'intelligence fournisse une immunité contre les biais sociaux et cognitifs, aussi cette présence doit être considérée comme défaut supposé. Et tout comme nous avons des règles pour éviter des biais systématiques dans l'analyse des données, nous devrions également avoir des lignes directrices pour éviter les biais systématiques découlant de la façon dont les cerveaux humains traitent l'information.

Cela signifie, par exemple, que nous ne devrions pas pénaliser les chercheurs qui travaillent dans des domaines « impopulaires », ni filtrer les informations en utilisant les recommandations d’amis, ni utiliser les techniques de marketing, et nous devrions agir contre la crainte de l’échec avec des incitations à changer de domaine, et donner plus d’importance aux connaissances qui ne sont pas encore largement partagées (Pour éviter le «biais d'information partagée»). Par-dessus tout, nous devrions commencer à prendre le problème au sérieux.

Pourquoi n'est-il pas pris au sérieux jusqu'à présent ? Parce que les scientifiques font confiance à la science. Cela a toujours fonctionné ainsi, et la plupart des scientifiques sont optimistes sur le fait que cela continuera - sans qu’ils aient à agir. Mais nous ne sommes plus au dix-huitième siècle. Les communautés scientifiques ont radicalement changé au cours des dernières décennies. Nous sommes plus nombreux, nous collaborons davantage et nous partageons plus d'informations que jamais. Tout cela est amplifié par les commentaires dans les réseaux sociaux, et il est naïf de croire que quand nos communautés changent nous n’aurions pas aussi à réévaluer nos méthodes.

Comment pouvons-nous blâmer le public d'être mal informé parce qu'ils vivent dans des bulles sociales si nous en sommes également coupables ? »

 

Partager cet article
Repost0
28 avril 2017 5 28 /04 /avril /2017 14:46

A propos de la mécanique quantique standard : recherche de déviations.

La mécanique quantique standard continue d’être auscultée pour tenter de découvrir des déviations par rapport à la conception standard qui s’est imposée depuis maintenant un siècle. L’article d’Alain Aspect du 16/12/2015 : « Closing the Door on Einstein and Bohr’s Quantum Debate » dans la revue de l’American Physical Society, a contribué à valider la complétude de cette conception standard. Malgré ceci, cela ne clôt pas pour autant la recherche de phénomènes, de propriétés, qui n’auraient pas encore été décelés. Récemment, il y en a au moins une qui était recherchée par une équipe de l’université de Vienne dont les conclusions ne permettent pas de dire qu’ils ont débusqué une propriété originale non standard.

Dans ce bref article, je souhaite faire connaître ce résultat négatif parce qu’en creux cela conforte un certain nombre de mes hypothèses. Je me réfère donc à l’article original dans Phys.Org du 21/04/2017 : «The search for deviations from standard quantum mechanics » : « La recherche de déviations de la mécanique quantique standard »

En résumé, il est relaté que s’il est pensé au moins une propriété nouvelle éventuelle, non prescrite par le formalisme mathématique standard, alors il faut en premier lieu exploiter un formalisme mathématique nouveau. La première étape de la tentative des chercheurs de l’université de Vienne a consisté à sélectionner un formalisme mathématique différent de celui exploité par la description standard. Ils proposent donc de substituer aux nombres complexes habituels des nombres hypercomplexes. Ceux-ci correspondent à une généralisation des nombres complexes (par exemple les nombres hypercomplexes sont utilisés en physique quantique pour calculer la probabilité d'un événement en tenant compte du spin de la particule. En négligeant le spin, les nombres complexes « normaux » suffisent.)

Dans une première étape il faut donc s’assurer qu’avec les nombres hypercomplexes on retrouve tous les résultats confirmés dans le cadre de la mécanique quantique standard. Une fois que cette étape est franchie il s’agit d’évaluer théoriquement ce qui pourrait être prédit au-delà du cadre standard. Justement dans le nouveau cadre certaines opérations ne commutent pas alors qu’avec les nombres complexes il y a commutation. Expérimentalement cela signifierait que dans un interféromètre au-delà du miroir semi transparent un chemin spécifié, parcouru par le photon, plutôt que l’autre, non spécifié, n’est pas indifférent (non commutation) à ce qui serait observable in fine dans l’interféromètre.

La différenciation des deux chemins possibles du photon dans l’interféromètre est assurée par l’introduction, dans un, d’un dispositif qui accélère la lumière (avec un méta-matériel) et dans l’autre, un matériel classique qui ralentit la lumière. Evidemment ces caractérisations des chemins ne sont pas exploitables par l’observateur pour qu’il puisse savoir si le photon est passé par un chemin plutôt qu’un autre. L’observateur est maintenu dans l’ignorance spatio-temporelle du chemin effectivement suivi par le photon et c’est essentiel. Ce que les physiciens observent expérimentalement c’est que la règle de non commutation déduite de l’introduction des nombres hypercomplexes ne se vérifie pas avec ce dispositif expérimental particulier.

En fait ce que les chercheurs, auteurs de ce travail, pensent a priori c’est que ce qui est observé serait tributaire des propriétés intrinsèques (modifiées) de objets quantiques. L’idée qui est mienne c’est que ce que l’on observe in fine dans l’interféromètre dépend uniquement si l’observateur a une information spatio-temporelle ou pas sur le chemin effectivement suivi par le photon. Dans un cas, ce qui est observé, ce sont des impacts d’objets ponctuels dans l’autre cas, ce sont des franges d’interférences (qui résultent de l’aspect ondulatoire).

Selon mon hypothèse fondamentale, l’espace, le temps, et en l’occurrence l’espace-temps sont fondés par l’être humain, c’est-à-dire que ce sont des propres de l’homme. Les apparaître différents à l’observateur : onde/objet ponctuel, sont déterminés par sa connaissance ou pas d’une information spatio-temporelle à propos du chemin suivi par l’objet (ici, un photon). La mécanique quantique nous confronte au fait que l’être humain est un être façonné par les lois classiques de la nature. C’est donc en fonction de ce bagage hérité au cours de son évolution qu’il décrypte progressivement les lois de la nature. Le monde de l’infiniment petit ne nous étant pas accessible directement, aucune conception réaliste de ce monde ne peut être établie contrairement à ce qu’avait voulu instaurer Einstein avec ténacité. Comme le rappelle l’article d’Alain Aspect c’est la version de l’école de Copenhague qui est juste et pas celle des réalistes.

Ce que nous observons n’est qu’un apparaître et nous enregistrons un savoir qui est conditionné par nos capacités cérébrales déterminées par le fait que nous sommes des sujets pensants, observateurs, moulés par une intelligence et des références du monde classique. J’ai eu plusieurs fois l’occasion d’indiquer que c’est un stade provisoire de notre faculté de décrypter le monde physique : voir article du 26/09/2015 ‘Non, on ne pense pas quantique. Pas encore !’. Ce stade provisoire pourra être franchi, lorsque nous atteindrons une compréhension nouvelle de nos facultés cérébrales d’investigations comme je l’ai proposé dans les articles du 21/09/2016 et du 10/10/2016.

Partager cet article
Repost0
11 avril 2017 2 11 /04 /avril /2017 12:11

La recherche doit-elle voir toujours plus grand ?

Dans le numéro de 'La Recherche', du mois de Mars, sont proposés plusieurs articles sous la rubrique : « Big science », La recherche doit-elle voir toujours plus grand ? A propos de ce thème générique, je considèrerai les sujets qui recouvrent essentiellement le domaine de la physique.

  • Grands instruments, grandes équipes et/ou gros budgets caractérisent une nouvelle manière de faire de la science. De plus en plus répandue dons tous les champs de recherche, elle est à l'origine de plusieurs découvertes marquantes de ces dernières années. Mais les interrogations, les doutes, les oppositions que ce modèle suscite, dans la communauté scientifique et au-delà, soulignent à quel point il est crucial de bien mûrir un projet de grande envergure afin d'en faire un succès. » Ce paragraphe introductif, que l'on peut lire page 81, présente justement la problématique qu'engendre le développement et l'exploitation de ce qui se réfère à la Big science ». A juste raison sont présentés les succès significatifs qui sont dus à son recours. Mais sont aussi mis en exergue les projets dont on peut craindre qu'ils ne soient que des fuites en avant. Fuites en avant quand les projets (d’expériences et/ou d’observations) ne sont pas suffisamment précédés par un minimum de prédictions théoriques qui cernent un spectre d’hypothèses hiérarchisées permettant de valider ou invalider quelques-unes de celles-ci.

Exemple, p.86 : « Mais la big science a aussi ses détracteurs ou, tout au moins, ses sceptiques. Simon White, directeur de recherche à l'institut Max-Planck d'astrophysique, à Garching, en Allemagne, a ainsi exprimé de multiples doutes quant aux grands projets de recherche sur l'énergie noire, cette forme d'énergie hypothétique nécessaire, par exemple, pour expliquer l'accélération de l'expansion de l'univers. Il redoute surtout l'impact possiblement néfaste de ces projets sur la recherche en astrophysique. Entre autres, que leur bénéfice réel soit mol évalué et, par conséquent, conduise à engloutir les crédits de recherche dans la construction d'instruments très coûteux mais apportant finalement des avancées limitées. »

L'aspect financier n'est pas secondaire, mais à mon sens cet aspect n'exprime pas l'inconvénient essentiel. Pour illustrer mon propos, je prends pour exemple le cours réalisé par Françoise Combes au Collège de France 2016-2017, intitulé :'Energie noire et modèles d'univers'. Ce cours n'a pas pu être autrement que très impressionniste car notre compréhension des choses est encore trop vague, franchement fluctuante, insuffisamment confirmée sur le plan observationnel, et récemment des nouvelles mesures affaiblissent sérieusement la thèse de l'accélération de l'expansion de l'univers dont l'énergie noire en serait la cause. Bref, on a pu constater que F. Combes se trouvait sur le fil du rasoir au cours des séances successives qui ont été conclues par celle du 06/02 avec le titre : 'Perspectives avec Euclid, WFIRST, LSST, SKA'. Ces acronymes désignent des télescopes spatiaux ou terrestres, qui vont entrer en activité dans la prochaine décennie, censés lever le voile de la validité ou pas de l'hypothèse de l’énergie noire. A ce niveau, on entend l'inquiétude de Simon White à propos de ces perspectives qui représentent au total des engagements financiers de l'ordre de 4 ou 5 milliards d'euros ou dollars.

Pour mon compte se trouve illustré, avec ces perspectives annoncées, ma préoccupation relative à une fuite en avant. En effet, ce cours n'a pas pu indiquer une quelconque avancée théorique, si ce n'est la présentation d'une panoplie extrêmement large d’hypothèses sans qu'aucune hiérarchie parmi celles-ci ne puisse être affirmée. Il faut de plus prendre en compte qu’il y a déjà en action deux voire trois dispositifs d'observations et de mesures qui visent à détecter l'action d'une énergie noire dans l'univers : SDSS, DES, BOSS, autres acronymes désignant les dispositifs actuellement en activité. Aucune conclusion ne peut être extraite de ces présentes observations. De plus, un article qu’il n’est pas possible de sous-estimer, publié par des théoriciens, le 3 avril, nous indique que l’énergie noire pourrait n’être qu’une illusion. L'irrésistible propension à définir de nouveaux appareils d’observation, et à effectivement les construire, est justifiée par la progression remarquable des technologies. Ce qui permet de disposer de caméras et de télescopes de plus en plus sensibles et qui, de plus, ramassent par unité de temps des quantités d'informations de plus en plus importantes. L'impressionnant développement de la capacité de traitement informatique de ces gigantesques quantités d'informations recueillies autorisent à considérer que l'aire de la méga science, sans pensée préalable, ne peut que prospérer.

Pourtant, pour notre réflexion nous disposons d'un redoutable exemple illustrant le fait qu'une méga technologie couplée à une méga capacité de calcul ne conduit pas systématiquement à de méga avancées scientifiques, loin s’en faut. On ne peut pas glisser sous le tapis l’inquiétante déconvenue internationale provoquée par l'absence de résultats significatifs au CERN depuis trois bonnes années, alors que toutes les conditions optimales de productions de résultats ont été réunies pendant l'année 2016 grâce au fonctionnement idéal du LHC, aucune publication originale, significative, n'a été produite. Bref aucune nouveauté originale n’a pu être discriminée dans les détecteurs. Mais nous ne pouvons pas exclure qu’une ou plusieurs nouveautés ont été générées, sans que nous puissions les voir parce que non précédées par un minimum de regard théorique.

C’est dans l'article d'entrée en responsabilité de Fabiola Gianetti, en tant que Directrice Générale du CERN le 01/01/2016, que d'une façon explicite j'ai lu l'expression de la croyance qu'il suffisait de se reposer sur le développement de Ia puissance technologique pour que tous les espoirs soient permis. L'expression de cette croyance est contenue dans cette phrase : « Si une nouvelle physique est là, nous pouvons la découvrir, mais c'est entre les mains de la nature. » J'ai dit quel était le dépit que m'inspirait cette appréciation erronée dans l'article du 16/01/2016 : « Et si notre pensée était mal placée ! ». L'histoire des découvertes scientifiques nous indique que l'homme ne découvre que ce qu'il a préalablement conçu théoriquement dans l'ordre du possible et donc s'il a conçu un filet intellectuel capable de recueillir dans ses mailles des signes interprétables dans un sens ou dans un autre, sinon la nature ne peut être, pour nous, que muette.

Prenons un exemple significatif, de filet intellectuel préalable, celui qui a mené à la mise en évidence du Fond diffus Cosmologique. Petit rappel historique : quand A. Penzias et R. Wilson ont observé dans leur antenne nouvelle, qu'ils testaient en 1965, un bruit de fond plutôt homogène et plutôt isotrope, ils étaient intrigués. En tant qu'électroniciens ils étaient inquiets car pour eux c'était un bruit qui pouvait laisser supposer un défaut de leur antenne prototype. N'arrivant pas à éliminer ce qui pour ces électroniciens était un bruit parasite, ils échangèrent leurs préoccupations avec des physiciens. Il s'est trouvé que ceux-ci connaissaient les travaux avant-gardistes du physicien théoricien et cosmologiste George Gamow ainsi que ceux de Ralph Alpher et Robert Herman concernant l'hypothèse d'un univers naissant dans une phase primordiale et prédisant un rayonnement rémanent. Le filet intellectuel, jeté par ces physiciens théoriciens dans la mer d’une connaissance éventuelle, recueillait dans ses mailles ce qui bien ailleurs était détecté comme un bruit parasite. Un prix Nobel fut attribué à A. Penzias et à R. Wilson, pas à Gamow.

Il est intéressant de citer un exemple très actuel où le recours à la 'Big science' est complètement justifié puisque éclairée par de l’intelligence prédictive et ainsi permettra peut-être de satisfaire des curiosités multiples à propos des trous noirs massifs et hypermassifs qui sont au centre des galaxies. En effet au cours de ce mois d'avril, plus précisément en ce moment dans la période du 4 au 14 avril, il est programmé d'obtenir une image du cœur de notre galaxie où réside un trou noir qui pèse M = 4 millions de masse solaire et du cœur de la galaxie M87 qui se trouve à une distance de 53,5 millions d'années-lumière de la terre ayant un trou noir pesant M = 6 milliards (sic) de masse solaire. Pour obtenir ce type d'image il faut constituer pendant la période d'observation un télescope virtuel qui résulte de la combinaison en temps réel de huit observatoires de 4 continents et d'Hawaii et ainsi obtenir un télescope unique avec un pouvoir de résolution qui a la taille de la terre. Cette opération typiquement « Big science », appelée : Télescope Horizon d'Evénement', acronyme : EHT (Event Horizon Telescope) devrait permettre de révéler le bord de ces deux trous noirs nommé : horizon des événements. Le rayon de l'horizon est défini par l'équation R = 2GM/C2. EHT doit permettre de voir le bord r > R du trou noir car il est entouré d’un disque d'accrétion de matière très chaude qui spirale autour de l'horizon jusqu'à ce que celle-ci soit engloutie irréversiblement. Avant ce terme, spiralant à très grande vitesse, la matière émet de la lumière et c'est ce que EHT veut capter sur des longueurs d'ondes de 0.87 à 1.3 mm. Dans la région d'un trou noir la gravitation est extrême et le disque d'accrétion sera vu déformé (prévision de la Relativité Générale) au point que la partie arrière du disque sera visible.

Il faudra récolter chaque nuit d'observation 2.1015 bytes de données (ce qui représente la même quantité collectée au cours d'une annualité de fonctionnement du LHC). Ensuite il s'agira de traiter ces données et les analyser grâce à des réseaux d'ordinateurs pendant un semestre et ensuite l'étude scientifique commencera. Si tout se déroule comme prévu, les premières publications seront disponibles à la mi-2018.

Ci-joints 2 articles annonçant que l’opération d’observation est commencée :

Worldwide telescope attempts to image a black hole. Le 6 Avril

An attempt to obtain the first ever image of the Milky Way's supermassive black hole has begun. The Earth-sized Event Horizon Telescope (EHT) has launched 10 days run to obtain the portrait via very-long-baseline interferometry (VLBI). The telescope comprises eight radio dishes across the globe, including the Atacama Large Millimeter/submillimeter Array (ALMA) in Chile, the South Pole Telescope (SPT) in Antarctica, and the IRAM 30 metre telescope in Spain. Since its first measurements in 2007, the EHT has yielded tantalizing results even without the full array of telescopes. Now, all eight are linked and looking at our black hole, Sagittarius A* (Sgr A*), as well as the even bigger one in the neighbouring galaxy M87. Although black holes are inherently invisible because of their extreme density and gravitational field, the researchers hope to image the point where matter and energy can no longer escape – the so-called event horizon. "This week heralds an exciting and challenging endeavour for astronomy," says France Córdova, director of the funding agency National Science Foundation. For more information on the EHT, see our feature "Portrait of a black hole

EHT (Event Horizon Telescope) va acquérir une première image du trou noir de notre galaxie, la Voie lactée. Comment ? En utilisant un réseau de radiotélescopes répartis sur la planète pour former un télescope virtuel de quelque 5.000 kilomètres de diamètre. Les explications de Michael Bremer, astronome et responsable Iram du projet EHT.

Ce qu'il faut retenir :

  • En associant les instruments de sept observatoires répartis sur les deux hémisphères, le projet EHT crée un télescope virtuel d'environ 5.000 kilomètres de diamètre.
  • Il sera utilisé, tout d'abord, pour obtenir une image du trou noir au centre de notre galaxie. Pour être réalisée, elle nécessitera plusieurs mois de traitement.
  • C’est en fait l'horizon du trou noir qui sera vu, dans le domaine submillimétrique.

Alors qu'il semblait impossible d'observer le trou noir au centre de la Voie lactée, une équipe internationale d'astronomes, dont des Français, parie le contraire. Depuis quelques jours, ils observent Sagittarius A*, le trou noir supermassif de notre galaxie, situé à 26.000 années-lumière de nous. Pour observer cet objet d'une taille estimée à 25 millions de kilomètres et quatre millions de fois plus massif que le Soleil, nos astronomes utilisent l'EHT (Event Horizon Telescope).

L'instrument, pourtant, n'existe pas vraiment... Il est virtuel, associant des observatoires et des télescopes du monde entier, de l'Europe jusqu'à l'Antarctique, en passant par le Chili et Hawaï.

Partager cet article
Repost0
14 mars 2017 2 14 /03 /mars /2017 13:49

Indices solides qui valident l’article du 17 février.

Ce 17 février, j’ai posté l’article : ‘Fragilité du Modèle Standard de la Cosmologie’. Ce 8 mars un article important est publié sur le site de la revue ‘Science’ : ‘Trouble sur la constante de Hubble : un débat relancé à propos de la vitesse d’expansion de l’univers pourrait mener à une nouvelle physique

Le débat en question présente beaucoup d’intérêt parce qu’il est provoqué par le constat d’un écart de valeur significatif, de l’ordre de 8% mesuré, de la constante de Hubble (H0) qui détermine la vitesse d’expansion de l’univers et aussi permet de calculer l’âge de l’univers depuis le Big-Bang. Pour une part des cosmologistes annoncent 68 km/s/Mpc (2014), d’autre part les astrophysiciens annoncent 73 km/s/Mpc (2016). La valeur obtenue par les cosmologistes résulte de l’exploitation des relevés récents fournis par le satellite Planck qui sont considérés comme les plus précis depuis 2014. La première nouvelle valeur obtenue par les astrophysiciens fut publiée le 2 juin 2016 et elle a été confirmée par une autre équipe le 26 janvier 2017. Cet écart avéré est significatif parce que les deux valeurs différentes de Ho ont été déterminées par les physiciens en empruntant des chemins scientifiques distincts.

Les astrophysiciens ont procédé par des mesures différenciées de l’éloignement d’objets célestes tels que, des galaxies ou étoiles céphéides, supernovæ, et autres, qui permettent de déduire la vitesse d’expansion. Ces méthodes de mesure exploitent les instruments actuellement disponibles les plus performant et exploitent aussi la compréhension acquise aujourd’hui de l’effet lentille gravitationnel. La valeur de H0 obtenue est qualifiée : attachée à l’univers local, c’est-à-dire à l’univers qui a autour d’au moins 5 milliards d’années d’épaisseur temporelle en arrière de nos instruments de détection.

Les cosmologistes ont obtenu leur valeur de H0 en prenant en compte la carte du fond diffus cosmologique la plus détaillée obtenue dernièrement par le satellite Planck, que l’on qualifie comme étant la première image de l’univers, celle-ci représentant l’univers 380.000ans après le Big-Bang. En faisant des suppositions concernant comment la poussée et l’attraction de l’énergie et de la matière dans l’univers ont changé le taux d’expansion du cosmos depuis que le fond diffus fut constitué, les scientifiques peuvent a priori ajuster la constante de Hubble jusqu’à aujourd’hui correspondant à l’univers local. Donc les deux évaluations de Ho devraient coïncider. Ceci n’étant pas le cas, un chemin d’évaluation devrait être erroné. Si ce désaccord persiste, il faut considérer qu’il y a en perspective une nouvelle physique à découvrir et une des hypothèses qui fait sens serait de considérer qu’un ingrédient a été oublié ou mal évalué contribuant à l’expansion de l’univers.

Dans l’article du 17/02, j’ai choisi comme titre : ‘Fragilité…’ au singulier parce que je considère que c’est la conception globale de notre univers qui est provisoire et simplement représentatif de ce que nous sommes actuellement en mesure de décrypter à travers le prisme de nos capacités d’inférer actuelles. Cette fragilité globale sera probablement comprise à partir de la reconnaissance d’une fragilité spécifique. Peut-être sommes-nous au seuil de cette reconnaissance.

Je cite quelques arguments développés dans l’article du 8/03 : « Les cosmologistes ont exploité l’image du fond diffus en privilégiant certaines hypothèses en considérant les grumeaux chauds et moins chauds régulièrement répartis dans la soupe primordiale fixée par la première image de l’univers. Ces considérations sont : les grumeaux ont comme ingrédients constitutifs : les particules familières comme les atomes et les photons, quelques substances extra (sic) et invisibles appelées matière noire et énergie noire. »

Pour retrouver une concordance entre les deux valeurs de Ho, l’hypothèse dominante est encore de présupposer un quatrième neutrino comptabilisé dans la balance énergétique initiale de l’univers qui fournirait au stade du tout début de l’univers un supplément de pression radiative et qui se dissiperait plus rapidement. Ce scénario signifierait un univers primordial en expansion plus rapide et plus significative que celle prédite par le modèle standard avec sa liste traditionnelle d’ingrédients. Ainsi la concordance dépend d’une hypothèse qui jusqu’à présent n’est pas vérifiable.

Une autre possibilité de concordance peut être imaginée avec l’hypothèse de l’énergie noire. En effet les modèles cosmologiques les plus courants prennent en compte une valeur constante de l’énergie noire. Par contre si l’énergie noire devient progressivement plus importante au cours du temps, alors, ceci expliquerait pourquoi l’univers a une expansion plus rapide aujourd’hui que ce que l’on considère en auscultant l’univers primordial. Mais ce scénario est critiqué car il est conjecturé que l’hypothèse d’une énergie sombre variable est ad hoc et n’est pas naturelle.

Je vous propose de considérer que le présent article a la valeur d’un rapport d’étape et probablement dans un futur proche des choses intéressantes vont être dévoilées.

Partager cet article
Repost0
6 mars 2017 1 06 /03 /mars /2017 08:06

Etat quantique : subterfuge ou réalité ?

En 2011, j’avais réservé un article qui rapportait qu’au cours d’une conférence 33 physiciens et philosophes avaient participé à un sondage pour exprimer leur préférence à propos des différentes interprétations actuelles de la mécanique quantique. Le résultat publié attribue : 42% à l’interprétation de Copenhague ; 24% à l’interprétation relative à la théorie de l’information ; 18% à l’interprétation des mondes multiples de Hugh Everett ; 9% à l’interprétation des collisions objectives (GRW) ; 6% à l’interprétation quantique Bayésienne ; 6% à la mécanique quantique relationnelle (C. Rovelli) ; 0% interprétation de Broglie-Bohm.

Ce sondage peut être commenté de plusieurs façons, pour mon compte je constate qu’après plus d’un siècle c’est toujours l’interprétation de l’école de Copenhague qui tient la corde bien que depuis d’autres interprétations ont réussi à convaincre en partie des physiciens. L’interprétation de Copenhague est la plus frustrante et la plus radicale pour ceux qui croient que la connaissance en physique ne peut être qu’une connaissance du réel (réalistes). D’après ‘Copenhague’, il y aurait une barrière infranchissable : « pour atteindre le monde tel qu’il est à l’échelle microscopique de l’infiniment petit parce que les êtres humains (donc les physiciens) sont conditionnés pour penser en terme du monde classique qui nous entoure. Le monde quantique dans sa réalité nous est par essence inaccessible. La théorie quantique nous fournit des outils très effectifs mais pas plus que cela. Quand nous observons le monde quantique, nous le forçons à être conforme à nos préconceptions qui ne peuvent que refléter notre conditionnement par le monde classique… (cf. : exposé de N. Bohr, à Côme en 1927) »

Sur le site Phys.org, il a été publié le 21/02/2017 un article : ‘Test proposé qui pourrait offrir l’évidence la plus forte que l’état quantique est réel’, qui commente l’article d’un physicien théoricien de l’université d’Oxford : Georges C. Knee. Article original publié dans le ‘New Journal of Physics’.

En introduction il est dit : « Les physiciens s’approchent de plus en plus de la réponse à la question la plus basique de la théorie quantique : est-ce que l’état quantique représente la réalité ou tout simplement notre connaissance de la réalité ? » G. Knee nous dit qu’il a créé un algorithme permettant de définir les expériences optimales qui fourniraient les évidences les plus fortes entre : l’état quantique est un état ontique (un état de la réalité) et pas un état épistémique (un état de connaissance). Ce sujet est un sujet de controverse depuis le début de la mécanique quantique et cette controverse fut avec force engagée par N. Bohr, étant en faveur de l’interprétation ontique (sic), versus Einstein, étant en faveur de l’interprétation épistémique. Selon Knee, l’évidence la plus contemporaine penche pour la thèse de la réalité de l’état quantique. Ceci conduit à l’acceptation de la réalité de la superposition des états quantiques. Si ces états sont ontiques, cela veut dire qu’une particule occupe réellement deux états à la fois, et non pas que cela nous apparaisse ainsi à cause de notre capacité limitée de préparer les particules selon le point de vue épistémique. Capacité limitée, cela veut dire qu’il y a un recouvrement entre la distribution des états quantiques contrairement au point de vue ontique. Recouvrement, cela se concrétise avec le fait que la particule existe dans l’état de la zone de recouvrement, et nous ne pouvons pas dire la différence entre les deux possibilités à cause du recouvrement. Ceci est donc le point de vue épistémique qui évacue quelques-unes des étrangetés de la superposition en expliquant que l’aspect non différentiable des deux états est un recouvrement (une limitation humaine (sic)) et non pas une situation réelle.

L’hypothèse de travail de Knee c’est qu’avec son algorithme il va être possible de réduire l’erreur qui induit l’interprétation du recouvrement et donc c’est la thèse de la réalité des deux états occupés réellement, et en même temps, par une particule qui se révélera être la bonne hypothèse.

Le 26/09/2015, j’ai proposé l’article : ‘Non, on ne pense pas quantique. Pas encore !’. Pas encore : signifie évidemment qu’il sera possible de penser quantique quand on aura dépassé les postulats pragmatiques, empiriques, de l’école de Copenhague. C’est-à-dire quand on aura décrypté la part de la phénoménologie qui est réellement en jeu à l’échelle quantique et qui n’a pas pu l’être jusqu’à présent. J’ai toujours considéré que les postulats de Copenhague étaient provisoires, bien que cela commence à sérieusement durer. On doit considérer que la tentative de Knee est une tentative intéressante bien que je n’adhère pas à son cheminement. En effet, avec cette tentative, Knee réalise des glissements sémantiques qui me semblent préjudiciables, en tous les cas des sources de confusion. Einstein a toujours affirmé que la mécanique quantique de Copenhague était incomplète parce que incapable de décrire la réalité du monde quantique (voire l’introduction à l’article EPR). Avec son hypothèse des variables cachées, il désignait que c’était le formalisme de celle-ci qu’il fallait modifier, enrichir. Donc on n’est pas plein cadre dans une problématique épistémique. L’école de Copenhague, tout au contraire, dit qu’il faut renoncer à vouloir considérer le monde quantique dans sa réalité (voir sur ce sujet article du 19/08/2015). La connaissance que nous en avons, grâce à l’observation et conséquemment la capacité de prédiction (statistique) que nous pouvons inférer, constituent un savoir complet. Nous sommes en rapport avec le monde quantique, tel qu’il nous apparaît, sans que nous puissions accéder, dévoiler, à tel qu’il est.

Malgré ces préventions signalées, la proposition de Knee est intéressante parce qu’il introduit dans le point de vue épistémique une explication complémentaire qui est qu’une limitation humaine serait en jeu. Selon moi, ce qui est en jeu c’est effectivement une détermination humaine et celle-ci pourra être dépassée lorsque l’on découvrira quelle est sa nature. A partir de sa découverte on pourra penser quantique parce que l’on pourra intellectuellement l’intégrer, et donc la dépasser, pour le moins la contourner, sans que nous puissions pour autant l’effacer. Dans l’article du 21/09/2016, j’ai réitéré l’expérience qui permettrait de déceler la détermination humaine en question, fondée sur l’idée que l’espace et le temps, l’espace-temps, sont une invention, une fondation de l’intelligence humaine qui s’est engagée il y a au moins 2 millions d’années. (En complément, voir l’article du 15/10/2016 ; celui du 21/07/2015 : ‘La seconde naissance de l’homme’)

Ensuite, les travaux récompensés de C. Bender : (voir article du 05/11/2016 : ‘Merci Carl Bender’), ont, à mon sens, confirmé qu’une extension du rôle attribué à notre conception déterminée de l’espace et du temps, de l’espace-temps, permet de rendre compte de l’état d’énergie discontinu en mécanique quantique et en corollaire la superposition d’états d’énergie.

 

Partager cet article
Repost0
1 mars 2017 3 01 /03 /mars /2017 16:50

Déroutant voire inacceptable

Sur un site Américain était publié le 8/02 un article assez court annonçant que l’interféromètre européen Virgo allait enfin pouvoir participer à la chasse aux ondes gravitationnelles conjointement avec ceux de Ligo. C’était une annonce positive car après de nombreux semestres d’indisponibilité pour causes d’améliorations techniques, sa mise en fonctionnement permettait d’accroître notamment la précision de la localisation dans l’espace de la fusion des trous noirs.

Sur le site de ‘Science’ le 16/02 un article annonce que ‘le détecteur européen des ondes gravitationnelles est défaillant’. Depuis cette date aucun site scientifique français ni aucune revue n’ont daigné donner la moindre information sur ce sujet alors que de nombreux scientifiques et ingénieurs nationaux sont impliqués sur le fonctionnement de cet instrument.

Il est impossible de connaître et comprendre les raisons de ce silence et de ce qui pourrait ressembler à une censure. Pourquoi ? Il n’est pas possible de rester passif devant cette situation qui pour le moins n’est pas scientifique.

Je propose dans ce qui suit de me référer à l’article de ‘Science’ du 16/02, d’en citer les éléments les plus informatifs et de joindre in-fine l’article original.

Je cite : « Le 20/02 les dignitaires devaient aller près de Pise où se trouve VIRGO pour marquer le redémarrage du détecteur après 5 années et 24 millions d’Euros d’améliorations. Mais pour augmenter la sensibilité du détecteur il fut décidé de remplacer les fils d’acier qui suspendaient les miroirs par des fils en fibre de verre pour réduire la sensibilité aux bruits de fond, thermique et mécanique. Déjà, l’année dernière après quelques jours ou quelques semaines les fils de verre se brisaient une fois que les miroirs de 40 kg étaient suspendus. Après des mois d’enquête l’équipe technique a découvert le coupable : des particules microscopiques provenant de débris des pompes du système du vide aussi upgradé. Lorsque ces débris se dépose sur la fibre du verre ils engendrent des microfissures qui se développent, de jour en jour, de semaine en semaine, jusqu’à la rupture.

Il est impossible que VIRGO puisse fonctionner de concert avec LIGO car celui-ci fonctionne depuis novembre 2016 et devrait être performant jusqu’en Mai 2017. Espérons que VIRGO aura réglé ses problèmes de fiabilité au moins au printemps de 2018 car LIGO sera prêt pour une nouvelle période de détection. Heureusement au tout début de 2019 un nouveau détecteur performant au Japon sera fonctionnel : KAGRA : Kamioka Gravitational Wave Detector.

European gravitational wave detector falters

By Daniel CleryFeb. 16, 2017 , 2:00 PM

On 20 February, dignitaries will descend on Virgo, Europe’s premier gravitational wave detector near Pisa, Italy, for a dedication ceremony to celebrate a 5-year, €24 million upgrade. But the pomp will belie nagging problems that are likely to keep Virgo from joining its U.S. counterpart, the Laser Interferometer Gravitational-Wave Observatory (LIGO), in a hunt for gravitational wave sources that was meant to start next month. What has hobbled the 3-kilometer-long observatory: glass threads just 0.4 millimeters thick, which have proved unexpectedly fragile. The delay, which could last a year, is “very frustrating for everyone,” says LIGO team member Bruce Allen, director of the Max Planck Institute for Gravitational Physics in Hannover, Germany.

A year ago, LIGO confirmed a prediction made by Albert Einstein a century earlier: that violent cosmic events, like the merger of two black holes, would wrench the fabric of spacetime and emit ripples. But LIGO, with two instruments in Livingston, Louisiana, and Hanford, Washington, cannot pinpoint the sources of the waves, which would let astronomers train other telescopes on them. Triangulating on the sources requires a third detector: Virgo.

The detectors all rely on optical devices called interferometers: two straight arms, several kilometers long, positioned at right angles. Inside each arm a laser beam bounces back and forth between mirrors at each end of a vacuum tube, resonating like sound in an organ pipe. The laser light is combined where the two arms meet so that the peak from one laser wave meets the trough of the other and they cancel each other out. But if something, such as a gravitational wave, stretches space and changes the length of the two arms by different amounts, the waves will no longer match up and the cancellation will be incomplete. Some light will pass through an exit known as the dark port and into a detector.Haut du formulaire

Bas du formulaire

The tiniest vibrations—earth tremors, the rumble of trains, even surf crashing on distant beaches—can swamp the signal of gravitational waves. So engineers must painstakingly isolate the detectors from noise. At Virgo, for example, the mirrors are suspended at the end of a chain of seven pendulums. For the upgrade, steel wires connecting the mirror to the weight above it were replaced with pure glass fibers to reduce thermal and mechanical noise.

But a year ago, the glass threads began shattering, sometimes days or weeks after the 40-kilogram mirrors were suspended from them. After months of investigation, the team found the culprit: microscopic particles of debris from the pumps of the upgraded vacuum system. When these particles settled on the glass fibers they created microcracks, which widened over days and weeks until the fibers failed. “The fibers are very robust until something touches their surface,” says Giovanni Losurdo, Advanced Virgo project leader at Italy’s National Institute for Nuclear Physics in Pisa.

During the investigation, the team temporarily replaced the glass fibers with steel wires—as in the original Virgo—and pressed ahead. But other problems compounded the delays. An examination of small steel triangles that act as vibration-damping springs revealed that 13 out of 350 were cracked or broken. Why remains a mystery, but the team replaced those that showed any sign of damage—40% of the total. Given the complexity of the detector, “it’s not surprising some things don’t work as expected,” says Virgo team member Benoit Mours of France’s National Institute of Nuclear and Particle Physics in Annecy.

The Virgo team has now achieved “lock” in the two detector arms, meaning that light is stably resonating. They soon hope to bring in the central optics and combine the beams. Then they must hunt down and eliminate remaining sources of noise to see what level of sensitivity they can achieve with the steel wires still in place.

For Virgo to make a useful contribution, it needs to be at least one-quarter as sensitive as LIGO. Researchers define sensitivity as the distance to which a detector could spot the merger of two neutron stars with masses 1.4 times the sun’s. LIGO’s Livingston detector can currently sense such an event out to about 80 megaparsecs (260 million light-years). In theory, with all of the upgrades but the mirrors still suspended with steel wires, Virgo should be able to reach 50 megaparsecs, Losurdo says. “As soon as Advanced Virgo reaches the sensitivity to join, we will start.”

Frustratingly for the Virgo team, the steel wires are expected to have the most impact on sensitivity to gravitational waves with lower frequencies than neutron star mergers, such as those from the mergers of black holes. And black hole mergers are precisely the events that LIGO detected last year.

The task of eliminating noise sources is sure to take several months, says Lisa Barsotti of the Massachusetts Institute of Technology in Cambridge, co-chair of the LIGO-Virgo Joint Run Planning Committee. That makes joining LIGO as planned in March a virtual impossibility. The current LIGO run, which began on 30 November 2016, was expected to continue for about 6 months, until late May 2017, but even that may be a stretch for Virgo. Barsotti says LIGO could extend its run by a month or two, “to give Virgo a chance to join.”

Whether Virgo manages to take part in the current run, the team should be able to reinstall the glass fibers and root out other sources of noise by the spring of 2018, when LIGO will start a new observing run. Soon after, a fourth detector is poised to join the hunt: the Kamioka Gravitational Wave Detector, or KAGRA, near Hida City in Japan, which plans to begin operations in 2019. KAGRA’s arms will be underground, below 200 meters of rock, and its mirrors chilled to 20 K—two tricks that should reduce noise and boost sensitivity.

 

Partager cet article
Repost0
26 février 2017 7 26 /02 /février /2017 06:53

Perspectives

Au Collège de France, Françoise Combes a terminé son cours : Énergie noire et modèles d'univers, le 06/02/2017 par une séance intitulée : Perspectives avec Euclid, WFIRST, LSST, SKA. Ces noms désignent les instruments existants déjà partiellement ou vont être développés très prochainement pour mieux cerner, pour l’essentiel, la problématique de l’accélération de l’expansion de notre univers. Chacun de ses nouveaux moyens d’observation représente un investissement minimum de 1 milliard d’euros. L’intitulé de cette dernière séance est sans ambiguïté et F. Combes, en tant que physicienne, nous indique que la perspective essentielle est l’obtention de ces instruments et que ceux-ci soient opérationnels d’ici quelques années pour que soit atteint un seuil de connaissance significatif sur la dynamique de l’évolution globale de notre univers. La communauté scientifique des astrophysiciens, cosmologues, et autres catégories souhaitent participer à cette aventure, même pour ceux qui n’auraient qu’une perspective de court terme, terrienne, cela est professionnellement valorisant et à la clef, il y a une intéressante perspective de création d’emplois scientifiques. Précisons qu’avec ce sujet nous sommes concentrés sur la conquête de connaissances purement fondamentales concernant la structure de notre univers et sa dynamique.

Dans un billet, du ‘Monde’ du 22/02, signé par Louise Mussat, avec le titre ‘L’architecture cosmique éclaire sur l’énergie noire.’, dans le paragraphe : ‘Simuler les évolutions des grandes structures depuis le Big Bang’, il est écrit : « Chacun des modèles d’énergie noire (les astrophysiciens en ont élaboré tout un catalogue) influence de façon caractéristique les grandes structures de l’Univers. Pour savoir quel est le bon, il leur faut donc observer l’évolution de ces dernières, notamment avec des ordinateurs ultrapuissants. « Depuis 2012, nous utilisons le supercalculateur Curie, situé au CEA, dans le cadre du projet Deus, explique Jean-Michel Alimi, de l’observatoire de Paris. La machine est pétaflopique : elle est capable de résoudre un million de milliards d’opérations chaque seconde. Cette puissance nous permet de simuler l’évolution des grandes structures depuis le Big Bang jusqu’à l’Univers actuel » « Les données sont en cours de traitement mais, déjà (sic), les scientifiques envisagent d’élaborer une machine mille fois plus puissante. De catégorie exaflopique, elle serait capable de résoudre un milliard de milliards d’opérations à la seconde. « Cela nous permettrait de gagner en résolution, poursuit J.M. Alimi. Ainsi, nous pourrions non seulement observer la structuration de l’Univers dans son ensemble, mais aussi accéder à des évolutions plus fines, plus locales. » « Reste à relever les défis technologiques majeurs. Faire tourner un tel engin nécessite une énergie comparable à celle d’une centrale nucléaire (sic). Il faut donc réfléchir à des systèmes qui consomment moins, à des processeurs de nature différente. En attendant que cet ordinateur voit le jour, des engins d’observation non pas virtuels mais réels seront mis en service. Parmi eux, Euclid. Ce télescope spatial de l’Agence Spatiale Européenne (ESA) est conçu pour tenter de résoudre l’énigme de la matière noire. Son lancement est prévu pour 2019. »

Peut-être qu’avec ces propos de J. M. Alimi, on entend en écho l’expression : « Tais-toi et calcule ! », injonction qui aurait fait florès, à partir de la décennie 1950, destinée aux collaborateurs de célèbres physiciens confrontés aux difficultés de comprendre la phénoménologie de l’électrodynamique quantique mais qui, en exploitant les recettes du calcul proposées par R. Feynman, obtenaient des résultats efficaces. L’idée spontanée d’Alimi, est de faire des recherches pour un supercalculateur d’une nouvelle génération et non pas de considérer qu’effectivement nous avons tous les éléments pour penser ce qu’est la dynamique de notre univers et que nous devons nous concentrer sur la compréhension de ce que signifient ces éléments et in fine les exploiter dans le bon ordre. Les puissances de calcul dont nous disposons maintenant, les possibilités de simulation qui s’en déduisent, affaiblissent le recours à la faculté de théorisation et à l’intelligence collective pour dénouer les impasses. Ce ne sont pas les ordinateurs qui énonceront les bons paradigmes. Pensons à la situation au CERN, qui n’a jamais été aussi performant depuis 18 mois mais qui ne conduit à aucune nouveauté parce que la pensée scientifique collective est mal placée (voir article du 16/01/2016 et du 10/08/2016).

L’univers n’est saisissable que par l’esprit, plus spécifiquement par l’esprit qui est qualifié scientifique et en conséquence le questionnement, le désir de savoir encore plus précisément, encore plus fondamentalement, relève donc de la communauté scientifique mais cela devrait concerner ou tout le moins toucher l’ensemble de l’humanité !

C’est ce que nous assure Fabiola Gianotti : Directrice Générale du CERN qui au Forum de Davos, le 20 janvier 2017 déclare : « La recherche en science fondamentale est importante pour piloter les progrès technologiques, elle est aussi une force pour des collaborations pacifiques. » Elle insiste sur la nécessité de la science ouverte et elle ajoute « Les scientifiques ont fait des bons progrès, ces dernières années, pour que le public soit concerné, mais nous devons faire encore plus pour atteindre les gens à tous les niveaux et pour qu’ils puissent utiliser les outils dont nous disposons. La connaissance appartient à l’humanité (sic), elle n’appartient pas aux scientifiques. »

J’ai très envie de partager et surtout de croire en cette déclaration de F. Gianotti. Qui pourrait être objectivement indifférent, voire réticent à l’égard de cette grande perspective ?

Entretenons précieusement cet idéal, que son déploiement soit une perspective mais soyons lucides sans être rabat-joie. Quand F. Gianotti dit que la recherche en science fondamentale est importante pour piloter les progrès technologiques, elle est entendue par le public spécifique de Davos parce que la technologie ça a de la valeur concrète, immédiate, exploitable. Les industriels, financiers, décideurs, de Davos, savent que la recherche fondamentale représente un vrai gisement d’impulsions et de développements technologiques remarquables qui leurs sont profitables. Leur lobbying est au moins aussi prépondérant que celui des scientifiques pour obtenir les financements de leurs projets auprès des décideurs nationaux et multinationaux. La pure conquête des connaissances en science physique fondamental pour le progrès direct de l’humanité est certainement un propre de certains groupes de scientifiques mais malheureusement cela ne doit pas beaucoup diffuser au-delà. Soyons quand même positif car il arrive assez régulièrement qu’il y ait des retombées favorables pour le reste de l’humanité. Je cite le Web (provenance du CERN) qui est un exemple remarquable de retombée possible et franchement cela ne s’arrête pas à cet exemple bien connu maintenant.

L’idée que la connaissance en général, spécifiquement scientifique en particulier, est une cause de progrès et un moyen certain de s’affranchir de l’obscurantisme est nettement mis à mal dans nos sociétés occidentales et il n’est pas possible de sous-estimer les sérieux revers subis actuellement dans certaines sociétés. Le 19/02, à Boston avait lieu une manifestation de la communauté scientifique de la Ville et de la Région qui exprimait sa vive inquiétude à propos de l’avenir des activités scientifiques de tous ordres aux Etats-Unis. Rapporté sur le site physicsworld.com, l’interview d’un jeune chercheur : « J’ai toujours cru dans le pouvoir de la science pour faire que le monde soit meilleur, mais maintenant nous sommes confrontés à une administration antiscience qui met en danger les personnes et les endroits que nous aimons à cause du déni du changement climatique et des attaques contre la vérité et la réalité. Nous tentons d’envoyer un message à Trump qui affirme que les américains sont guidés par la science. C’est la colonne vertébrale du progrès de l’humanité… »

La menace est considérée si importante aux Etats Unis qu’il est prévu le 22 avril une grande marche pour la science et le 29 avril une marche contre le déni du changement climatique et contre les coupures de crédit dans ce domaine de recherche. Les organisateurs de la manifestation du 22 avril s’inquiètent car ils ne voudraient pas que leur mouvement de protestation soit compris par le grand public comme l’expression de la part d’un groupe social – un de plus – qui veut défendre ses intérêts, ses acquis corporatistes. Les organisateurs voudraient que leurs compatriotes comprennent que les scientifiques sont en première ligne dans la lutte contre l’obscurantisme et qu’ils contribuent à la conquête de la ‘lumière’ qui éclaire inexorablement les sentiers du progrès pour l’ensemble de l’humanité (à ceux qui en lisant cette dernière ligne, se disent : toujours une belle utopie ! je leur propose de se poser immédiatement la question : pourquoi, je pense ainsi car cela ne devrait pas). A suivre…

En Angleterre la situation est pour le moins tout autant préoccupante car contrevenant à l’habitude en ce pays, les conseillers scientifiques ne sont pas nommés pour participer aux décisions du gouvernement en ce qui les concerne à propos du Brexit et du changement climatique. Les perspectives sont très inquiétantes pour les scientifiques de la Grande Bretagne car les chercheurs de tous les pays de l’Europe forment des équipes européennes, imbriquées, très performantes jouissant de programmes bien financés par la communauté européenne. Désarticuler ce qui fonctionne si bien depuis plusieurs décennies aura un coût impressionnant.

On peut déjà lire des articles dans lesquels des scientifiques réclament d’être considérés à part dans les négociations du Brexit. Faudrait-il entériner l’idée que les scientifiques ne sont pas des citoyens à part entière de leur pays ? Qu’il y aurait d’un côté le destin intellectuel, culturel, du peuple d’un pays et d’un autre côté celui de sa communauté scientifique ? Il est évident que dans ces pays les scientifiques doivent s’interroger sur leurs propres défaillances en tant que citoyens parce qu’ils ont laissé seuls leurs compatriotes face aux porte-parole obscurantistes. Ils ne peuvent pas sous-estimer leur responsabilité.

Lorsque pour finaliser son cours magistral, F. Combes fait la liste des moyens instrumentaux nécessaires afin qu’au cours de la deuxième moitié de la prochaine décennie un grand bond en avant de compréhension soit franchi à propos de notre univers, le public présent dans l’amphithéâtre approuve unanimement. Après un long et dur labeur, après l’acquisition d’une discipline intellectuelle très rigoureuse, pour l’essentiel l’esprit de ce public s’est envolé, il est occupé à s’interroger sur les contours de cet univers et sa structure dans lequel l’humanité a pris son essor depuis sa conception induite la plus élémentaire. En conséquence le processus par lequel est impliqué la volonté de savoir mieux encore et plus encore de ce public est largement compréhensible et ne peut être altérée. Dans ce contexte, peut-il être disponible pour d’autres contingences ? Est-il mobilisable pour satisfaire à la noble recommandation de F. Gianotti : « Faire que le public soit concerné et faire encore plus pour atteindre les gens à tous les niveaux et qu’ils puissent utiliser les outils dont nous disposons. »

Partager cet article
Repost0
17 février 2017 5 17 /02 /février /2017 10:29

Fragilité du Modèle Standard de la Cosmologie.

 

En recensant et en analysant tous les éléments qui contribuent à la fragilité notoire du modèle standard de la cosmologie j’ai été amené à proposer des idées dans le présent article qui ne se cantonnent pas au domaine de la pure physique, s’il en est. D’entrée, je cite un exemple de raisonnement qui ne peut rester qu’inachevé lorsqu’on s’oblige à n’être que physicien. Il s’agit de L. Smolin qui écrit, page 75, voir son livre très instructif : ‘La renaissance du Temps’ : « La relativité générale avait encore un coup fatal à porter au rôle fondamental du temps en physique. Implicite dans l’idée que le temps est réel et fondamental est celle que le temps ne peut pas avoir de commencement. Car si le temps possède un début, alors cette origine du temps doit être explicable en termes d’autre chose qui n’est pas le temps. Et si le temps est explicable en termes de quelque chose d’intemporel, alors le temps n’est pas fondamental et c’est cette chose, qu’elle que soit sa nature, d’où a émergé le temps, qui est plus fondamentale. Mais dans tout modèle plausible d’univers décrit par les équations de la relativité générale, le temps a toujours un début. »

Avec cet exemple, on vérifie que des lois de la physique peuvent contenir des germes d’impasses remarquables de nos capacités de raisonnement et de compréhension qui ont des conséquences toujours actuelles. Je précise toujours actuelles parce que cet obstacle explicité par Smolin, pourra être, soit dépassé grâce à l’émergence d’un nouveau concept ou paradigme et donc le physicien sera riche de capacités de réflexions, de déductions, supplémentaires, en ce sens il deviendra plus intelligent en ce qui concerne les propriétés de la nature, soit il faudra rebrousser chemin (voir citation de N. Gisin, ci-après pages suivantes) et accepter l’idée que la relativité générale comprend dès sa conception des hypothèses préalables erronées. Dans ce cas de figure, évidemment, il y aura encore du progrès appréciable bien qu’on pourra le qualifier : de conséquence d’un revers de la pensée. C’est peut-être hors sujet mais je veux exprimer toute ma gratitude à L. Smolin pour avoir entrepris ce travail car il nous dit que la science physique est une science qui met en jeu la pensée de l’homme et non pas tout simplement, tout bêtement, sa capacité de calcul.

Je prolonge et je cite encore page 97, « Un jour, Einstein avoua (à R. Carnap[1]), que le problème du Maintenant le préoccupait sérieusement. Il expliqua que l’expérience du Maintenant a une signification particulière pour l’Homme, qu’il s’agit d’une chose essentiellement différente du passé et du futur mais que cette différence cruciale ne vient pas et ne peut pas venir de la physique (sic). Que cette expérience ne puisse pas être appréhendée par la science était à ses yeux un sujet de résignation douloureuse mais inévitable[2]. » Très franchement, je ne peux pas accepter ce clivage, qui est à mes yeux l’expression d’une conception intellectuelle, réductrice voire aliénante, entre ce qui est de l’ordre de la physique et de ce qui a une signification particulière pour l’Homme. Est-ce que la science physique serait une entité à part, tel un bateau qui aurait rompu les amarres du chantier naval où il a été conçu ? Est-ce que la science physique c’est ce qui reste lorsque l’on a évacué le souffle de l’intelligence humaine qui la fonde ?

Ces deux exemples cités nous indiquent, entre autres, pourquoi le modèle standard de la cosmologie est notoirement fragile et il ne faut pas s’attendre à ce que cette fragilité soit résorbée dans un délai raisonnable puisqu’il est écrit dans de nombreux articles récents : la résolution des difficultés passera par la résolution des inconnues sur lesquelles nous butons en ce qui concerne les neutrinos. Or il se trouve qu’à propos des neutrinos nous colportons, de génération en génération de physiciens, des attributs et des propriétés dont la validation ne peut être que sans cesse reportée à plus tard. Dans le cadre du modèle standard de la physique des particules élémentaires, les neutrinos se révèlent être toujours aussi insaisissables dans les filets de nos postulats scientifiques standards, au point que l’impossibilité de vérifier la véracité de certaines hypothèses amène à toujours ajouter de nouvelles couches d’hypothèses.

En ce qui concerne la conception actuelle de notre univers, nous lui attribuons l’histoire d’une évolution depuis un Big-Bang jusqu’à un état actuel dont nous serions les témoins objectifs, soit 13.800 milliards d’années après coup. N’est-ce pas ainsi projeter notre propre histoire, en tant qu’être humain, qui est celle d’une évolution qui nous a façonnés, révélée premièrement par Darwin et maintenant étudiée, approfondie, par les paléoanthropologues qui découvrent aujourd’hui des jalons de celle-ci dans des temps de plus en plus reculés (voir livre de P. Picq : ‘Premiers hommes’, Flammarion, 2016). Je reconnais que cette idée d’une détermination, qui serait à l’œuvre, de duplication de paradigme est à contre-courant de ce qui constituent les préceptes fondamentaux de la pensée scientifique. Il n’y a pas de ma part une volonté de provoquer, mais parfois il est souhaitable de prendre du recul même si cela est déroutant. Est-ce que l’histoire que l’on prête à notre univers ne serait rien d’autre que l’histoire de l’évolution de nos capacités de le décrypter ? Ce qui est le plus probable, c’est que tel qu’il est conçu, le Modèle Standard de la Cosmologie n’est pas réparable mais il doit être repensé.

De même avec l’attribution d’une origine à notre univers, est-ce que ce ne serait pas l’expression de la nécessité, du besoin, qui nous est propre, de toujours poser notre pensée sur une origine pour qu’à partir de là, elle puisse se déployer. Toutes les cosmogonies inventées au cours de l’histoire de l’humanité, que nous sommes capables de recenser, ont toujours supposé une origine pour qu’ensuite elle soit dépassée. Avec ce fameux Big-Bang, ce qui est équivoque, c’est qu’il est considéré comme sujet d’étude par les scientifiques alors qu’il ne serait rien d’autre que notre besoin existentiel d’origine projeté comme réalité de notre univers. En fait notre univers fait partie de ce monde qui nous appartient, pas plus.

Récemment un article de Steinhardt (directeur du centre de physique théorique de Princeton) avec deux autres collègues, dans le Scientific American du 17 janvier ‘Pop goes the Universe’, proposent que les cosmologistes réévaluent le paradigme favori du Big-Bang (Pop) et considèrent de nouvelles idées à propos du comment l’univers a commencé. De même un article dans Phys.org du 09/02/2015, annonce que des équations quantiques prédisent que notre univers n’a pas de début. C’est-à-dire que la singularité est résorbée.

Je pense que notre univers fait partie de ce monde qui nous appartient parce qu’il n’est que ce que nous sommes en mesure de décrypter à travers le prisme de nos capacités actuelles. Je ne dénie pas ce qui est mis en exergue par la science physique jusqu’à maintenant mais je considère que c’est un savoir qui nous caractérise tout autant qu’un savoir qui caractérise le monde qui est en dehors de nous. Bien sûr que cette conception peut être considérée comme humiliante et inacceptable par les physiciens qui seraient les maîtres d’une science ‘exacte’. Il n’y a pas qu’un problème de réputation qui est en cause, cela est secondaire, ce qui est en cause c’est essentiellement le fondement sur lequel beaucoup de physiciens puisent leur force, leur volonté, leur plaisir aussi, justifiant leur investissement intellectuel.

Ce fondement peut être conforté par la croyance que la connaissance en physique a la valeur d’une connaissance universelle, objective. Pourtant depuis un siècle avec l’avènement de la mécanique quantique qui nous dit que la relation sujet/objet ne peut être résorbée – quel que soit le degré d’investissement de notre pensée rationnelle, notre savoir sur l’objet ne peut pas atteindre une connaissance de l’objet tel qu’il est mais uniquement tel qu’il nous apparaît – cela devrait nous enseigner une révision de notre conception de l’objectivité.

Avec la relativité générale s’impose une représentation de l’histoire de l’univers, prise en une fois, comme un système d’événements reliés par des relations causales, et cela s’appelle l’univers bloc. L’univers bloc marie l’espace et le temps. Dans le livre déjà cité de L Smolin, il est précisé page 75 : « Mais vu comme un univers bloc, il (l’espace-temps) est intemporel et inaltérable, sans distinction entre futur et passé et sans place pour, ni signe de, notre conscience du temps. » N. Gisin (physicien, université de Genève), s’insurge contre cette conception en écrivant un article en Mai 2016 : ‘La physique a tué le libre arbitre (qui est un propre de l’homme) et le flux du temps, nous devons revenir en arrière’. De même p.251 et p.253, Smolin confirme selon son analyse : « Je préfère considérer la mécanique quantique comme la preuve que nous vivons dans un univers fini ne contenant qu’une seule copie de moi. »… « Je ne vois aucune manière d’échapper à la conclusion que tout modèle d’univers doit être spatialement fermé, sans frontière. »

Le modèle standard de la cosmologie, tel qu’il est conçu, contraint à ce que la relativité générale et la mécanique quantique fusionnent en un seul et même corpus baptisé gravité quantique. Ce qui jusqu’à présent n’a pu se concrétiser. Les raisons de l’échec d’une conception d’une théorie de la gravité quantique sont de plusieurs ordres. Celui qu’il ne faut pas exclure, c’est que définitivement la relativité générale n’est pas intégrable dans un corpus quantique. En effet, il n’est pas possible de gommer l’opposition constante du fondateur de la relativité générale à la mécanique quantique. Opposition qui s’est affirmée par l’incompatibilité absolue des raisons qui l’ont conduit à concevoir la relativité générale avec celles, affirmées par l’école de Copenhague, qui ont prévalu à la conception de la mécanique quantique. Vouloir résorber l’incompatibilité de ces raisons orthogonales est une tâche impossible puisqu’opter pour l’une annule les fondements de l’autre. Ainsi, on peut expliquer pourquoi toutes les tentatives d’hybridation ont échoué, jusqu’à présent.

Pour illustrer cette analyse je vous cite trois réflexions : 1- dans quantamagazine : « L’effort pour unifier la mécanique quantique et la relativité générale signifie réconcilier des notions du temps totalement différentes. En mécanique quantique, le temps est universel et absolu (Newtonien) ; son tic-tac constant assure l’évolution des intrications entre les particules. Mais en relativité générale, le temps est relatif et dynamique, une dimension qui est inextricablement entrelacé avec les dimensions X, Y et Z dans la fabrique d’un espace-temps de 4 dimensions. » ; 2- De D. Gross, prix Nobel : « Chacun de nous en théorie des cordes est convaincu…que l’espace-temps est condamné. Mais nous ne savons pas par quoi le remplacer. » ; 3- dans hindawi.com : « En mécanique quantique, le temps est absolu. Le paramètre qui se trouve dans l’équation de Schrödinger est un héritage de la mécanique Newtonienne et il n’est pas considéré comme un opérateur. En théorie quantique des champs, le temps par lui-même n’est plus absolu, mais l’espace-temps l’est ; il constitue la structure d’arrière fond sur lequel le champ dynamique agit. La relativité générale est d’une nature différente. Avec l’équation d’Einstein, l’espace-temps est dynamique agissant d’une façon compliquée avec l’énergie impulsion de la matière et avec lui-même. Les concepts de temps (espace-temps) en théorie quantique et en relativité générale sont ainsi drastiquement différents et ne peuvent pas ensemble être fondamentalement vrais. »

La théorie de la relativité générale d’Einstein semble rendre compte un bel accord entre ce qu’elle prédit et ce que nous observons dans l’univers aux grandes échelles. A ce titre, c’est une théorie que l’on peut qualifier de réaliste. Toutefois, il faut toujours pratiquer le principe du doute positif, c’est-à-dire considérer qu’elle pourrait opérer comme un filtre et donc ne permet pas d’accéder à tout ce qui serait ‘visible’ par les astrophysiciens (ex. la matière noire). Lorsqu’on veut remonter dans le temps de l’histoire de l’évolution de notre univers et chercher des preuves d’une origine inférée, ce sont théorie quantique et théorie quantique des champs qui sont convoquées pour tenter de remonter jusqu’à une source supposée. Contrairement à la relativité générale, la mécanique quantique est une théorie conçue sur la base de notre capacité de déduction et non pas sur notre capacité d’observation directe due à nos sens voire d’appréhension. En conséquence la difficulté d’hybridation, évoquée ci-dessus, se trouverait confirmée. Voir article du 23/04/2016 : ‘De la vérité dans les sciences, et après !’ : je cite N. Bohr « La physique est seulement concernée par ce que l’on peut dire sur la nature. » ; je cite W. Heisenberg : « Le postulat d’une réalité physique existant indépendamment de l’homme n’a pas de signification. » ; je cite A. Barrau : « Mais il ne faut pas oublier, … que nos manières d’appréhender cet « autre part » n’en demeurent pas moins humaines et créées. » Cet article succède à celui du 12/04/2016 : ‘Selon A. Barrau, ‘De la vérité dans les Sciences’’

Le ‘voir’ premier et le plus lointain de notre univers est le rayonnement du fond diffus cosmologique, avec l’hypothèse du Big Bang, ce premier ‘voir’ serait daté : 380000 ans depuis l’origine. La phénoménologie dominante, retenue de l’univers naissant, durant les 380000 premières années, est donc le fruit de déductions et pour beaucoup grâce à la mécanique quantique et la TQC. Les impossibilités d’assurer de la concordance entre ce qui est déduit, conçu, dans les temps primordiaux et ce qui est effectivement observable en accord avec la relativité générale (par ex. l’effet lentille gravitationnelle), concernent pour l’essentiel : la matière noire, l’énergie sombre, l’antimatière. Cela n’est pas peu !

Comme je l’ai signalé au début de l’article : espérer que la résolution des impasses actuelles concernant le modèle standard de la cosmologie passera par la résolution des inconnues sur les neutrinos, peut provoquer du scepticisme. En effet, ces inconnues surgissent du fait du modèle standard des particules élémentaires qui est toujours le cadre dans lequel leurs propriétés physiques sont étudiées. J’ai eu souvent l’occasion d’écrire que ce n’est pas le bon cadre. En fait le bon cadre c’est celui de la physique des neutrinos, qui est à découvrir, c’est-à-dire que ceux-ci sont les représentants d’une toute autre physique que nous devons prospecter. A propos des neutrinos, on ne peut pas les ralentir, les accélérer, on ne peut pas avoir d’action sur ces objets sans provoquer leur disparition, on ne peut être que des observateurs passifs, on leur attribue des propriétés physiques sur la base de la façon dont ils se présentent à nous, quand on agit pour les intercepter, l’événement est rare et il provoque leur disparition. Je considère que leur attribuer une masse d’inertie est erronée, et ils ne seraient pas contraints par la loi E = mic2. En conséquence l’hypothèse de leur oscillation entre les saveurs est inappropriée et nous véhiculons à ce sujet un modèle qui induit en erreur.

Ce qui est certain c’est qu’il y a tellement d’inconnues à propos des neutrinos que l’on peut les intégrer dans un spectre de problèmes très étendu et à ce titre on peut leur prêter des propriétés multiples. Citons quelques-unes de ces propriétés éventuelles attribuées : celle du ‘seesaw’, existence de neutrinos stériles qui peuvent avoir une gamme de masse très étendue, qui auraient pu se désintégrer au tout début de l’univers ou pas, hypothèse qu’ils seraient la source de radiation noire pendant l’univers primordial, etc.

Amarrer les inconnues attachées aux neutrinos aux impasses du modèle standard de la cosmologie peut être considérée à première vue comme une tentative étrange. Je ne le pense pas car si dans un premier temps on procède à une accumulation des nœuds de difficultés en même temps on procède à un décloisonnement nécessaire d’où pourra émerger des solutions plus consistantes. Par exemple un article publié, il y a deux jours, le 15/02 sur le site de Physics.APS.org, annonce qu’en procédant à l’extension du modèle standard des particules avec 3 neutrinos stériles sur 6 nouvelles particules supplémentaires proposées, on pourrait, en une seule fois, résoudre 5 problèmes physiques : ‘Model Tries to Solve Five Physics Problems at Once’, voir un résumé joint ci-dessous. Parmi les problèmes potentiellement dénouables citons quelques-uns : résolution du problème de l’inflation, ainsi que celui de la matière noire, de la dissymétrie matière antimatière, et de la mystérieuse très faible masse des neutrinos connus à hélicité gauche.

On remarquera que les auteurs ne procèdent qu’à une extension du modèle standard des particules élémentaires, c’est-à-dire qu’ils n’introduisent aucun paradigme nouveau, ils conçoivent par extrapolations dans le cadre habituel. Précédemment ce type de tentatives, menant à des extrapolations différentes, n’a pas abouti à des conclusions intéressantes.

Model Tries to Solve Five Physics Problems at Once

February 15, 2017

A minimal extension to the standard model of particle physics involves six new particles.

 

APS/Alan Stonebraker

The standard model has enjoyed a happy life. Ever since it was proposed four decades ago, it has passed all particle physics tests with flying colors. But it has several sticky problems. For instance, it doesn’t explain why there’s more matter than antimatter in the cosmos. A quartet of theorists from Europe has now taken a stab at solving five of these problems in one go. The solution is a model dubbed SMASH, which extends the standard model in a minimal fashion.

SMASH adds six new particles to the seventeen fundamental particles of the standard model. The particles are three heavy right-handed neutrinos, a color triplet fermion, a particle called rho that both gives mass to the right-handed neutrinos and drives cosmic inflation together with the Higgs boson, and an axion, which is a promising dark matter candidate. With these six particles, SMASH does five things: produces the matter–antimatter imbalance in the Universe; creates the mysterious tiny masses of the known left-handed neutrinos; explains an unusual symmetry of the strong interaction that binds quarks in nuclei; accounts for the origin of dark matter; and explains inflation.

The jury is out on whether the model will fly. For one thing, it doesn’t tackle the so-called hierarchy problem and the cosmological constant problem. On the plus side, it makes clear predictions, which the authors say can be tested with future data from observations of the cosmic microwave background and from experiments searching for axions. One prediction is that axions should have a mass between 50 and 200𝜇 eV. Over to the experimentalists, then.

This research is published in Physical Review Letters

 

 

[1] Logicien (1891-1970) un des promoteurs du cercle de Vienne.

[2] Je propose une hypothèse qui évite cette résignation douloureuse, voir articles du 02/11/2012 ; du 01/01/2013 ; et enfin du 02/05/2013 : ‘Bienvenu au ‘Moment Présent’ de L. Smolin’.

Partager cet article
Repost0
1 février 2017 3 01 /02 /février /2017 09:36

Où mène la raison

En consultant les livres qui étaient exposés à la vitrine d’une librairie, je me mis à l’arrêt sur le titre : « Pourquoi ne peut-on pas ‘naturaliser’ la raison », de Hilary Putnam. H. Putnam (enseignant la logique mathématique à Harvard), je connaissais en tant que philosophe des sciences dures professant un réalisme scientifique, mais pas ce livre sur la question de la naturalisation de la raison. Spontanément, j’achetai le livre car je me demandai comment il était possible de supposer que la raison soit de la nature comme en creux cela était supposé dans le titre. lisant ce livre avec intérêt, je retrouvais des arguments satisfaisant, confirmant que la raison était une production humaine et qu’elle résultait de ce qui faisait la spécificité de l’être humain. Ainsi je pouvais lire : « Je dis que la raison en tant que tel est langagière, d’une part : immanente, dans le sens qu’il est impossible de la trouver en dehors de jeux de langage concrets et d’institutions concrètes et qu’elle est : en même temps transcendante, dans le sens qu’elle est une idée régulatrice en fonction de laquelle nous nous orientons lorsque nous critiquons nos activités et nos institutions. Nous retrouvons-là l’articulation entre une philosophie des concepts et une philosophie des préceptes. » Avec cette citation on vérifie que Putnam parle de la raison qui guide notre réflexion, tout autant dans notre vie quotidienne et banale que la raison qui oriente notre raisonnement face à une énigme scientifique. C’est aussi cette raison qui est en jeu quand on dit : « Il n’y a pas de raison que cela soit ainsi… il est déraisonnable de considérer la chose sous cet angle… et c’est aussi la raison de l’expression : « c’est la raison du plus fort qui est toujours la meilleure. » fin pour mesurer l’importance de ce que ce mot véhicule de signification pour nous humains, il suffit d’évoquer les travaux de E. Kant sur la : ‘critique de la raison pure’, et la : ‘critique de la raison pratique’.

Ce qui s’affirme dans le livre, pour conforter l’idée d’une impossible naturalisation de la raison, c’est une critique sans concession au réalisme métaphysique et au naturalisme philosophique. Le réalisme métaphysique, en tant que métaphysique, c’est une croyance que l’on conçoit comme étant a priori dans l’ordre des choses et la pensée de celui qui est croyant est organisée en fonction de celle-ci (voir par exemple la métaphysique platonicienne). Le naturalisme philosophique c’est plutôt un choix qui se fait à postériori car il est ce qui offre la meilleure cohérence à des convictions-intuitions qui précèdent. Le naturalisme philosophique est argumenté par celle ou celui qui intellectuellement conçoit qu’il n’y a pas d’autre réalité que la nature.

Avec la lecture du livre de H. Putnam, je rencontrai de la concordance pleine et entière avec l’idée qu’il n’était pas possible de naturaliser la raison, et au fond de moi j’étais rassuré au point que je me suis demandé pourquoi a contrario l’idée d’une validité éventuelle de l’hypothèse inverse m’inquiétait d’une façon si troublante[1]. Est-ce que cela aurait remis en cause le corpus de mes convictions, le socle de ma métaphysique ? J’étais donc obligé d’aller découvrir le front d’opposition sur lequel H. Putnam avait justifié sa thèse c’est-à-dire le Naturalisme philosophique.

Le naturalisme en tant que philosophie date de l’Antiquité mais nous allons nous concentrer sur sa version contemporaine dont il semblerait que ce soit Baruch Spinoza qui en fut le précurseur. L’animateur principal de cette philosophie au cours du XXe siècle est W.V.O. Quine (1908-2000) et il est responsable de la prééminence actuelle du naturalisme chez les philosophes anglo-saxons. Le naturalisme philosophique considère qu’aucun événement dans le monde ne peut être causé par quelque chose qui se trouverait en dehors du monde naturel. Le naturalisme soutient qu’il n’existe rien en dehors de la nature (sic) et les sciences de la nature sont les seules voies d’accès à la connaissance authentique. En conséquence l’homme est une production de la nature (ce qui en partie correspond à ce que je désigne comme étant une composante de l’être humain : l’être de la nature) qui n’a pas d’autre justification que les causes naturelles qui l’ont amené à l’existence. On comprend donc que Charles Darwin fut un inspirateur des naturalistes mais j’ai la conviction qu’il est surinterprété à mauvais escient.

L’adhésion aux travaux de Darwin et leur exploitation les conduisent à affirmer que toutes les formes organisées de la vie, jusqu’aux plus élevées (par ex : celle relative au fonctionnement cérébral) sont issues de la matière non vivante par un processus mécanique aveugle (sic) de transformation et d’organisation de cette matière (jusque-là on peut accepter cette thèse). Ce qui à mon sens pose problème, ce sont les extrapolations et donc les conséquences qu’ils en tirent :

Ils remettent en cause la validité du point de vue que nous offre l’introspection ;

Ils rejettent la possibilité d’un point de vue transcendant sur le monde.

Avec les naturalistes il se trouve que mon hypothèse de l’être dans la nature qui constitue mon autre versant de l’être humain, n’a pas droit de cité car selon eux l’être humain ne peut être qu’au ras de la nature. L’être humain, le physicien, ne peut se situer en surplomb de la nature. On verra un peu plus loin jusqu’où nous conduit ce type d’extrapolation.

Ce qui est dommage, c’est que l’optimisme scientifique qui est inhérent au naturalisme philosophique mène jusqu’au réductionnisme absolu, c’est exactement ce à quoi s’oppose H. Putnam, en réfutant l’idée que la raison puisse être expliquée comme une propriété de la nature et avoir sa source dans la nature. Mais instruisons-nous plus encore de ce qui constitue le corpus du naturalisme (voir Wikipédia). Il est écrit que l’homme et l’univers entier sont susceptibles, en principe, d’être expliqués par les sciences de la nature (sic). Il est soutenu qu’il n’y a pas de limite a priori à l’explication scientifique. Même s’il existe de fait des limites au développement scientifique à une époque donnée, rien n’exclut que la nature soit entièrement intelligible et il n’y a pas de limitations définitives à l’extension des connaissances scientifiques.

Le fait qu’il est écrit entre autres que l’homme est susceptible d’être expliqué par les sciences de la nature conduit à des redoutables conclusions, celles-ci ayant trait à l’émergence, dans les années 1950, de la philosophie de l’esprit : théorie de l’identité esprit-cerveau. Elle prétend que les neurosciences peuvent nous permettre de comprendre en quoi certaines structures et certains processus neurophysiologiques du cerveau s’apparentent pour nous à une vie mentale. On peut considérer que la plupart des neuroscientifiques adhèrent explicitement ou tacitement à la théorie de l’idée de l’esprit-cerveau (J.P. Changeux, A. Damasio, S. Dehaene…) A propos de Changeux, c’est certain mais en ce qui concerne Dehaene ce n’est pas le cas, contrairement à Changeux il n’a jamais exprimé qu’il partageait l’idée de l’identité esprit-cerveau. Le réductionnisme de cette théorie n’est pas accepté, non plus, par Putnam puisqu’il exclut que la raison puisse avoir une source naturelle, celle-ci est fondée par le ‘sujet pensant’ : ‘l’être dans la nature’, preuve qu’il est doté de capacités propres qui ne peuvent être réduites au prisme des propriétés de la nature.

J’aurai pu me satisfaire de la convergence que je rencontrai avec H. Putnam et donc, rassuré, satisfait, passer à autre chose. En fait un an après je revins sur ce livre (longue période de décantation !) et je me rendis compte que je devais connaître ce que signifiait vraiment le naturalisme philosophique. Ce qui est certain c’est que cela a consolidé mon hypothèse : Être de la Nature/Être dans la Nature. Cela peut paraître étonnant et je m’en étonne moi-même, mais c’est généralement dans l’épreuve de la confrontation que l’on acquière encore plus de certitude à propos d’hypothèses proposées. Ici, avec le naturalisme philosophique qui conduit, par exemple, jusqu’au réductionnisme de l’esprit-cerveau, il y a matière à développer des arguments qui expliquent pourquoi on peut s’insurger contre ce type d’extrapolation.

Réduire la faculté humaine, à produire et mener de la pensée interrogative à propos de ce à quoi est constitué la Nature, à une propriété de la Nature elle-même, est aberrant. C’est plus du dogmatisme que de la réflexion. Il est vrai que l’on doit s’étonner et s’interroger sur ce qui est en jeu avec le processus intellectuel de l’être humain et ce qui avec la sélection naturelle a favorisé l’émergence de cette faculté propre à l’homme au stade le plus élevé. Ne pas pouvoir décrire in fine ce à quoi cela correspond, n’interdit pas le fait que nous puissions comprendre le cheminement du processus de son éclosion et de son développement, à ce titre la paléoanthropologie nous offre de plus en plus des ressources d’études remarquables. D’un autre côté, l’imagerie cérébrale nous permet aussi d’ausculter et de découvrir certains critères de fonctionnement et de dysfonctionnement de notre cerveau mais ne nous autorise pas, pour autant, à formuler le postulat aberrant : lorsque l’on observe le fonctionnement du cerveau on voit l’esprit en activité.

Le 21/06/2016, j’ai posté l’article : ‘Evolutions des connaissances ; évolutions de l’humanité’, qui rend compte de l’intérêt d’une coopération entre les physiciens (au moins les théoriciens) et des paléoanthropologues, celle-ci serait très valablement enrichie grâce à une coopération avec les spécialistes de l’imagerie cérébrale. Le débat intérieur que j’ai connu grâce à la lecture du livre de H. Putnam conforte évidemment cette proposition. Le décloisonnement que je propose est certainement le moyen d’ouvrir la voie vers une meilleure compréhension de la place du sujet pensant qui cogite les lois de la nature ainsi que l’implication de l’état de sa singularité actuelle (parce que ses compétences intellectuelles ne peuvent qu’évoluer dans le futur) qui favorise ou obstrue la découverte des propriétés de la nature.

 

[1] Si on souhaite disposer d’une démonstration supplémentaire que la raison est un propre de l’homme, découvrir le livre de B. Saint Sernin : ‘La raison au XXe siècle’, au Seuil, 1995. Dans ce livre, il n’y a pas d’élucidation de la raison qui ne débouche sur la question de l’homme. Est restitué dans toute son amplitude les formes et les évolutions de la raison au XXe siècle, à travers les sciences exactes et humaines, l’épistémologie, le problème du mal et le totalitarisme concentrationnaire. Comme la vie, la raison a une histoire.

Partager cet article
Repost0
27 janvier 2017 5 27 /01 /janvier /2017 12:11

Dieu est-il mathématicien ?

Le questionnement en titre de cet article, comme je l’ai souvent exprimé, n’est pas banal, n’est pas marginal, de fait il est central. Suivant la réponse que les physiciens formulent à l’égard de cette question dépend non seulement la représentation qu’ils développent du monde physique mais aussi de facto elle détermine le rôle et la place de l’être réflexif qui cogite ce monde. Cette problématique que je souhaite présenter concerne principalement les physiciens théoriciens, qu’ils soient à l’origine des mathématiciens ou non, mais pas uniquement car en général, que ce soit consciemment ou inconsciemment, la réponse suscité par ce questionnement oriente la façon d’aborder les problèmes de physique dès qu’ils s’insèrent dans un modèle de représentation préétabli.

‘Dieu est-il mathématicien ?’ est le titre d’un livre qui vient d’être publié : édit. O. Jacob, auteur ‘Mario Livio’, qui m’offre donc un excellente occasion pour traiter ce sujet. Lorsque Cédric Villani déclare : « les mathématiques sont le squelette du monde, la physique en est la chair. », apparemment il peut y avoir consensus à propos de cette affirmation mais son interprétation sera multiple. Effectivement, comme on le verra plus loin, le physicien, sous l’influence de la métaphysique platonicienne, l’interprétera suivant un certain schéma fidèle à l’idée qu’un ordre mathématique (le squelette) préexiste dans le monde. Pour les non platoniciens, ce qui conduit à la connaissance du monde c’est l’appréhension, l’observation, des contours de la chair du monde et concomitamment l’invention des outils mathématiques qui consolident et structure intellectuellement les observations et conduisent à formuler des prédictions.

Voici à grands traits ce qui constitue un clivage significatif entre les platoniciens croyants et les non croyants. On peut me répliquer que ceci n’a pas d’importance car c’est le résultat qui compte. Mais en fait, il n’y a jamais de résultat qui boucle sur un savoir complet, final, au contraire le plus souvent il provoque un questionnement nouveau, conduit à des hypothèses nouvelles, a des extrapolations divergentes, à coup sûr, suivant des croyances préalables. Il suffit de prendre en considération des exemples multiples en mécanique quantique après 100 années de développement de cette mécanique. Je cite une réplique illustrative de S. Hawking a R. Penrose dans le livre : ‘Les deux infinis et l’esprit humain’, collection Flammarion, (2003) p.189, dans le chapitre ‘Les objections d’un réductionniste sans vergogne’ : « R. Penrose et moi avons travaillé ensemble sur la structure de l’espace-temps à grande échelle, y compris les singularités et les trous noirs. Nous sommes bien d’accord sur la théorie classique de la relativité générale, mais des désaccords ont commencé à émerger quand nous sommes passés à la gravitation quantique. Nous suivons à présent des voies différentes vers la compréhension du monde, physique et mental. Il est fondamentalement un platonicien qui croit en un monde unique des idées qui décrivent une réalité physique unique. Moi, au contraire, je suis un positiviste qui croit que les théories physiques ne sont que des modèles mathématiques que nous construisons et qu’il n’y a pas de sens à demander si elles correspondent à la réalité, mais seulement si elles prédisent les observations (sic).»

Pour le platonicien, l’être réflexif est passif, c’est un contemplateur, un découvreur de ce qui préexiste, un chercheur qui doit écouter la nature elle-même, et par la réminiscence il lui faut retrouver les ‘Idées’ comme le préconisait déjà Galilée en son temps : « Moi je vous dis que si quelqu’un ne sait pas la vérité de par lui-même, il est impossible qu’un autre le lui fasse connaître. » P. Dirac, le théoricien découvreur de l’antiélectron a fait, intellectuellement et avec certitude, surgir cette nouvelle particule de la pointe de son crayon parce que les équations qu’il mettait en évidence révélaient des propriétés de symétries, comme il le disait là où je constate de l’harmonie, de la beauté, j’atteins la vérité de la Nature. Pour illustrer et comprendre ce propos, il suffit simplement de regarder l’image d’un flocon de neige au microscope. Morale de l’histoire, trois années après la prédiction de P. Dirac, l’antiélectron a effectivement été observé (1932) et c’est le nouveau paysage d’une très grande ampleur, celui de l’antimatière, qui se dévoile à la sagacité des physiciens.

Découvreur ou inventeur ? : tel est le clivage fondamental qu’a identifié l’auteur du livre, dès le premier chapitre. Je préconise la lecture de ce livre car il est le plus exhaustif possible quand on traite ce type de sujet (puisqu’on passe en revue 25 siècles de réflexions) et l’auteur n’a pas la volonté d’imposer son point de vue, au contraire, il nous donne les moyens d’avoir un point de vue propre lorsque l’on referme le livre.

Je cite : « Pour les platoniciens, il existe une réalité mathématique distincte de la nôtre. Pour les constructivistes, les mathématiques progressent et évoluent en fonction de nos besoins, cela résulte de l’émergence d’Homo mathématicus façonné par l’évolution et capable d’appréhender le ‘réel’ avec des outils mathématiques de plus en plus sophistiqués. » voir mon article du 27/08/2014 : ‘Un authentique Big-Bang’

Etant donné l’efficacité apparente des mathématiques, il est légitime de se demander : « Les mathématiques sont-elles totalement indépendantes de l’esprit humain ? Ont-elles une existence autonome ? Ou sont-elles une invention humaine ? »

D’emblée, j’indique que je mettrais plutôt en exergue les arguments qui correspondent à ma conviction qui est celle des non platoniciens. Ceux qui ont la pratique de lire mes articles savent que je place au centre du processus de la conception du savoir en physique le ‘sujet pensant’ qui doit sans cesse différencier et faire évoluer ce qui est de l’ordre de ‘l’être de la nature’ de ce qui est de l’ordre de ‘l’être dans la nature’, c’est la condition de l’existence et le propre de l’évolution de ‘l’être humain’. Aucune transcendance ni aucune immanence n’offrent un coup de pouce à cette nécessaire dynamique.

Je cite volontiers Sir Michael Atiyah, (que l’auteur me fait découvrir et qualifié comme l’un des plus grands mathématiciens du XXe siècle), médaille Fields 1966 et prix Abel 2004, « L’homme a créé les mathématiques en idéalisant les éléments du monde physique… les mathématiques sont une partie naturelle de l’humain. Elles émanent de nos corps, de nos cerveaux et de notre expérience quotidienne… Si l’on envisage le cerveau du point de vue de l’évolution (sic), alors le mystérieux succès des mathématiques dans l’explication du monde naturel s’explique en grande partie. Le cerveau a évolué en fonction du monde physique (sic), et il n’est nullement étonnant qu’il ait développé un langage, et des mathématiques, bien adaptés à ce but… Les mathématiques, qui émergent d’un esprit incorporé, sont ainsi un système de concepts qui fait un usage extraordinaire des outils ordinaires de la cognition humaine… Les êtres humains ont créé les mathématiques, et nous sommes responsables de leur bon usage et de leur extension. » voir article du 18/03/2015 : ‘Décrypter la physique comme science de l’interface de l’être humain et de la Nature’.

En Europe, la science physique moderne est née au XVIIe siècle à partir de l’affirmation que dieu était mathématicien. Durant ce siècle s’est opéré de façon péremptoire et absolue une identification du monde à un gigantesque complexe mathématique, dont la science aura désormais pour but de révéler l’agencement. Pour cette raison l’auteur nous précise que nous sommes maintenant dans le registre théologique et nous dit fort justement : « Plus fondamentalement, Galilée, Descartes et Newton ont changé la relation entre les mathématiques et les sciences. D’abord, la révolution scientifique de cette époque a encouragé les recherches mathématiques. Ensuite, les champs mathématiques abstraits, comme le calcul différentiel, sont devenus l’essence même des explications physiques. Finalement, la frontière entre les mathématiques et les sciences s’est brouillée au point de devenir indiscernable dans bien des domaines. Tout cela fait que les mathématiques ont suscité un enthousiasme comparable à celui qu’elles avaient généré dans la Grèce antique. Le monde s’ouvrait aux mathématiciens… »

Si, pour les trois fondateurs historiques de la science moderne, la réalité de dieu n’était pas sujet à un questionnement, il y avait entre eux plus que des nuances sur le rôle et la place qu’ils lui attribuaient. Pour Galilée et Newton, qui avaient une connaissance approfondie de la métaphysique platonicienne, leur Dieu n’était pas que le fondateur du monde pour ensuite se retirer sur son Aventin car selon Newton : il doit exister un agent non matériel qui « active » la nature, une « quantité de présence » indéfectible et à ce titre l’espace absolu est le sensorium (centre de toutes les sensations) de Dieu. Par contre, la philosophie de la nature mécaniste (chaîne de causalité) de Descartes peut s’interpréter jusqu’à nier l’existence de Dieu, puisque le fonctionnement de la mécanique du Monde suit les lois mathématiques nécessaires du mouvement et au mieux, Dieu serait le créateur d’un Univers qui, une fois l’œuvre faite peut se développer à sa guise, sans autre intervention divine. Pour Newton cela était une hérésie et il abhorrait cette conception mécaniste. Ce rejet ne fut pas sans conséquence pour lui puisqu’il préféra ne pas publier ses travaux, conçus autour de 1665 exploitant l’analyse cartésienne, qui équivalent au calcul différentiel et intégral que Leibniz publiera presque vingt ans plus tard, et ceci alimenta une polémique et des échanges de noms d’oiseaux, sur la base d’accusation de plagiat (déjà).

Culturellement, intellectuellement, à des degrés divers, nous sommes toujours imprégnés par cette problématique immanence/transcendance. A ce titre, je conseille l’article de Heinz Wismann dans le N°H.S. de Sciences et Avenir de janvier-février 2017, p.81, qui nous dit : « Autrement dit, le christianisme, grâce à sa conception duale de la nature de Dieu, à la fois transcendant et immanent (proclamée au concile de Nicée en 325 et rejetée par Newton (sic)) a ouvert l’espace d’un questionnement qui débouche sur la science moderne… C’est parce qu’il était profondément croyant que Galilée a été un grand scientifique. Les scientifiques peuvent parfaitement être athées, la science qu’ils pratiquent est d’inspiration chrétienne. »

Autant, comme on le vérifie, le clivage qu’a privilégié Mario Livio est approprié pour marquer la nécessité de comprendre combien l’antinomie conceptuelle création/découverte scientifique puise sa source déterminante dans des a priori métaphysique-philosophique. Toutefois, il n’est pas possible de tout rendre compte en fonction de cette simple binarité. Je rappelle pour exemple ce qui est écrit et aussi dit dans l’article (toujours de ‘Sciences et Avenir’ ci-dessus référencé) : ‘Les Mathématiques, ordre caché de la nature’, p.68. Cédric Villani déclare : « Les mathématiques sont le squelette du monde, la physique en est la chair. » Un platonicien (ce qui semble être le cas de Villani) a priori adhère à cette déclaration car disposant du squelette immanent il est plausible qu’on puisse après coup l’habiller de sa chaire mais un non platonicien peut aussi approuver ce dire sans aucune réticence. Les raisons qui conduisent à cette double adhésion sont le fait d’interprétations différentes. Le physicien est celui, qui par ces observations, prospecte à tâtons les contours accessibles de la chair du monde. Lorsqu’il pense avoir atteint un bon degré de détection de ces contours, il est classique qu’il s’efforce de les mettre en langage mathématique (soit en puisant dans l’existant, soit en le construisant.), c’est une voie de structuration dans un langage commun scientifique communicable entre paires. Cette structuration formelle peut être considérée comme l’esquisse d’un squelette voire plus, cela dépend de l’avancée de l’identification des contours. Ici les mathématiques ont un caractère utilitaire, on est clairement dans un processus d’invention.

La précipitation avec laquelle on plaque un formalisme mathématique alors que la chaire détectée est trop parcimonieuse peut-être aussi franchement néfaste car cela peut masquer une phénoménologie nouvelle et originale. C’est à mon sens ce qui est le cas en ce qui concerne les neutrinos. Forcer par analogie la thèse de leur oscillation et conséquemment leur attribué une masse d’inertie classique conduit, depuis plus de 30 ans, à bâtir un puzzle d’hypothèses qui éloigne d’une possible élucidation de ce que nous révèleraient plus authentiquement ces mystérieux neutrinos.

Dans l’article du 5/11/2016, j’ai eu la possibilité de vous présenter la conception et des résultats du travail de Carl Bender qui a mon sens n’est pas une réplique du binarisme platonicien/non platonicien. C. Bender nous explique : « J’utilise la physique pour générer des problèmes intéressants et ensuite j’utilise les mathématiques pour les résoudre… Mon approche est de comprendre ce qui se passe dans le monde réel – où nous vivons – en étudiant le monde (mathématique) complexe, qui inclut le monde (mathématique) réel comme un cas spécial…etc. »

Il y a aussi le grand physicien du XIXe siècle, J.C. Maxwell, qui nous délivre sa conception pragmatique de l’accès à la connaissance des lois de la nature : « Son œuvre consiste à s’appuyer sur une modélisation de la nature, c'est-à-dire de lancer sur la nature des filets – autrement dit des « modèles » - pour en attraper les secrets dont les mailles sont mathématiques, tout en sachant bien que ce sont là des artifices, en ce que ces modèles ne reflètent jamais fidèlement les mécanismes qu’ils servent à représenter ». Ainsi, Maxwell, par le maniement des artifices, entendait pénétrer plus avant dans l’intelligence de la nature et en formuler les lois fondamentales, qu’il pensait être sinon géométriques du moins structurales.

C’est donc une controverse tout autant métaphysique que philosophique qui perdure depuis au moins 25 siècles et cela, à n’en point douter, persévérera. On peut constater que cette controverse, si fructueuse, est présentée uniquement dans le contexte d’une culture occidentale et plus précisément européocentriste. Qu’en est-il, fondamentalement dans d’autres contextes culturels ? Je crois que nous ne disposons pas, à ce jour, d’études suffisamment développées pour pouvoir mener des réflexions comparatives d’une culture à une autre. C’est un manque évident, espérons qu’il pourra être comblé.

 

 

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens