Overblog
Suivre ce blog Administration + Créer mon blog
1 mars 2017 3 01 /03 /mars /2017 16:50

Déroutant voire inacceptable

Sur un site Américain était publié le 8/02 un article assez court annonçant que l’interféromètre européen Virgo allait enfin pouvoir participer à la chasse aux ondes gravitationnelles conjointement avec ceux de Ligo. C’était une annonce positive car après de nombreux semestres d’indisponibilité pour causes d’améliorations techniques, sa mise en fonctionnement permettait d’accroître notamment la précision de la localisation dans l’espace de la fusion des trous noirs.

Sur le site de ‘Science’ le 16/02 un article annonce que ‘le détecteur européen des ondes gravitationnelles est défaillant’. Depuis cette date aucun site scientifique français ni aucune revue n’ont daigné donner la moindre information sur ce sujet alors que de nombreux scientifiques et ingénieurs nationaux sont impliqués sur le fonctionnement de cet instrument.

Il est impossible de connaître et comprendre les raisons de ce silence et de ce qui pourrait ressembler à une censure. Pourquoi ? Il n’est pas possible de rester passif devant cette situation qui pour le moins n’est pas scientifique.

Je propose dans ce qui suit de me référer à l’article de ‘Science’ du 16/02, d’en citer les éléments les plus informatifs et de joindre in-fine l’article original.

Je cite : « Le 20/02 les dignitaires devaient aller près de Pise où se trouve VIRGO pour marquer le redémarrage du détecteur après 5 années et 24 millions d’Euros d’améliorations. Mais pour augmenter la sensibilité du détecteur il fut décidé de remplacer les fils d’acier qui suspendaient les miroirs par des fils en fibre de verre pour réduire la sensibilité aux bruits de fond, thermique et mécanique. Déjà, l’année dernière après quelques jours ou quelques semaines les fils de verre se brisaient une fois que les miroirs de 40 kg étaient suspendus. Après des mois d’enquête l’équipe technique a découvert le coupable : des particules microscopiques provenant de débris des pompes du système du vide aussi upgradé. Lorsque ces débris se dépose sur la fibre du verre ils engendrent des microfissures qui se développent, de jour en jour, de semaine en semaine, jusqu’à la rupture.

Il est impossible que VIRGO puisse fonctionner de concert avec LIGO car celui-ci fonctionne depuis novembre 2016 et devrait être performant jusqu’en Mai 2017. Espérons que VIRGO aura réglé ses problèmes de fiabilité au moins au printemps de 2018 car LIGO sera prêt pour une nouvelle période de détection. Heureusement au tout début de 2019 un nouveau détecteur performant au Japon sera fonctionnel : KAGRA : Kamioka Gravitational Wave Detector.

European gravitational wave detector falters

By Daniel CleryFeb. 16, 2017 , 2:00 PM

On 20 February, dignitaries will descend on Virgo, Europe’s premier gravitational wave detector near Pisa, Italy, for a dedication ceremony to celebrate a 5-year, €24 million upgrade. But the pomp will belie nagging problems that are likely to keep Virgo from joining its U.S. counterpart, the Laser Interferometer Gravitational-Wave Observatory (LIGO), in a hunt for gravitational wave sources that was meant to start next month. What has hobbled the 3-kilometer-long observatory: glass threads just 0.4 millimeters thick, which have proved unexpectedly fragile. The delay, which could last a year, is “very frustrating for everyone,” says LIGO team member Bruce Allen, director of the Max Planck Institute for Gravitational Physics in Hannover, Germany.

A year ago, LIGO confirmed a prediction made by Albert Einstein a century earlier: that violent cosmic events, like the merger of two black holes, would wrench the fabric of spacetime and emit ripples. But LIGO, with two instruments in Livingston, Louisiana, and Hanford, Washington, cannot pinpoint the sources of the waves, which would let astronomers train other telescopes on them. Triangulating on the sources requires a third detector: Virgo.

The detectors all rely on optical devices called interferometers: two straight arms, several kilometers long, positioned at right angles. Inside each arm a laser beam bounces back and forth between mirrors at each end of a vacuum tube, resonating like sound in an organ pipe. The laser light is combined where the two arms meet so that the peak from one laser wave meets the trough of the other and they cancel each other out. But if something, such as a gravitational wave, stretches space and changes the length of the two arms by different amounts, the waves will no longer match up and the cancellation will be incomplete. Some light will pass through an exit known as the dark port and into a detector.Haut du formulaire

Bas du formulaire

The tiniest vibrations—earth tremors, the rumble of trains, even surf crashing on distant beaches—can swamp the signal of gravitational waves. So engineers must painstakingly isolate the detectors from noise. At Virgo, for example, the mirrors are suspended at the end of a chain of seven pendulums. For the upgrade, steel wires connecting the mirror to the weight above it were replaced with pure glass fibers to reduce thermal and mechanical noise.

But a year ago, the glass threads began shattering, sometimes days or weeks after the 40-kilogram mirrors were suspended from them. After months of investigation, the team found the culprit: microscopic particles of debris from the pumps of the upgraded vacuum system. When these particles settled on the glass fibers they created microcracks, which widened over days and weeks until the fibers failed. “The fibers are very robust until something touches their surface,” says Giovanni Losurdo, Advanced Virgo project leader at Italy’s National Institute for Nuclear Physics in Pisa.

During the investigation, the team temporarily replaced the glass fibers with steel wires—as in the original Virgo—and pressed ahead. But other problems compounded the delays. An examination of small steel triangles that act as vibration-damping springs revealed that 13 out of 350 were cracked or broken. Why remains a mystery, but the team replaced those that showed any sign of damage—40% of the total. Given the complexity of the detector, “it’s not surprising some things don’t work as expected,” says Virgo team member Benoit Mours of France’s National Institute of Nuclear and Particle Physics in Annecy.

The Virgo team has now achieved “lock” in the two detector arms, meaning that light is stably resonating. They soon hope to bring in the central optics and combine the beams. Then they must hunt down and eliminate remaining sources of noise to see what level of sensitivity they can achieve with the steel wires still in place.

For Virgo to make a useful contribution, it needs to be at least one-quarter as sensitive as LIGO. Researchers define sensitivity as the distance to which a detector could spot the merger of two neutron stars with masses 1.4 times the sun’s. LIGO’s Livingston detector can currently sense such an event out to about 80 megaparsecs (260 million light-years). In theory, with all of the upgrades but the mirrors still suspended with steel wires, Virgo should be able to reach 50 megaparsecs, Losurdo says. “As soon as Advanced Virgo reaches the sensitivity to join, we will start.”

Frustratingly for the Virgo team, the steel wires are expected to have the most impact on sensitivity to gravitational waves with lower frequencies than neutron star mergers, such as those from the mergers of black holes. And black hole mergers are precisely the events that LIGO detected last year.

The task of eliminating noise sources is sure to take several months, says Lisa Barsotti of the Massachusetts Institute of Technology in Cambridge, co-chair of the LIGO-Virgo Joint Run Planning Committee. That makes joining LIGO as planned in March a virtual impossibility. The current LIGO run, which began on 30 November 2016, was expected to continue for about 6 months, until late May 2017, but even that may be a stretch for Virgo. Barsotti says LIGO could extend its run by a month or two, “to give Virgo a chance to join.”

Whether Virgo manages to take part in the current run, the team should be able to reinstall the glass fibers and root out other sources of noise by the spring of 2018, when LIGO will start a new observing run. Soon after, a fourth detector is poised to join the hunt: the Kamioka Gravitational Wave Detector, or KAGRA, near Hida City in Japan, which plans to begin operations in 2019. KAGRA’s arms will be underground, below 200 meters of rock, and its mirrors chilled to 20 K—two tricks that should reduce noise and boost sensitivity.

 

Partager cet article
Repost0
26 février 2017 7 26 /02 /février /2017 06:53

Perspectives

Au Collège de France, Françoise Combes a terminé son cours : Énergie noire et modèles d'univers, le 06/02/2017 par une séance intitulée : Perspectives avec Euclid, WFIRST, LSST, SKA. Ces noms désignent les instruments existants déjà partiellement ou vont être développés très prochainement pour mieux cerner, pour l’essentiel, la problématique de l’accélération de l’expansion de notre univers. Chacun de ses nouveaux moyens d’observation représente un investissement minimum de 1 milliard d’euros. L’intitulé de cette dernière séance est sans ambiguïté et F. Combes, en tant que physicienne, nous indique que la perspective essentielle est l’obtention de ces instruments et que ceux-ci soient opérationnels d’ici quelques années pour que soit atteint un seuil de connaissance significatif sur la dynamique de l’évolution globale de notre univers. La communauté scientifique des astrophysiciens, cosmologues, et autres catégories souhaitent participer à cette aventure, même pour ceux qui n’auraient qu’une perspective de court terme, terrienne, cela est professionnellement valorisant et à la clef, il y a une intéressante perspective de création d’emplois scientifiques. Précisons qu’avec ce sujet nous sommes concentrés sur la conquête de connaissances purement fondamentales concernant la structure de notre univers et sa dynamique.

Dans un billet, du ‘Monde’ du 22/02, signé par Louise Mussat, avec le titre ‘L’architecture cosmique éclaire sur l’énergie noire.’, dans le paragraphe : ‘Simuler les évolutions des grandes structures depuis le Big Bang’, il est écrit : « Chacun des modèles d’énergie noire (les astrophysiciens en ont élaboré tout un catalogue) influence de façon caractéristique les grandes structures de l’Univers. Pour savoir quel est le bon, il leur faut donc observer l’évolution de ces dernières, notamment avec des ordinateurs ultrapuissants. « Depuis 2012, nous utilisons le supercalculateur Curie, situé au CEA, dans le cadre du projet Deus, explique Jean-Michel Alimi, de l’observatoire de Paris. La machine est pétaflopique : elle est capable de résoudre un million de milliards d’opérations chaque seconde. Cette puissance nous permet de simuler l’évolution des grandes structures depuis le Big Bang jusqu’à l’Univers actuel » « Les données sont en cours de traitement mais, déjà (sic), les scientifiques envisagent d’élaborer une machine mille fois plus puissante. De catégorie exaflopique, elle serait capable de résoudre un milliard de milliards d’opérations à la seconde. « Cela nous permettrait de gagner en résolution, poursuit J.M. Alimi. Ainsi, nous pourrions non seulement observer la structuration de l’Univers dans son ensemble, mais aussi accéder à des évolutions plus fines, plus locales. » « Reste à relever les défis technologiques majeurs. Faire tourner un tel engin nécessite une énergie comparable à celle d’une centrale nucléaire (sic). Il faut donc réfléchir à des systèmes qui consomment moins, à des processeurs de nature différente. En attendant que cet ordinateur voit le jour, des engins d’observation non pas virtuels mais réels seront mis en service. Parmi eux, Euclid. Ce télescope spatial de l’Agence Spatiale Européenne (ESA) est conçu pour tenter de résoudre l’énigme de la matière noire. Son lancement est prévu pour 2019. »

Peut-être qu’avec ces propos de J. M. Alimi, on entend en écho l’expression : « Tais-toi et calcule ! », injonction qui aurait fait florès, à partir de la décennie 1950, destinée aux collaborateurs de célèbres physiciens confrontés aux difficultés de comprendre la phénoménologie de l’électrodynamique quantique mais qui, en exploitant les recettes du calcul proposées par R. Feynman, obtenaient des résultats efficaces. L’idée spontanée d’Alimi, est de faire des recherches pour un supercalculateur d’une nouvelle génération et non pas de considérer qu’effectivement nous avons tous les éléments pour penser ce qu’est la dynamique de notre univers et que nous devons nous concentrer sur la compréhension de ce que signifient ces éléments et in fine les exploiter dans le bon ordre. Les puissances de calcul dont nous disposons maintenant, les possibilités de simulation qui s’en déduisent, affaiblissent le recours à la faculté de théorisation et à l’intelligence collective pour dénouer les impasses. Ce ne sont pas les ordinateurs qui énonceront les bons paradigmes. Pensons à la situation au CERN, qui n’a jamais été aussi performant depuis 18 mois mais qui ne conduit à aucune nouveauté parce que la pensée scientifique collective est mal placée (voir article du 16/01/2016 et du 10/08/2016).

L’univers n’est saisissable que par l’esprit, plus spécifiquement par l’esprit qui est qualifié scientifique et en conséquence le questionnement, le désir de savoir encore plus précisément, encore plus fondamentalement, relève donc de la communauté scientifique mais cela devrait concerner ou tout le moins toucher l’ensemble de l’humanité !

C’est ce que nous assure Fabiola Gianotti : Directrice Générale du CERN qui au Forum de Davos, le 20 janvier 2017 déclare : « La recherche en science fondamentale est importante pour piloter les progrès technologiques, elle est aussi une force pour des collaborations pacifiques. » Elle insiste sur la nécessité de la science ouverte et elle ajoute « Les scientifiques ont fait des bons progrès, ces dernières années, pour que le public soit concerné, mais nous devons faire encore plus pour atteindre les gens à tous les niveaux et pour qu’ils puissent utiliser les outils dont nous disposons. La connaissance appartient à l’humanité (sic), elle n’appartient pas aux scientifiques. »

J’ai très envie de partager et surtout de croire en cette déclaration de F. Gianotti. Qui pourrait être objectivement indifférent, voire réticent à l’égard de cette grande perspective ?

Entretenons précieusement cet idéal, que son déploiement soit une perspective mais soyons lucides sans être rabat-joie. Quand F. Gianotti dit que la recherche en science fondamentale est importante pour piloter les progrès technologiques, elle est entendue par le public spécifique de Davos parce que la technologie ça a de la valeur concrète, immédiate, exploitable. Les industriels, financiers, décideurs, de Davos, savent que la recherche fondamentale représente un vrai gisement d’impulsions et de développements technologiques remarquables qui leurs sont profitables. Leur lobbying est au moins aussi prépondérant que celui des scientifiques pour obtenir les financements de leurs projets auprès des décideurs nationaux et multinationaux. La pure conquête des connaissances en science physique fondamental pour le progrès direct de l’humanité est certainement un propre de certains groupes de scientifiques mais malheureusement cela ne doit pas beaucoup diffuser au-delà. Soyons quand même positif car il arrive assez régulièrement qu’il y ait des retombées favorables pour le reste de l’humanité. Je cite le Web (provenance du CERN) qui est un exemple remarquable de retombée possible et franchement cela ne s’arrête pas à cet exemple bien connu maintenant.

L’idée que la connaissance en général, spécifiquement scientifique en particulier, est une cause de progrès et un moyen certain de s’affranchir de l’obscurantisme est nettement mis à mal dans nos sociétés occidentales et il n’est pas possible de sous-estimer les sérieux revers subis actuellement dans certaines sociétés. Le 19/02, à Boston avait lieu une manifestation de la communauté scientifique de la Ville et de la Région qui exprimait sa vive inquiétude à propos de l’avenir des activités scientifiques de tous ordres aux Etats-Unis. Rapporté sur le site physicsworld.com, l’interview d’un jeune chercheur : « J’ai toujours cru dans le pouvoir de la science pour faire que le monde soit meilleur, mais maintenant nous sommes confrontés à une administration antiscience qui met en danger les personnes et les endroits que nous aimons à cause du déni du changement climatique et des attaques contre la vérité et la réalité. Nous tentons d’envoyer un message à Trump qui affirme que les américains sont guidés par la science. C’est la colonne vertébrale du progrès de l’humanité… »

La menace est considérée si importante aux Etats Unis qu’il est prévu le 22 avril une grande marche pour la science et le 29 avril une marche contre le déni du changement climatique et contre les coupures de crédit dans ce domaine de recherche. Les organisateurs de la manifestation du 22 avril s’inquiètent car ils ne voudraient pas que leur mouvement de protestation soit compris par le grand public comme l’expression de la part d’un groupe social – un de plus – qui veut défendre ses intérêts, ses acquis corporatistes. Les organisateurs voudraient que leurs compatriotes comprennent que les scientifiques sont en première ligne dans la lutte contre l’obscurantisme et qu’ils contribuent à la conquête de la ‘lumière’ qui éclaire inexorablement les sentiers du progrès pour l’ensemble de l’humanité (à ceux qui en lisant cette dernière ligne, se disent : toujours une belle utopie ! je leur propose de se poser immédiatement la question : pourquoi, je pense ainsi car cela ne devrait pas). A suivre…

En Angleterre la situation est pour le moins tout autant préoccupante car contrevenant à l’habitude en ce pays, les conseillers scientifiques ne sont pas nommés pour participer aux décisions du gouvernement en ce qui les concerne à propos du Brexit et du changement climatique. Les perspectives sont très inquiétantes pour les scientifiques de la Grande Bretagne car les chercheurs de tous les pays de l’Europe forment des équipes européennes, imbriquées, très performantes jouissant de programmes bien financés par la communauté européenne. Désarticuler ce qui fonctionne si bien depuis plusieurs décennies aura un coût impressionnant.

On peut déjà lire des articles dans lesquels des scientifiques réclament d’être considérés à part dans les négociations du Brexit. Faudrait-il entériner l’idée que les scientifiques ne sont pas des citoyens à part entière de leur pays ? Qu’il y aurait d’un côté le destin intellectuel, culturel, du peuple d’un pays et d’un autre côté celui de sa communauté scientifique ? Il est évident que dans ces pays les scientifiques doivent s’interroger sur leurs propres défaillances en tant que citoyens parce qu’ils ont laissé seuls leurs compatriotes face aux porte-parole obscurantistes. Ils ne peuvent pas sous-estimer leur responsabilité.

Lorsque pour finaliser son cours magistral, F. Combes fait la liste des moyens instrumentaux nécessaires afin qu’au cours de la deuxième moitié de la prochaine décennie un grand bond en avant de compréhension soit franchi à propos de notre univers, le public présent dans l’amphithéâtre approuve unanimement. Après un long et dur labeur, après l’acquisition d’une discipline intellectuelle très rigoureuse, pour l’essentiel l’esprit de ce public s’est envolé, il est occupé à s’interroger sur les contours de cet univers et sa structure dans lequel l’humanité a pris son essor depuis sa conception induite la plus élémentaire. En conséquence le processus par lequel est impliqué la volonté de savoir mieux encore et plus encore de ce public est largement compréhensible et ne peut être altérée. Dans ce contexte, peut-il être disponible pour d’autres contingences ? Est-il mobilisable pour satisfaire à la noble recommandation de F. Gianotti : « Faire que le public soit concerné et faire encore plus pour atteindre les gens à tous les niveaux et qu’ils puissent utiliser les outils dont nous disposons. »

Partager cet article
Repost0
17 février 2017 5 17 /02 /février /2017 10:29

Fragilité du Modèle Standard de la Cosmologie.

 

En recensant et en analysant tous les éléments qui contribuent à la fragilité notoire du modèle standard de la cosmologie j’ai été amené à proposer des idées dans le présent article qui ne se cantonnent pas au domaine de la pure physique, s’il en est. D’entrée, je cite un exemple de raisonnement qui ne peut rester qu’inachevé lorsqu’on s’oblige à n’être que physicien. Il s’agit de L. Smolin qui écrit, page 75, voir son livre très instructif : ‘La renaissance du Temps’ : « La relativité générale avait encore un coup fatal à porter au rôle fondamental du temps en physique. Implicite dans l’idée que le temps est réel et fondamental est celle que le temps ne peut pas avoir de commencement. Car si le temps possède un début, alors cette origine du temps doit être explicable en termes d’autre chose qui n’est pas le temps. Et si le temps est explicable en termes de quelque chose d’intemporel, alors le temps n’est pas fondamental et c’est cette chose, qu’elle que soit sa nature, d’où a émergé le temps, qui est plus fondamentale. Mais dans tout modèle plausible d’univers décrit par les équations de la relativité générale, le temps a toujours un début. »

Avec cet exemple, on vérifie que des lois de la physique peuvent contenir des germes d’impasses remarquables de nos capacités de raisonnement et de compréhension qui ont des conséquences toujours actuelles. Je précise toujours actuelles parce que cet obstacle explicité par Smolin, pourra être, soit dépassé grâce à l’émergence d’un nouveau concept ou paradigme et donc le physicien sera riche de capacités de réflexions, de déductions, supplémentaires, en ce sens il deviendra plus intelligent en ce qui concerne les propriétés de la nature, soit il faudra rebrousser chemin (voir citation de N. Gisin, ci-après pages suivantes) et accepter l’idée que la relativité générale comprend dès sa conception des hypothèses préalables erronées. Dans ce cas de figure, évidemment, il y aura encore du progrès appréciable bien qu’on pourra le qualifier : de conséquence d’un revers de la pensée. C’est peut-être hors sujet mais je veux exprimer toute ma gratitude à L. Smolin pour avoir entrepris ce travail car il nous dit que la science physique est une science qui met en jeu la pensée de l’homme et non pas tout simplement, tout bêtement, sa capacité de calcul.

Je prolonge et je cite encore page 97, « Un jour, Einstein avoua (à R. Carnap[1]), que le problème du Maintenant le préoccupait sérieusement. Il expliqua que l’expérience du Maintenant a une signification particulière pour l’Homme, qu’il s’agit d’une chose essentiellement différente du passé et du futur mais que cette différence cruciale ne vient pas et ne peut pas venir de la physique (sic). Que cette expérience ne puisse pas être appréhendée par la science était à ses yeux un sujet de résignation douloureuse mais inévitable[2]. » Très franchement, je ne peux pas accepter ce clivage, qui est à mes yeux l’expression d’une conception intellectuelle, réductrice voire aliénante, entre ce qui est de l’ordre de la physique et de ce qui a une signification particulière pour l’Homme. Est-ce que la science physique serait une entité à part, tel un bateau qui aurait rompu les amarres du chantier naval où il a été conçu ? Est-ce que la science physique c’est ce qui reste lorsque l’on a évacué le souffle de l’intelligence humaine qui la fonde ?

Ces deux exemples cités nous indiquent, entre autres, pourquoi le modèle standard de la cosmologie est notoirement fragile et il ne faut pas s’attendre à ce que cette fragilité soit résorbée dans un délai raisonnable puisqu’il est écrit dans de nombreux articles récents : la résolution des difficultés passera par la résolution des inconnues sur lesquelles nous butons en ce qui concerne les neutrinos. Or il se trouve qu’à propos des neutrinos nous colportons, de génération en génération de physiciens, des attributs et des propriétés dont la validation ne peut être que sans cesse reportée à plus tard. Dans le cadre du modèle standard de la physique des particules élémentaires, les neutrinos se révèlent être toujours aussi insaisissables dans les filets de nos postulats scientifiques standards, au point que l’impossibilité de vérifier la véracité de certaines hypothèses amène à toujours ajouter de nouvelles couches d’hypothèses.

En ce qui concerne la conception actuelle de notre univers, nous lui attribuons l’histoire d’une évolution depuis un Big-Bang jusqu’à un état actuel dont nous serions les témoins objectifs, soit 13.800 milliards d’années après coup. N’est-ce pas ainsi projeter notre propre histoire, en tant qu’être humain, qui est celle d’une évolution qui nous a façonnés, révélée premièrement par Darwin et maintenant étudiée, approfondie, par les paléoanthropologues qui découvrent aujourd’hui des jalons de celle-ci dans des temps de plus en plus reculés (voir livre de P. Picq : ‘Premiers hommes’, Flammarion, 2016). Je reconnais que cette idée d’une détermination, qui serait à l’œuvre, de duplication de paradigme est à contre-courant de ce qui constituent les préceptes fondamentaux de la pensée scientifique. Il n’y a pas de ma part une volonté de provoquer, mais parfois il est souhaitable de prendre du recul même si cela est déroutant. Est-ce que l’histoire que l’on prête à notre univers ne serait rien d’autre que l’histoire de l’évolution de nos capacités de le décrypter ? Ce qui est le plus probable, c’est que tel qu’il est conçu, le Modèle Standard de la Cosmologie n’est pas réparable mais il doit être repensé.

De même avec l’attribution d’une origine à notre univers, est-ce que ce ne serait pas l’expression de la nécessité, du besoin, qui nous est propre, de toujours poser notre pensée sur une origine pour qu’à partir de là, elle puisse se déployer. Toutes les cosmogonies inventées au cours de l’histoire de l’humanité, que nous sommes capables de recenser, ont toujours supposé une origine pour qu’ensuite elle soit dépassée. Avec ce fameux Big-Bang, ce qui est équivoque, c’est qu’il est considéré comme sujet d’étude par les scientifiques alors qu’il ne serait rien d’autre que notre besoin existentiel d’origine projeté comme réalité de notre univers. En fait notre univers fait partie de ce monde qui nous appartient, pas plus.

Récemment un article de Steinhardt (directeur du centre de physique théorique de Princeton) avec deux autres collègues, dans le Scientific American du 17 janvier ‘Pop goes the Universe’, proposent que les cosmologistes réévaluent le paradigme favori du Big-Bang (Pop) et considèrent de nouvelles idées à propos du comment l’univers a commencé. De même un article dans Phys.org du 09/02/2015, annonce que des équations quantiques prédisent que notre univers n’a pas de début. C’est-à-dire que la singularité est résorbée.

Je pense que notre univers fait partie de ce monde qui nous appartient parce qu’il n’est que ce que nous sommes en mesure de décrypter à travers le prisme de nos capacités actuelles. Je ne dénie pas ce qui est mis en exergue par la science physique jusqu’à maintenant mais je considère que c’est un savoir qui nous caractérise tout autant qu’un savoir qui caractérise le monde qui est en dehors de nous. Bien sûr que cette conception peut être considérée comme humiliante et inacceptable par les physiciens qui seraient les maîtres d’une science ‘exacte’. Il n’y a pas qu’un problème de réputation qui est en cause, cela est secondaire, ce qui est en cause c’est essentiellement le fondement sur lequel beaucoup de physiciens puisent leur force, leur volonté, leur plaisir aussi, justifiant leur investissement intellectuel.

Ce fondement peut être conforté par la croyance que la connaissance en physique a la valeur d’une connaissance universelle, objective. Pourtant depuis un siècle avec l’avènement de la mécanique quantique qui nous dit que la relation sujet/objet ne peut être résorbée – quel que soit le degré d’investissement de notre pensée rationnelle, notre savoir sur l’objet ne peut pas atteindre une connaissance de l’objet tel qu’il est mais uniquement tel qu’il nous apparaît – cela devrait nous enseigner une révision de notre conception de l’objectivité.

Avec la relativité générale s’impose une représentation de l’histoire de l’univers, prise en une fois, comme un système d’événements reliés par des relations causales, et cela s’appelle l’univers bloc. L’univers bloc marie l’espace et le temps. Dans le livre déjà cité de L Smolin, il est précisé page 75 : « Mais vu comme un univers bloc, il (l’espace-temps) est intemporel et inaltérable, sans distinction entre futur et passé et sans place pour, ni signe de, notre conscience du temps. » N. Gisin (physicien, université de Genève), s’insurge contre cette conception en écrivant un article en Mai 2016 : ‘La physique a tué le libre arbitre (qui est un propre de l’homme) et le flux du temps, nous devons revenir en arrière’. De même p.251 et p.253, Smolin confirme selon son analyse : « Je préfère considérer la mécanique quantique comme la preuve que nous vivons dans un univers fini ne contenant qu’une seule copie de moi. »… « Je ne vois aucune manière d’échapper à la conclusion que tout modèle d’univers doit être spatialement fermé, sans frontière. »

Le modèle standard de la cosmologie, tel qu’il est conçu, contraint à ce que la relativité générale et la mécanique quantique fusionnent en un seul et même corpus baptisé gravité quantique. Ce qui jusqu’à présent n’a pu se concrétiser. Les raisons de l’échec d’une conception d’une théorie de la gravité quantique sont de plusieurs ordres. Celui qu’il ne faut pas exclure, c’est que définitivement la relativité générale n’est pas intégrable dans un corpus quantique. En effet, il n’est pas possible de gommer l’opposition constante du fondateur de la relativité générale à la mécanique quantique. Opposition qui s’est affirmée par l’incompatibilité absolue des raisons qui l’ont conduit à concevoir la relativité générale avec celles, affirmées par l’école de Copenhague, qui ont prévalu à la conception de la mécanique quantique. Vouloir résorber l’incompatibilité de ces raisons orthogonales est une tâche impossible puisqu’opter pour l’une annule les fondements de l’autre. Ainsi, on peut expliquer pourquoi toutes les tentatives d’hybridation ont échoué, jusqu’à présent.

Pour illustrer cette analyse je vous cite trois réflexions : 1- dans quantamagazine : « L’effort pour unifier la mécanique quantique et la relativité générale signifie réconcilier des notions du temps totalement différentes. En mécanique quantique, le temps est universel et absolu (Newtonien) ; son tic-tac constant assure l’évolution des intrications entre les particules. Mais en relativité générale, le temps est relatif et dynamique, une dimension qui est inextricablement entrelacé avec les dimensions X, Y et Z dans la fabrique d’un espace-temps de 4 dimensions. » ; 2- De D. Gross, prix Nobel : « Chacun de nous en théorie des cordes est convaincu…que l’espace-temps est condamné. Mais nous ne savons pas par quoi le remplacer. » ; 3- dans hindawi.com : « En mécanique quantique, le temps est absolu. Le paramètre qui se trouve dans l’équation de Schrödinger est un héritage de la mécanique Newtonienne et il n’est pas considéré comme un opérateur. En théorie quantique des champs, le temps par lui-même n’est plus absolu, mais l’espace-temps l’est ; il constitue la structure d’arrière fond sur lequel le champ dynamique agit. La relativité générale est d’une nature différente. Avec l’équation d’Einstein, l’espace-temps est dynamique agissant d’une façon compliquée avec l’énergie impulsion de la matière et avec lui-même. Les concepts de temps (espace-temps) en théorie quantique et en relativité générale sont ainsi drastiquement différents et ne peuvent pas ensemble être fondamentalement vrais. »

La théorie de la relativité générale d’Einstein semble rendre compte un bel accord entre ce qu’elle prédit et ce que nous observons dans l’univers aux grandes échelles. A ce titre, c’est une théorie que l’on peut qualifier de réaliste. Toutefois, il faut toujours pratiquer le principe du doute positif, c’est-à-dire considérer qu’elle pourrait opérer comme un filtre et donc ne permet pas d’accéder à tout ce qui serait ‘visible’ par les astrophysiciens (ex. la matière noire). Lorsqu’on veut remonter dans le temps de l’histoire de l’évolution de notre univers et chercher des preuves d’une origine inférée, ce sont théorie quantique et théorie quantique des champs qui sont convoquées pour tenter de remonter jusqu’à une source supposée. Contrairement à la relativité générale, la mécanique quantique est une théorie conçue sur la base de notre capacité de déduction et non pas sur notre capacité d’observation directe due à nos sens voire d’appréhension. En conséquence la difficulté d’hybridation, évoquée ci-dessus, se trouverait confirmée. Voir article du 23/04/2016 : ‘De la vérité dans les sciences, et après !’ : je cite N. Bohr « La physique est seulement concernée par ce que l’on peut dire sur la nature. » ; je cite W. Heisenberg : « Le postulat d’une réalité physique existant indépendamment de l’homme n’a pas de signification. » ; je cite A. Barrau : « Mais il ne faut pas oublier, … que nos manières d’appréhender cet « autre part » n’en demeurent pas moins humaines et créées. » Cet article succède à celui du 12/04/2016 : ‘Selon A. Barrau, ‘De la vérité dans les Sciences’’

Le ‘voir’ premier et le plus lointain de notre univers est le rayonnement du fond diffus cosmologique, avec l’hypothèse du Big Bang, ce premier ‘voir’ serait daté : 380000 ans depuis l’origine. La phénoménologie dominante, retenue de l’univers naissant, durant les 380000 premières années, est donc le fruit de déductions et pour beaucoup grâce à la mécanique quantique et la TQC. Les impossibilités d’assurer de la concordance entre ce qui est déduit, conçu, dans les temps primordiaux et ce qui est effectivement observable en accord avec la relativité générale (par ex. l’effet lentille gravitationnelle), concernent pour l’essentiel : la matière noire, l’énergie sombre, l’antimatière. Cela n’est pas peu !

Comme je l’ai signalé au début de l’article : espérer que la résolution des impasses actuelles concernant le modèle standard de la cosmologie passera par la résolution des inconnues sur les neutrinos, peut provoquer du scepticisme. En effet, ces inconnues surgissent du fait du modèle standard des particules élémentaires qui est toujours le cadre dans lequel leurs propriétés physiques sont étudiées. J’ai eu souvent l’occasion d’écrire que ce n’est pas le bon cadre. En fait le bon cadre c’est celui de la physique des neutrinos, qui est à découvrir, c’est-à-dire que ceux-ci sont les représentants d’une toute autre physique que nous devons prospecter. A propos des neutrinos, on ne peut pas les ralentir, les accélérer, on ne peut pas avoir d’action sur ces objets sans provoquer leur disparition, on ne peut être que des observateurs passifs, on leur attribue des propriétés physiques sur la base de la façon dont ils se présentent à nous, quand on agit pour les intercepter, l’événement est rare et il provoque leur disparition. Je considère que leur attribuer une masse d’inertie est erronée, et ils ne seraient pas contraints par la loi E = mic2. En conséquence l’hypothèse de leur oscillation entre les saveurs est inappropriée et nous véhiculons à ce sujet un modèle qui induit en erreur.

Ce qui est certain c’est qu’il y a tellement d’inconnues à propos des neutrinos que l’on peut les intégrer dans un spectre de problèmes très étendu et à ce titre on peut leur prêter des propriétés multiples. Citons quelques-unes de ces propriétés éventuelles attribuées : celle du ‘seesaw’, existence de neutrinos stériles qui peuvent avoir une gamme de masse très étendue, qui auraient pu se désintégrer au tout début de l’univers ou pas, hypothèse qu’ils seraient la source de radiation noire pendant l’univers primordial, etc.

Amarrer les inconnues attachées aux neutrinos aux impasses du modèle standard de la cosmologie peut être considérée à première vue comme une tentative étrange. Je ne le pense pas car si dans un premier temps on procède à une accumulation des nœuds de difficultés en même temps on procède à un décloisonnement nécessaire d’où pourra émerger des solutions plus consistantes. Par exemple un article publié, il y a deux jours, le 15/02 sur le site de Physics.APS.org, annonce qu’en procédant à l’extension du modèle standard des particules avec 3 neutrinos stériles sur 6 nouvelles particules supplémentaires proposées, on pourrait, en une seule fois, résoudre 5 problèmes physiques : ‘Model Tries to Solve Five Physics Problems at Once’, voir un résumé joint ci-dessous. Parmi les problèmes potentiellement dénouables citons quelques-uns : résolution du problème de l’inflation, ainsi que celui de la matière noire, de la dissymétrie matière antimatière, et de la mystérieuse très faible masse des neutrinos connus à hélicité gauche.

On remarquera que les auteurs ne procèdent qu’à une extension du modèle standard des particules élémentaires, c’est-à-dire qu’ils n’introduisent aucun paradigme nouveau, ils conçoivent par extrapolations dans le cadre habituel. Précédemment ce type de tentatives, menant à des extrapolations différentes, n’a pas abouti à des conclusions intéressantes.

Model Tries to Solve Five Physics Problems at Once

February 15, 2017

A minimal extension to the standard model of particle physics involves six new particles.

 

APS/Alan Stonebraker

The standard model has enjoyed a happy life. Ever since it was proposed four decades ago, it has passed all particle physics tests with flying colors. But it has several sticky problems. For instance, it doesn’t explain why there’s more matter than antimatter in the cosmos. A quartet of theorists from Europe has now taken a stab at solving five of these problems in one go. The solution is a model dubbed SMASH, which extends the standard model in a minimal fashion.

SMASH adds six new particles to the seventeen fundamental particles of the standard model. The particles are three heavy right-handed neutrinos, a color triplet fermion, a particle called rho that both gives mass to the right-handed neutrinos and drives cosmic inflation together with the Higgs boson, and an axion, which is a promising dark matter candidate. With these six particles, SMASH does five things: produces the matter–antimatter imbalance in the Universe; creates the mysterious tiny masses of the known left-handed neutrinos; explains an unusual symmetry of the strong interaction that binds quarks in nuclei; accounts for the origin of dark matter; and explains inflation.

The jury is out on whether the model will fly. For one thing, it doesn’t tackle the so-called hierarchy problem and the cosmological constant problem. On the plus side, it makes clear predictions, which the authors say can be tested with future data from observations of the cosmic microwave background and from experiments searching for axions. One prediction is that axions should have a mass between 50 and 200𝜇 eV. Over to the experimentalists, then.

This research is published in Physical Review Letters

 

 

[1] Logicien (1891-1970) un des promoteurs du cercle de Vienne.

[2] Je propose une hypothèse qui évite cette résignation douloureuse, voir articles du 02/11/2012 ; du 01/01/2013 ; et enfin du 02/05/2013 : ‘Bienvenu au ‘Moment Présent’ de L. Smolin’.

Partager cet article
Repost0
1 février 2017 3 01 /02 /février /2017 09:36

Où mène la raison

En consultant les livres qui étaient exposés à la vitrine d’une librairie, je me mis à l’arrêt sur le titre : « Pourquoi ne peut-on pas ‘naturaliser’ la raison », de Hilary Putnam. H. Putnam (enseignant la logique mathématique à Harvard), je connaissais en tant que philosophe des sciences dures professant un réalisme scientifique, mais pas ce livre sur la question de la naturalisation de la raison. Spontanément, j’achetai le livre car je me demandai comment il était possible de supposer que la raison soit de la nature comme en creux cela était supposé dans le titre. lisant ce livre avec intérêt, je retrouvais des arguments satisfaisant, confirmant que la raison était une production humaine et qu’elle résultait de ce qui faisait la spécificité de l’être humain. Ainsi je pouvais lire : « Je dis que la raison en tant que tel est langagière, d’une part : immanente, dans le sens qu’il est impossible de la trouver en dehors de jeux de langage concrets et d’institutions concrètes et qu’elle est : en même temps transcendante, dans le sens qu’elle est une idée régulatrice en fonction de laquelle nous nous orientons lorsque nous critiquons nos activités et nos institutions. Nous retrouvons-là l’articulation entre une philosophie des concepts et une philosophie des préceptes. » Avec cette citation on vérifie que Putnam parle de la raison qui guide notre réflexion, tout autant dans notre vie quotidienne et banale que la raison qui oriente notre raisonnement face à une énigme scientifique. C’est aussi cette raison qui est en jeu quand on dit : « Il n’y a pas de raison que cela soit ainsi… il est déraisonnable de considérer la chose sous cet angle… et c’est aussi la raison de l’expression : « c’est la raison du plus fort qui est toujours la meilleure. » fin pour mesurer l’importance de ce que ce mot véhicule de signification pour nous humains, il suffit d’évoquer les travaux de E. Kant sur la : ‘critique de la raison pure’, et la : ‘critique de la raison pratique’.

Ce qui s’affirme dans le livre, pour conforter l’idée d’une impossible naturalisation de la raison, c’est une critique sans concession au réalisme métaphysique et au naturalisme philosophique. Le réalisme métaphysique, en tant que métaphysique, c’est une croyance que l’on conçoit comme étant a priori dans l’ordre des choses et la pensée de celui qui est croyant est organisée en fonction de celle-ci (voir par exemple la métaphysique platonicienne). Le naturalisme philosophique c’est plutôt un choix qui se fait à postériori car il est ce qui offre la meilleure cohérence à des convictions-intuitions qui précèdent. Le naturalisme philosophique est argumenté par celle ou celui qui intellectuellement conçoit qu’il n’y a pas d’autre réalité que la nature.

Avec la lecture du livre de H. Putnam, je rencontrai de la concordance pleine et entière avec l’idée qu’il n’était pas possible de naturaliser la raison, et au fond de moi j’étais rassuré au point que je me suis demandé pourquoi a contrario l’idée d’une validité éventuelle de l’hypothèse inverse m’inquiétait d’une façon si troublante[1]. Est-ce que cela aurait remis en cause le corpus de mes convictions, le socle de ma métaphysique ? J’étais donc obligé d’aller découvrir le front d’opposition sur lequel H. Putnam avait justifié sa thèse c’est-à-dire le Naturalisme philosophique.

Le naturalisme en tant que philosophie date de l’Antiquité mais nous allons nous concentrer sur sa version contemporaine dont il semblerait que ce soit Baruch Spinoza qui en fut le précurseur. L’animateur principal de cette philosophie au cours du XXe siècle est W.V.O. Quine (1908-2000) et il est responsable de la prééminence actuelle du naturalisme chez les philosophes anglo-saxons. Le naturalisme philosophique considère qu’aucun événement dans le monde ne peut être causé par quelque chose qui se trouverait en dehors du monde naturel. Le naturalisme soutient qu’il n’existe rien en dehors de la nature (sic) et les sciences de la nature sont les seules voies d’accès à la connaissance authentique. En conséquence l’homme est une production de la nature (ce qui en partie correspond à ce que je désigne comme étant une composante de l’être humain : l’être de la nature) qui n’a pas d’autre justification que les causes naturelles qui l’ont amené à l’existence. On comprend donc que Charles Darwin fut un inspirateur des naturalistes mais j’ai la conviction qu’il est surinterprété à mauvais escient.

L’adhésion aux travaux de Darwin et leur exploitation les conduisent à affirmer que toutes les formes organisées de la vie, jusqu’aux plus élevées (par ex : celle relative au fonctionnement cérébral) sont issues de la matière non vivante par un processus mécanique aveugle (sic) de transformation et d’organisation de cette matière (jusque-là on peut accepter cette thèse). Ce qui à mon sens pose problème, ce sont les extrapolations et donc les conséquences qu’ils en tirent :

Ils remettent en cause la validité du point de vue que nous offre l’introspection ;

Ils rejettent la possibilité d’un point de vue transcendant sur le monde.

Avec les naturalistes il se trouve que mon hypothèse de l’être dans la nature qui constitue mon autre versant de l’être humain, n’a pas droit de cité car selon eux l’être humain ne peut être qu’au ras de la nature. L’être humain, le physicien, ne peut se situer en surplomb de la nature. On verra un peu plus loin jusqu’où nous conduit ce type d’extrapolation.

Ce qui est dommage, c’est que l’optimisme scientifique qui est inhérent au naturalisme philosophique mène jusqu’au réductionnisme absolu, c’est exactement ce à quoi s’oppose H. Putnam, en réfutant l’idée que la raison puisse être expliquée comme une propriété de la nature et avoir sa source dans la nature. Mais instruisons-nous plus encore de ce qui constitue le corpus du naturalisme (voir Wikipédia). Il est écrit que l’homme et l’univers entier sont susceptibles, en principe, d’être expliqués par les sciences de la nature (sic). Il est soutenu qu’il n’y a pas de limite a priori à l’explication scientifique. Même s’il existe de fait des limites au développement scientifique à une époque donnée, rien n’exclut que la nature soit entièrement intelligible et il n’y a pas de limitations définitives à l’extension des connaissances scientifiques.

Le fait qu’il est écrit entre autres que l’homme est susceptible d’être expliqué par les sciences de la nature conduit à des redoutables conclusions, celles-ci ayant trait à l’émergence, dans les années 1950, de la philosophie de l’esprit : théorie de l’identité esprit-cerveau. Elle prétend que les neurosciences peuvent nous permettre de comprendre en quoi certaines structures et certains processus neurophysiologiques du cerveau s’apparentent pour nous à une vie mentale. On peut considérer que la plupart des neuroscientifiques adhèrent explicitement ou tacitement à la théorie de l’idée de l’esprit-cerveau (J.P. Changeux, A. Damasio, S. Dehaene…) A propos de Changeux, c’est certain mais en ce qui concerne Dehaene ce n’est pas le cas, contrairement à Changeux il n’a jamais exprimé qu’il partageait l’idée de l’identité esprit-cerveau. Le réductionnisme de cette théorie n’est pas accepté, non plus, par Putnam puisqu’il exclut que la raison puisse avoir une source naturelle, celle-ci est fondée par le ‘sujet pensant’ : ‘l’être dans la nature’, preuve qu’il est doté de capacités propres qui ne peuvent être réduites au prisme des propriétés de la nature.

J’aurai pu me satisfaire de la convergence que je rencontrai avec H. Putnam et donc, rassuré, satisfait, passer à autre chose. En fait un an après je revins sur ce livre (longue période de décantation !) et je me rendis compte que je devais connaître ce que signifiait vraiment le naturalisme philosophique. Ce qui est certain c’est que cela a consolidé mon hypothèse : Être de la Nature/Être dans la Nature. Cela peut paraître étonnant et je m’en étonne moi-même, mais c’est généralement dans l’épreuve de la confrontation que l’on acquière encore plus de certitude à propos d’hypothèses proposées. Ici, avec le naturalisme philosophique qui conduit, par exemple, jusqu’au réductionnisme de l’esprit-cerveau, il y a matière à développer des arguments qui expliquent pourquoi on peut s’insurger contre ce type d’extrapolation.

Réduire la faculté humaine, à produire et mener de la pensée interrogative à propos de ce à quoi est constitué la Nature, à une propriété de la Nature elle-même, est aberrant. C’est plus du dogmatisme que de la réflexion. Il est vrai que l’on doit s’étonner et s’interroger sur ce qui est en jeu avec le processus intellectuel de l’être humain et ce qui avec la sélection naturelle a favorisé l’émergence de cette faculté propre à l’homme au stade le plus élevé. Ne pas pouvoir décrire in fine ce à quoi cela correspond, n’interdit pas le fait que nous puissions comprendre le cheminement du processus de son éclosion et de son développement, à ce titre la paléoanthropologie nous offre de plus en plus des ressources d’études remarquables. D’un autre côté, l’imagerie cérébrale nous permet aussi d’ausculter et de découvrir certains critères de fonctionnement et de dysfonctionnement de notre cerveau mais ne nous autorise pas, pour autant, à formuler le postulat aberrant : lorsque l’on observe le fonctionnement du cerveau on voit l’esprit en activité.

Le 21/06/2016, j’ai posté l’article : ‘Evolutions des connaissances ; évolutions de l’humanité’, qui rend compte de l’intérêt d’une coopération entre les physiciens (au moins les théoriciens) et des paléoanthropologues, celle-ci serait très valablement enrichie grâce à une coopération avec les spécialistes de l’imagerie cérébrale. Le débat intérieur que j’ai connu grâce à la lecture du livre de H. Putnam conforte évidemment cette proposition. Le décloisonnement que je propose est certainement le moyen d’ouvrir la voie vers une meilleure compréhension de la place du sujet pensant qui cogite les lois de la nature ainsi que l’implication de l’état de sa singularité actuelle (parce que ses compétences intellectuelles ne peuvent qu’évoluer dans le futur) qui favorise ou obstrue la découverte des propriétés de la nature.

 

[1] Si on souhaite disposer d’une démonstration supplémentaire que la raison est un propre de l’homme, découvrir le livre de B. Saint Sernin : ‘La raison au XXe siècle’, au Seuil, 1995. Dans ce livre, il n’y a pas d’élucidation de la raison qui ne débouche sur la question de l’homme. Est restitué dans toute son amplitude les formes et les évolutions de la raison au XXe siècle, à travers les sciences exactes et humaines, l’épistémologie, le problème du mal et le totalitarisme concentrationnaire. Comme la vie, la raison a une histoire.

Partager cet article
Repost0
27 janvier 2017 5 27 /01 /janvier /2017 12:11

Dieu est-il mathématicien ?

Le questionnement en titre de cet article, comme je l’ai souvent exprimé, n’est pas banal, n’est pas marginal, de fait il est central. Suivant la réponse que les physiciens formulent à l’égard de cette question dépend non seulement la représentation qu’ils développent du monde physique mais aussi de facto elle détermine le rôle et la place de l’être réflexif qui cogite ce monde. Cette problématique que je souhaite présenter concerne principalement les physiciens théoriciens, qu’ils soient à l’origine des mathématiciens ou non, mais pas uniquement car en général, que ce soit consciemment ou inconsciemment, la réponse suscité par ce questionnement oriente la façon d’aborder les problèmes de physique dès qu’ils s’insèrent dans un modèle de représentation préétabli.

‘Dieu est-il mathématicien ?’ est le titre d’un livre qui vient d’être publié : édit. O. Jacob, auteur ‘Mario Livio’, qui m’offre donc un excellente occasion pour traiter ce sujet. Lorsque Cédric Villani déclare : « les mathématiques sont le squelette du monde, la physique en est la chair. », apparemment il peut y avoir consensus à propos de cette affirmation mais son interprétation sera multiple. Effectivement, comme on le verra plus loin, le physicien, sous l’influence de la métaphysique platonicienne, l’interprétera suivant un certain schéma fidèle à l’idée qu’un ordre mathématique (le squelette) préexiste dans le monde. Pour les non platoniciens, ce qui conduit à la connaissance du monde c’est l’appréhension, l’observation, des contours de la chair du monde et concomitamment l’invention des outils mathématiques qui consolident et structure intellectuellement les observations et conduisent à formuler des prédictions.

Voici à grands traits ce qui constitue un clivage significatif entre les platoniciens croyants et les non croyants. On peut me répliquer que ceci n’a pas d’importance car c’est le résultat qui compte. Mais en fait, il n’y a jamais de résultat qui boucle sur un savoir complet, final, au contraire le plus souvent il provoque un questionnement nouveau, conduit à des hypothèses nouvelles, a des extrapolations divergentes, à coup sûr, suivant des croyances préalables. Il suffit de prendre en considération des exemples multiples en mécanique quantique après 100 années de développement de cette mécanique. Je cite une réplique illustrative de S. Hawking a R. Penrose dans le livre : ‘Les deux infinis et l’esprit humain’, collection Flammarion, (2003) p.189, dans le chapitre ‘Les objections d’un réductionniste sans vergogne’ : « R. Penrose et moi avons travaillé ensemble sur la structure de l’espace-temps à grande échelle, y compris les singularités et les trous noirs. Nous sommes bien d’accord sur la théorie classique de la relativité générale, mais des désaccords ont commencé à émerger quand nous sommes passés à la gravitation quantique. Nous suivons à présent des voies différentes vers la compréhension du monde, physique et mental. Il est fondamentalement un platonicien qui croit en un monde unique des idées qui décrivent une réalité physique unique. Moi, au contraire, je suis un positiviste qui croit que les théories physiques ne sont que des modèles mathématiques que nous construisons et qu’il n’y a pas de sens à demander si elles correspondent à la réalité, mais seulement si elles prédisent les observations (sic).»

Pour le platonicien, l’être réflexif est passif, c’est un contemplateur, un découvreur de ce qui préexiste, un chercheur qui doit écouter la nature elle-même, et par la réminiscence il lui faut retrouver les ‘Idées’ comme le préconisait déjà Galilée en son temps : « Moi je vous dis que si quelqu’un ne sait pas la vérité de par lui-même, il est impossible qu’un autre le lui fasse connaître. » P. Dirac, le théoricien découvreur de l’antiélectron a fait, intellectuellement et avec certitude, surgir cette nouvelle particule de la pointe de son crayon parce que les équations qu’il mettait en évidence révélaient des propriétés de symétries, comme il le disait là où je constate de l’harmonie, de la beauté, j’atteins la vérité de la Nature. Pour illustrer et comprendre ce propos, il suffit simplement de regarder l’image d’un flocon de neige au microscope. Morale de l’histoire, trois années après la prédiction de P. Dirac, l’antiélectron a effectivement été observé (1932) et c’est le nouveau paysage d’une très grande ampleur, celui de l’antimatière, qui se dévoile à la sagacité des physiciens.

Découvreur ou inventeur ? : tel est le clivage fondamental qu’a identifié l’auteur du livre, dès le premier chapitre. Je préconise la lecture de ce livre car il est le plus exhaustif possible quand on traite ce type de sujet (puisqu’on passe en revue 25 siècles de réflexions) et l’auteur n’a pas la volonté d’imposer son point de vue, au contraire, il nous donne les moyens d’avoir un point de vue propre lorsque l’on referme le livre.

Je cite : « Pour les platoniciens, il existe une réalité mathématique distincte de la nôtre. Pour les constructivistes, les mathématiques progressent et évoluent en fonction de nos besoins, cela résulte de l’émergence d’Homo mathématicus façonné par l’évolution et capable d’appréhender le ‘réel’ avec des outils mathématiques de plus en plus sophistiqués. » voir mon article du 27/08/2014 : ‘Un authentique Big-Bang’

Etant donné l’efficacité apparente des mathématiques, il est légitime de se demander : « Les mathématiques sont-elles totalement indépendantes de l’esprit humain ? Ont-elles une existence autonome ? Ou sont-elles une invention humaine ? »

D’emblée, j’indique que je mettrais plutôt en exergue les arguments qui correspondent à ma conviction qui est celle des non platoniciens. Ceux qui ont la pratique de lire mes articles savent que je place au centre du processus de la conception du savoir en physique le ‘sujet pensant’ qui doit sans cesse différencier et faire évoluer ce qui est de l’ordre de ‘l’être de la nature’ de ce qui est de l’ordre de ‘l’être dans la nature’, c’est la condition de l’existence et le propre de l’évolution de ‘l’être humain’. Aucune transcendance ni aucune immanence n’offrent un coup de pouce à cette nécessaire dynamique.

Je cite volontiers Sir Michael Atiyah, (que l’auteur me fait découvrir et qualifié comme l’un des plus grands mathématiciens du XXe siècle), médaille Fields 1966 et prix Abel 2004, « L’homme a créé les mathématiques en idéalisant les éléments du monde physique… les mathématiques sont une partie naturelle de l’humain. Elles émanent de nos corps, de nos cerveaux et de notre expérience quotidienne… Si l’on envisage le cerveau du point de vue de l’évolution (sic), alors le mystérieux succès des mathématiques dans l’explication du monde naturel s’explique en grande partie. Le cerveau a évolué en fonction du monde physique (sic), et il n’est nullement étonnant qu’il ait développé un langage, et des mathématiques, bien adaptés à ce but… Les mathématiques, qui émergent d’un esprit incorporé, sont ainsi un système de concepts qui fait un usage extraordinaire des outils ordinaires de la cognition humaine… Les êtres humains ont créé les mathématiques, et nous sommes responsables de leur bon usage et de leur extension. » voir article du 18/03/2015 : ‘Décrypter la physique comme science de l’interface de l’être humain et de la Nature’.

En Europe, la science physique moderne est née au XVIIe siècle à partir de l’affirmation que dieu était mathématicien. Durant ce siècle s’est opéré de façon péremptoire et absolue une identification du monde à un gigantesque complexe mathématique, dont la science aura désormais pour but de révéler l’agencement. Pour cette raison l’auteur nous précise que nous sommes maintenant dans le registre théologique et nous dit fort justement : « Plus fondamentalement, Galilée, Descartes et Newton ont changé la relation entre les mathématiques et les sciences. D’abord, la révolution scientifique de cette époque a encouragé les recherches mathématiques. Ensuite, les champs mathématiques abstraits, comme le calcul différentiel, sont devenus l’essence même des explications physiques. Finalement, la frontière entre les mathématiques et les sciences s’est brouillée au point de devenir indiscernable dans bien des domaines. Tout cela fait que les mathématiques ont suscité un enthousiasme comparable à celui qu’elles avaient généré dans la Grèce antique. Le monde s’ouvrait aux mathématiciens… »

Si, pour les trois fondateurs historiques de la science moderne, la réalité de dieu n’était pas sujet à un questionnement, il y avait entre eux plus que des nuances sur le rôle et la place qu’ils lui attribuaient. Pour Galilée et Newton, qui avaient une connaissance approfondie de la métaphysique platonicienne, leur Dieu n’était pas que le fondateur du monde pour ensuite se retirer sur son Aventin car selon Newton : il doit exister un agent non matériel qui « active » la nature, une « quantité de présence » indéfectible et à ce titre l’espace absolu est le sensorium (centre de toutes les sensations) de Dieu. Par contre, la philosophie de la nature mécaniste (chaîne de causalité) de Descartes peut s’interpréter jusqu’à nier l’existence de Dieu, puisque le fonctionnement de la mécanique du Monde suit les lois mathématiques nécessaires du mouvement et au mieux, Dieu serait le créateur d’un Univers qui, une fois l’œuvre faite peut se développer à sa guise, sans autre intervention divine. Pour Newton cela était une hérésie et il abhorrait cette conception mécaniste. Ce rejet ne fut pas sans conséquence pour lui puisqu’il préféra ne pas publier ses travaux, conçus autour de 1665 exploitant l’analyse cartésienne, qui équivalent au calcul différentiel et intégral que Leibniz publiera presque vingt ans plus tard, et ceci alimenta une polémique et des échanges de noms d’oiseaux, sur la base d’accusation de plagiat (déjà).

Culturellement, intellectuellement, à des degrés divers, nous sommes toujours imprégnés par cette problématique immanence/transcendance. A ce titre, je conseille l’article de Heinz Wismann dans le N°H.S. de Sciences et Avenir de janvier-février 2017, p.81, qui nous dit : « Autrement dit, le christianisme, grâce à sa conception duale de la nature de Dieu, à la fois transcendant et immanent (proclamée au concile de Nicée en 325 et rejetée par Newton (sic)) a ouvert l’espace d’un questionnement qui débouche sur la science moderne… C’est parce qu’il était profondément croyant que Galilée a été un grand scientifique. Les scientifiques peuvent parfaitement être athées, la science qu’ils pratiquent est d’inspiration chrétienne. »

Autant, comme on le vérifie, le clivage qu’a privilégié Mario Livio est approprié pour marquer la nécessité de comprendre combien l’antinomie conceptuelle création/découverte scientifique puise sa source déterminante dans des a priori métaphysique-philosophique. Toutefois, il n’est pas possible de tout rendre compte en fonction de cette simple binarité. Je rappelle pour exemple ce qui est écrit et aussi dit dans l’article (toujours de ‘Sciences et Avenir’ ci-dessus référencé) : ‘Les Mathématiques, ordre caché de la nature’, p.68. Cédric Villani déclare : « Les mathématiques sont le squelette du monde, la physique en est la chair. » Un platonicien (ce qui semble être le cas de Villani) a priori adhère à cette déclaration car disposant du squelette immanent il est plausible qu’on puisse après coup l’habiller de sa chaire mais un non platonicien peut aussi approuver ce dire sans aucune réticence. Les raisons qui conduisent à cette double adhésion sont le fait d’interprétations différentes. Le physicien est celui, qui par ces observations, prospecte à tâtons les contours accessibles de la chair du monde. Lorsqu’il pense avoir atteint un bon degré de détection de ces contours, il est classique qu’il s’efforce de les mettre en langage mathématique (soit en puisant dans l’existant, soit en le construisant.), c’est une voie de structuration dans un langage commun scientifique communicable entre paires. Cette structuration formelle peut être considérée comme l’esquisse d’un squelette voire plus, cela dépend de l’avancée de l’identification des contours. Ici les mathématiques ont un caractère utilitaire, on est clairement dans un processus d’invention.

La précipitation avec laquelle on plaque un formalisme mathématique alors que la chaire détectée est trop parcimonieuse peut-être aussi franchement néfaste car cela peut masquer une phénoménologie nouvelle et originale. C’est à mon sens ce qui est le cas en ce qui concerne les neutrinos. Forcer par analogie la thèse de leur oscillation et conséquemment leur attribué une masse d’inertie classique conduit, depuis plus de 30 ans, à bâtir un puzzle d’hypothèses qui éloigne d’une possible élucidation de ce que nous révèleraient plus authentiquement ces mystérieux neutrinos.

Dans l’article du 5/11/2016, j’ai eu la possibilité de vous présenter la conception et des résultats du travail de Carl Bender qui a mon sens n’est pas une réplique du binarisme platonicien/non platonicien. C. Bender nous explique : « J’utilise la physique pour générer des problèmes intéressants et ensuite j’utilise les mathématiques pour les résoudre… Mon approche est de comprendre ce qui se passe dans le monde réel – où nous vivons – en étudiant le monde (mathématique) complexe, qui inclut le monde (mathématique) réel comme un cas spécial…etc. »

Il y a aussi le grand physicien du XIXe siècle, J.C. Maxwell, qui nous délivre sa conception pragmatique de l’accès à la connaissance des lois de la nature : « Son œuvre consiste à s’appuyer sur une modélisation de la nature, c'est-à-dire de lancer sur la nature des filets – autrement dit des « modèles » - pour en attraper les secrets dont les mailles sont mathématiques, tout en sachant bien que ce sont là des artifices, en ce que ces modèles ne reflètent jamais fidèlement les mécanismes qu’ils servent à représenter ». Ainsi, Maxwell, par le maniement des artifices, entendait pénétrer plus avant dans l’intelligence de la nature et en formuler les lois fondamentales, qu’il pensait être sinon géométriques du moins structurales.

C’est donc une controverse tout autant métaphysique que philosophique qui perdure depuis au moins 25 siècles et cela, à n’en point douter, persévérera. On peut constater que cette controverse, si fructueuse, est présentée uniquement dans le contexte d’une culture occidentale et plus précisément européocentriste. Qu’en est-il, fondamentalement dans d’autres contextes culturels ? Je crois que nous ne disposons pas, à ce jour, d’études suffisamment développées pour pouvoir mener des réflexions comparatives d’une culture à une autre. C’est un manque évident, espérons qu’il pourra être comblé.

 

 

Partager cet article
Repost0
10 janvier 2017 2 10 /01 /janvier /2017 15:44

Ce que Carlo Rovelli a répondu.

Je me réfère à l’article du 10/12/2016 et plus spécifiquement au paragraphe qui commence par : « Ce que je voudrais dire à CR (Carlo Rovelli)… », puisque CR a répondu à mon interpellation, promptement, après que je lui ai envoyé un tiré à part avec ce commentaire préalable : « En premier lieu, je remercie Carlo qui formule avec clarté et force de sa conviction ses idées originales car cela oblige, quand on ne partage pas son point de vue, d’essayer de répondre avec une clarté et une force les plus équivalentes. »

Mon interpellation était suscitée par ce qu’il affirmait dans une interview de l’actuel N° hors-série de décembre-janvier de la revue ‘La Recherche’ : « Même si l’on ignore exactement comment cela se passe, je suis persuadé que le temps émerge parce qu’on n’a accès qu’à une vision partielle du monde qui nous entoure. » ; « Imaginons un système – nous-mêmes – qui interagit avec le reste du monde. Le temps émerge (distinction entre le futur et le passé) au moment où il y a interaction entre les systèmes. » ; « En fin de compte, je suis dans le camp de ceux non pas qui pense que le temps n’existe pas, mais qu’il n’est pas utile d’avoir du temps dans les équations fondamentales. »

Ci-joint, ce qu’il m’a fait parvenir en retour à cette interpellation :

Cher Philip,

« Je vous remercie de l’appréciation que vous aviez manifesté quant à mes paroles, et je voudrais vous répondre avec le plus de précision possible,, étant donné que nous sommes, dans les domaines dont vous parlez, à la limite de la physique et de la philosophie.
Quand vous dites « je n’utilise pas la notion de conscience, car c’est une notion trop subjective », je voudrais vous dire, que si l’on veut suivre un grand maître en la matière, Sir Roger Penrose, la conscience dans (sic) l’univers est la notion la plus objective qui soit.
C’est à partir d’elle que, selon nous, devrons être construits, aussi bien les concepts d’intelligence dans le monde, que la notion de temps.
En ce qui concerne le temps, nous avons probablement, encore là, un point de désaccord amical car je crois que la notion de temps a déjà reçu un sérieux choc, avec le concept de cohérence quantique entre deux particules éloignées, ce à quoi s’ajoute la relativité générale où Einstein avait démontré combien les notions de temps étaient justement très « relatifs ».
Voilà donc pourquoi, j’ai cru pouvoir dire, qu’il ne serait pas utile d’avoir le temps dans les équations fondamentales. »

Carlo Rovelli

Ces deux grands totems de la physique auxquels me renvoie Carlo, qui bien évidemment inspirent le respect, sont, entre autres, ceux qui ont contribué à me forger des convictions en physique mais pas obligatoirement dans leur sillage. Ce qui est certain, c’est qu’ils n’ont jamais considéré qu’ils constituaient des bornes à la pensée. En ce qui concerne R. Penrose mon désaccord est quasiment global et celui-ci se cristallise par le fait que Penrose est un fervent représentant d’une conception platonicienne du monde alors que je ne suis pas du tout touché par une quelconque lueur de la métaphysique platonicienne. Mais ici je me concentrerai sur l’analyse de cette certitude citée : « la conscience dans l’univers est la notion la plus objective qui soit » En ce qui concerne le thème du temps, je me suis assez souvent exprimé sur ce sujet et Carlo ne peut que connaître l’analyse critique qui a été mené par L. Smolin dans son livre : ‘La renaissance du temps’, notamment à propos de ce qu’il a identifié comme « l’image de l’univers bloc ». Ici encore, plus particulièrement, j’aurai une réponse-explication alternative à proposer au ‘mystérieux’ : « concept de cohérence quantique entre deux particules éloignées, ». Celle-ci est peut-être voisine à ce qui est sous-tendue dans la conjecture formulée en 2013 par Leonard Susskind et Juan Maldacena : « E.R. = E.P.R. »

Je souhaite mettre en évidence immédiatement ce qu’implique l’expression : « la conscience dans l’univers ». En effet, la préposition ‘dans’ met en évidence une ubiquité de ladite conscience, celle-ci n’ayant pas pour siège unique l’être humain. A travers cette expression on est obligé de comprendre que la doctrine platonicienne de l’immanence chère à R. Penrose est à l’œuvre. Immanence qui fut clairement explicitée par Galilée et Newton et raillée par Leibniz, etc...

Encore, à propos de la conscience dans l’univers qui est la notion la plus objective qui soit, comme nous le dit CR, voyons d’où cette affirmation, sans nuance, provient. Cela résulte des travaux en commun de Penrose et Hameroff (anesthésiste, biologiste) qui prétendent que la conscience est le résultat d’effets de la gravité quantique sur les microtubules dans les neurones du cerveau. En conséquence le processus quantique agissant : assure corrélation et régulation entre les synapses neuronaux et l’activité des membranes et il en résulte l’éveil de la conscience. En plus des principes quantiques intervenant dans le fonctionnement du cerveau, il faut ajouter une dépendance à la géométrie de l’espace-temps ce qui conduit les auteurs du résumé de leur article : ‘Conscience dans l’univers’, en 2014, d’écrire, dans ‘Physics of Life Reviews’ : « Il y a une connexion entre les processus biomoléculaires du cerveau et la structure basique de l’univers. »

En parcourant les publications et les débats sur ce sujet, on constate que cette thèse proposée depuis deux décennies est particulièrement controversée et CR devrait rigoureusement utiliser le conditionnel lorsqu’il fait référence à celle-ci. Citons, Philip Tetlow (professeur de la science du Web à l’université de Southampton), « bien que je sois un supporter des vues de Penrose, je reconnais que les idées de Penrose concernant le processus de la pensée humaine sont à présent minoritaires, (une poignée) dans les cercles scientifiques. »

A mon sens, il n’est pas possible d’exclure que l’être humain que nous sommes dans notre temps présent soit le fruit d’interactions multiples dans le temps avec ce que l’on reconnait comme étant de l’ordre de la Nature. Les paléoanthropologues apportent de plus en plus, et, de mieux en mieux, des preuves que nous sommes le fruit d’une évolution qui s’est engagé depuis une profondeur du temps, difficile voire impossible à fixer, (voir dernier livre de P. Picq : ‘Premiers Hommes’ ainsi que le N° H.S. de ‘Pour la Science’, Janvier-Mars 2017, ‘Evolution, la saga de l’humain’). Justement la saga de l’humain est profondément déterminée par une lutte permanente contre les déterminations de la Nature. Ce qui caractérise l’être humain et son évolution…et donc sa survie, c’est sa faculté de progressivement s’émanciper des déterminations de la Nature depuis des millions d’années. Le processus d’émancipation consiste à transformer ces déterminations en autant de sujets de connaissances et in fine les attribuer à l’action de la Nature (Pensons à l’avancée intellectuelle, et donc à la libération provoquée, que constitue la découverte de la loi de gravitation qui, par exemple, permet de différencier la matière constitutive du corps et son poids). Plus cette émancipation progresse, plus l’être humain affirme le développement de sa spécificité à l’égard de tous les êtres vivants. Conjecturons que celle-ci n’est pas aboutie et augurons que cela jamais ne se produira (voir article de P. Picq : ‘Le roman des intelligences’, dans ‘Dossier pour la Science’ de Juillet-Septembre 2016). Je suis convaincu que notre dynamique intellectuelle à l’égard de la découverte des propriétés et des lois de la nature ne cesse de se renouveler grâce à cette volonté vitale d’émancipation qui nous habite. L’engouement actuel vis-à-vis de la compréhension de ce qui est identifié présentement comme représentant ‘Notre Univers’, au-delà du cercle des scientifiques dont c’est le métier, en est une belle illustration.

Il y a plusieurs raisons pour rejeter la thèse de Penrose, endossée par quelques disciples, mais ici, je n’en citerai qu’une seule pour proposer sa réfutation et elle est nourrie par ce que les paléoanthropologues, biologistes de l’évolution, généticiens, découvrent et nous communiquent actuellement. Penrose nous propose de facto une conception statique dans le temps de ce qui fait que l’être humain est ce qu’il est. Selon sa conception, l’être humain aurait eu des aptitudes intellectuelles toujours semblables depuis qu’il est sur terre, c’est évidemment à contrecourant de ce qui est dévoilé maintenant. Enfin, je suis toujours surpris quand les physiciens théoriciens cogitent à partir de l’idée que la connaissance scientifique que nous maitrisons soit celle qui correspond à un aboutissement, qu’elle est définitive et n’a rien de provisoire. Enfin que savons-nous effectivement de la gravité quantique ?

Atteindre autant que faire se peut la compréhension du fonctionnement de notre cerveau est une tâche récemment entreprise et qui est et sera passionnante. En quelques décennies des progrès ont déjà été constatés. La compréhension du phénomène de la conscience du sujet réflexif est une voie d’analyse et d’accès significative au fonctionnement cérébral. Ce qui est approprié aujourd’hui, c’est d’évoquer des états de conscience et non pas la conscience comme étant une donnée permanente. A ce titre je conseille de lire un article de Lionel Naccache dans le N° HS de Sciences et Avenir de Janvier/Février 2017 : ‘Le mystère des origines’, où l’auteur, p.70, nous dit qu’il a identifié la signature cérébrale de la prise de conscience, celle-ci ne relève pas d’une aire en particulier. Elle naît d’un échange entre de nombreux réseaux. Quand on demande à ce neurologue et chercheur au Centre de recherches de l’institut du cerveau et de la moelle épinière : « Il n’y a donc pas une aire de la conscience ? », il confirme : « Non ! Si l’éveil correspond bien à une région – précisément la zone réticulée du tronc cérébral – et si l’état de coma, lui, s’explique par une souffrance de ce même territoire, il en va autrement pour la conscience. La différence entre conscience et inconscience ne réside pas dans l’activation d’une aire ou d’une autre, mais dans un mode de fonctionnement, de communication, entre les régions. » Autre question : « Peut-on être plus ou moins conscient ? » La réponse est : « Nous sommes nombreux à penser qu’il n’y a pas de continuum (sic) entre l’absence totale de conscience et le premier signe de conscience. On peut être plus ou moins éveillé, mais on est conscient ou on ne l’est pas ! »

Je reviens maintenant sur ma promesse de réponse-explication à propos du « concept de cohérence quantique entre deux particules éloignées », ce que l’on appelle généralement la propriété d’intrication entre deux particules, qui peuvent être des atomes ou des molécules, jusqu’à des cristaux. Je me suis déjà amplement expliqué sur le sujet, je rappelle que mon hypothèse de TpS de l’ordre de 10-25s, rend compte du fait de l’existence d’un intervalle de temps aveugle de l’intelligence du ‘sujet pensant’. En conséquence, il ne peut être observateur d’événement, de phénomène, se produisant pendant une durée < TpS. Il ne peut donc pas fonder du temps sur une durée si courte, ce qui est le cas quand est concrètement réalisé une intrication.

Mon hypothèse peut être ou pourra être, dans un futur proche, expérimentalement vérifiée ou réfutée. TpS est invariant quel que soit le référentiel en mouvement dans lequel se trouve l’observateur, ce qui n’est pas le cas pour la réalisation de l’opération de l’intrication car celle-ci résulte d’un mécanisme et je suppose que celui-ci n’est pas parfaitement instantanée. Dans ce cas, l’intrication qui est réalisée entre deux objets quantiques dans un référentiel o et qui apparaît comme telle peut très bien n’être plus constatée dans un autre référentiel o’ en mouvement. Si le γ de Lorentz est suffisamment grand alors le ∆t’i = γ∆ti>TpS. Et l’intrication ne sera plus.

 

Partager cet article
Repost0
10 décembre 2016 6 10 /12 /décembre /2016 09:01

La physique serait une petite mais une cruciale fraction de notre réalité.

Ci-dessus, le titre de l’article publié sur le site du ‘NewScientist’ le 30/11/2016, article proposé par Richard Webb.

            Sous-titre : « Exactement quelle part de la science physique est réelle et quelle part de réalité est représentable par la science physique ? Ceci est le thème commun de 4 livres majeurs récemment publiés. » (Ce thème, les auteurs de ces livres : R. A. Muller, C. Rovelli, R. Penrose, H. Ch. Von Baeyer, ont été évoqués maintes fois dans les articles du Blog. Le fait que cela soit analysé ailleurs et par une autre personne est vraiment très important et très intéressant.).

            « Y a-t-il beaucoup de choses importantes concernant la réalité que la physique ne peut pas expliquer ? »

            La découverte de cet article m’a immédiatement interpelé avec ces questions : « Comment avoir une connaissance du dénominateur de cette fraction de notre réalité ? » ; « Qui peut prétendre avoir cette connaissance ? » ; « De quelle métaphysique cela rend compte ? »

            De cet article, je vais citer les parties les plus importantes qui contribuent à la réflexion sur ce sujet. Le texte original est collé à la fin du présent article.

            « Les 5 dernières années écoulées ont donné lieu à 3 grandes avancées expérimentales : les découvertes du boson de Higgs et les ondes gravitationnelles, ainsi que les mesures méticuleuses du fond diffus cosmologique du satellite Planck. Mais celles-ci ont servi à confirmer les figures existantes de la réalité (sic) : le modèle standard de la physique des particules basé sur la théorie quantique des champs, et le modèle standard de la cosmologie qui rend compte d’un univers avec big bang tel que la théorie de relativité générale le programme. » ; « Ces résultats sont flatteurs mais aussi déprimants. »

            « Les déficiences de ces 2 théories sont évidentes. Non seulement chacune d’elles se contredisent, mais elles contredisent comment nous sentons la réalité devant se comporter

« Le point de départ de la réflexion de Muller est le temps, (A cet égard, voir l’article du 5/10/2016 : ‘Now’), qui constitue certainement le concept le plus notoire pour révéler la divergence le plus aigüe entre notre perception de la réalité et la description donnée par nos théories physiques. La relativité kidnappe la réalité du flux du temps qui sépare nettement le passé du futur. Il dénie l’existence de n’importe quel surplomb (sic) spécifique duquel nous pouvons mesurer (appréhender) le passage du temps. » (C’est exactement à cet endroit, signalé par R. Webb ci-avant, que, selon mon point de vue, se trouve la source de l’erreur cruciale du traitement physique du temps. L’erreur est caractérisée dans l’affirmation d’Einstein : « Ce qui du point de vue est réel… est constitué de coïncidences spatio-temporelles. Et rien d’autres (sic) », en 1915, lettre à Ehrenfest. Si on décline cette affirmation en analysant les lois de la Relativité Restreinte (RR) et en restituant leur essence première et donc en entreprenant la correction nécessaire on établit un surplomb : ‘l’Instant Présent[1] avec une valeur de l’ordre de 10-25s, duquel nous pouvons mesurer le passage du temps.)

« Comment une théorie physique peut prédire des choses si étranges à notre expérience ? Avec les mots de Muller, la physique devrait expliquer ce que nous voyons en réalité, non pas la contredire. »

Ensuite l’auteur de l’article présente d’une façon succincte la théorie de la gravité quantique à boucle proposée par C. Rovelli et essaie d’indiquer quelle est son effectivité pour décrire une part de réalité :

« Certainement dans un certain sens, le style facile, lisible, de Rovelli, jette de la poudre aux yeux (voir articles du 28/02 et du 28/07/2015). Vous serez donc pardonné si vous concluez qu’une si bonne théorie doit exister et qu’en conséquence sa vérification expérimentale devrait être au coin de la rue. Serait-ce si simple ? » La réponse à une telle question est évidente car la gravité quantique à boucle est une théorie à l’échelle de Planck, donc radicalement inaccessible et ses fondements ne peuvent être observés directement...pas plus indirectement. Pas plus qu’elle ne peut contribuer à mieux comprendre la réalité. Mais à ce niveau il faut relativiser car si on prend en compte par exemple la mécanique quantique on ne peut pas dire non plus qu’elle contribue à une meilleure compréhension de la réalité alors que grâce aux fondements qui constituent la base du corpus de cette science et son enrichissement depuis un siècle nous savons pourtant produire des laser, des ordinateurs, etc…

En troisième lieu, R. Webb fait référence à la thèse que l’on nomme le QBism, et cite le dernier livre : ‘QBism’, publié sur ce sujet dont l’auteur est Hans Ch. von Baeyer. Il rappelle, à juste raison, qu’avec la thèse du QBism la théorie quantique devient non pas une théorie de ce qui est observé, mais une théorie de l’observateur (voir articles du 2/11/2012 et du 11/01/2014). Cette théorie de l’observateur met en jeu la conscience de l’observateur, c’est-à-dire sa présence qui participe à la réception des données de l’observation et en conséquence à leur perception et à leur analyse. J’ai déjà eu l’occasion d’exprimer dans de nombreux articles à partir d’un article générique du 21/12/2011 : ‘L’être humain est-il nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la Nature ?’, qu’on devait effectivement prendre en compte, même en science physique, la position ineffaçable du ‘sujet pensant’, de l’‘être réflexif’ pour accéder à une juste compréhension des données. Toutefois, j’ai une profonde divergence avec les QBistes car ils privilégient la conscience du ‘sujet pensant’, ce que je nomme une petite ‘présence’ avec un p minuscule perpétuellement fluctuante et donc indéfinissable, alors que je me réfère à la ‘Présence’ avec un p majuscule. Cette ‘Présence’ est immuable et s’est érigée avec/depuis qu’une première lueur d’intelligence humaine a entrepris de percer (décrypter) les lois de la Nature pour survivre et partant exister progressivement en tant qu’être à part dans celle-ci.

En quatrième lieu, R. Webb cite R. Penrose et son dernier livre que j’ai déjà abordé dans l’article du 15/10/2016. Webb met en exergue l’aptitude de Penrose à nous donner un aperçu profond de la relation entre la réalité et les idées en mécanique quantique, en cosmologie standard, et les théories qui prétendent les remplacer. Cela n’est pas dit mais n’oublions pas que Penrose est un invétéré platonicien.

En conclusion ce que dit l’auteur : « Si on considère que la physique décrit la part de réalité qui est susceptible d’être mathématisée alors le théorème de Gödel nous rappelle l’impossibilité d’accéder à une description complète. Sans nul doute la physique est importante mais il se pourrait qu’il y ait une part plus importante de la réalité qui ne serait pas accessible à la physique. »

Avant de proposer ma propre conclusion sur ce sujet, je souhaite signaler ce que disent R. Penrose (RP) et C. Rovelli (CR) à propos du temps car il se trouve qu’il y ait eu début décembre un numéro Hors-Série de ‘La Recherche’ sur le thème du ‘Temps’.

RP : « Pour moi, le temps est celui de la relativité générale d’Einstein, autrement dit c’est l’une des quatre dimensions de l’espace-temps. Je considère que la relativité générale est une théorie magnifique. »

RP : « Seulement, la R.G. n’explique pas notre sensation de la progression du temps, il passe, il s’écoule. De la R.G. nous pouvons tirer l’image de l’« univers-bloc », un univers quadridimensionnel statique (sic) qui englobe passé, présent et futur, sans écoulement. » ; « En R.R. il est impossible de définir une notion de simultanéité. » ; « Notre sensation du temps qui passe n’est pas inconsistante avec la relativité. C’est juste qu’elle n’est pas expliquée (sic) par cette théorie. »

CR : « Même si l’on ignore exactement comment cela se passe, je suis persuadé que le temps émerge parce qu’on n’a accès qu’à une vision partielle du monde qui nous entoure. » ; « Imaginons un système – nous-mêmes – qui interagit avec le reste du monde. Le temps émerge (distinction entre le futur et le passé) au moment où il y a interaction entre les systèmes. » ; « En fin de compte, je suis dans le camp de ceux non pas qui pense que le temps n’existe pas, mais qu’il n’est pas utile d’avoir du temps dans les équations fondamentales. »

Ce que je voudrais dire à CR c’est que « nous-mêmes », nous ne sommes pas simplement un système mais nous sommes ‘le système’ interagissant avec le reste du monde (monde en dehors de nous) et nous sommes les seuls au monde à avoir l’intelligence de cette interaction. Le temps que nous fondons, est en conséquence le symptôme de cette intelligence, il est le substrat fondamental à partir duquel l’être humain développe son aptitude à produire un discours (entre autres scientifique), toujours en évolution, sur le reste du monde. Tous les autres systèmes interagissant produisent ce que nous appelons un temps propre : leur temps propre, et nous sommes en capacité de les identifier parce que nous les supervisons en les rapportant à notre propre temps. D’un point de vue hiérarchique, notre temps propre doit être compris comme étant le temps de notre faculté de raisonnement, de l’ordonnancement de nos connaissances sur le reste du monde. Tous les autres temps identifiés et dans le futur : identifiables, sont des temps rapportés, subordonnés. De plus, il ne faut pas considérer que nos connaissances sur le reste du monde coïncident avec ce qu’est effectivement le reste du monde, c’est le tâche permanente du physicien de faire que la coïncidence soit de plus en plus grande, de plus en plus parfaite, sans avoir l’illusion que l’aboutissement est pour demain.   

Ma métaphysique se résume ainsi : « Au sein d’une éternité parmi tous les possibles l’anthrôpos ne cesse de creuser sa connaissance de l’Univers. » Comme le souhaite CR, nous pourrons nous émanciper de toute temporalité lorsque nous atteindrons la connaissance de tous les possibles et alors nous serons à la porte d’entrée de l’éternité. Nous avons donc bien du temps devant nous et en aucun cas nous ne pouvons anticiper le pas.

Uniquement sur la problématique du temps on voit deux physiciens réalistes CR et RP à l’œuvre nous affirmer : ce que constate, ce qu’éprouve intellectuellement l’être humain est secondaire parce que ce sont les équations physiques seules qui disent la réalité. C’est exactement ce que nous dit RP à propos du temps de la RG et de la RR, alors que l’image de l’« univers-bloc » est pur artefact et joue le rôle d’un véritable trou noir de notre pensée à propos du temps. A cet égard L. Smolin a réalisé une analyse critique très approfondie de cet univers bloc dans son livre ‘La renaissance du temps’, voir aussi article du blog du 03/06/2016. Pour les physiciens réalistes, c’est une constante, un monde réel existe sans l’être humain en conséquence une bonne description physique de ce monde est celle qui de facto efface la ‘Présence’ de l’être humain.

Les réalistes se trompent, je considère que ce que les réalistes croient être la réalité n’est rien d’autre que notre réalité, celle que nous avons travaillé et donc filtré, c’est-à-dire que nous accédons in fine à un ‘apparaître’ de la réalité, c’est-à-dire la réalité que nous savons mettre en relief et qui résulte de nos capacités (qui sont heureusement évolutives) de compréhension de notre interaction avec le monde qui est en dehors de nous. Cette réalité-là n’est pas banale car les contraintes auxquelles doivent satisfaire les connaissances en physique sont très fortes (par exemple le rapport entre théorie et expérience, observation). Le fait que sans la satisfaction à ces contraintes aucune théorie, ni aucune loi ne peuvent être intégrées dans le corpus de la connaissance en physique constitue déjà un critère de sélection redoutable. Mais je considère qu’à travers ce processus, ce que nous mettons en évidence ce sont des vérités, provisoires, locales, partagées, plus que des aspects de la réalité. A mes yeux, avec le statut de vérité provisoire partagée, en évolution, nous nous octroyons une liberté intellectuelle essentielle car nous maintenons dans la perspective de notre regard intelligent un horizon de potentialités qui ne peuvent que nous animer et aussi nous prévenir des contradictions et des impasses obscurcissant.

Prenons l’exemple suivant : dans l’article de ‘La Recherche’, RP affirme : « Les nombres complexes sont déjà un élément central en mécanique quantique mais, étant donné la puissance de l’analyse complexe, je sentais que les nombres complexes devaient avoir également un rôle dans la description fondamentale (sic) de la nature… » D’un autre côté C. Bender nous dit : « Mon approche est de comprendre ce qui se passe dans le monde réel – où nous vivons – en étudiant le monde complexe, qui inclue le monde réel comme cas spécial. Tout ce que les physiciens observe est sur l’axe des réels. Mais l’axe des réels est juste une ligne dans le plan infini des nombres complexes. Le plan complexe nous permet de comprendre ce qui se passe dans le monde réel. » Voir l’article du 5/11/2016. De même dans l’article du 17/06/2015, je rapporte que des physiciens australiens ayant pu, pour la première fois, évaluer que l’effet tunnel s’opérait effectivement en 10-18s alors ils ont pu substituer, dans les équations correspondantes, le temps imaginaire usuel par le temps réel. Le temps imaginaire signifiait le temps de notre ignorance qui est maintenant tout récemment levé.

L’absence d’horizon de potentialités qui inhibe les élans de notre pensée scientifique se retrouve dans le titre et les sous-titres de l’article. Quand il est demandé : « How much of physics is real ? » et « How much of reality is physics ? », on doit se demander qu’est-ce qui justifie que l’on puisse s’interroger en terme quantitatif sur ce qui serait définitivement réel. Quel sens cela a de penser la réalité comme une étendue avec une frontière repérable ? Quelle est cette conception statique et limitée qui transparait à travers ce type de questionnement ? Quelle est cette fatigue voire cette paresse intellectuelle que cela met en évidence ?

Enfin, la question suivante : « Y a-t-il beaucoup de choses importantes à propos de la réalité que la physique ne peut pas expliquer ? », mérite comme réponse : « Quel sens cela a de se demander ce que la physique ne saurait présentement cerner, expliquer ? » La pensée en physique est en mouvement perpétuel, elle ne peut prétendre accéder à la réalité, par contre cela est son leitmotiv. La réalité galiléenne a été chamboulée par la réalité newtonienne qui le fut par la réalité einsteinienne et pourquoi cela devrait s’arrêter. Il n’y a en fait que des réalités provisoires qui ne sont de fait que des croyances qui se succèdent.

Physics may be a small but crucial fraction of our reality

Just how much of physics is real, and how much of reality is physics? That’s a theme uniting four major new books in the field

Are there many important things about reality physics can’t explain?

David Maurice Smith/Oculi/Agence VU/Camera Press

By Richard Webb

“WHAT fraction of what you know that is important is physics?” Richard A. Muller strikes an unexpected note with this question towards the end of his book Now. A veteran of particle physics and cosmology behind at least two Nobel-prizewinning strands of research, Muller isn’t pouring cold water on an entire discipline. But he is addressing a theme that, one way or another, exercises him and the authors of three other major new books: how much of physics is real, and how much of reality is physics?

There’s reason enough for the navel-gazing. In one sense fundamental physics is flowering like never before. In another, it is in one of its deepest funks. The past five years have seen three great experimental advances: the discoveries of the Higgs boson and gravitational waves, as well as the Planck satellite’s meticulous measurements of the cosmic microwave background. But all have served to confirm existing pictures of reality: the standard model of particle physics based on quantum field theory, and the standard cosmological model of a big bang universe rooted in Einstein’s theory of gravity, the general theory of relativity.

Yet the deficiencies of those two theories are obvious. Not only do they contradict each other, they contradict how we feel reality should behave. Can we do better?

Muller’s starting point is time, the most obvious place where our perception of reality and the description given by our physical theories diverge. Relativity robbed reality of a flowing time that neatly separates past from future. It denies the existence of any privileged spot from which we can measure time’s passage.

How can a physical theory predict things so at odds with our experience? In Muller’s words, physics should explain what we see in reality, not contradict it.

His is a thoughtful, thought-provoking and accessible book that blends concepts from relativity, thermodynamics and quantum theory to elucidate how physics got where it is, and the missteps that might have led it there. It is less about the destination, more about the journey. Muller’s big reveal – that new time might be continuously created in the aftermath of a 4D big bang – may or may not stand up to scrutiny, as he freely admits.“In one sense fundamental physics is flowering like never before; in another, it is in one of its deep funks”

Something similar could be said of Carlo Rovelli’s pet idea. Author of last year’s bestseller Seven Brief Lessons on Physics, Rovelli is a leading light in loop quantum gravity, a theoretical endeavour which, after string theory, is the second most popular route to reconciling quantum theory and general relativity.

As such he is part of an honourable tradition among physicists of seeking a better understanding of reality through the unification of physical theories. Bouts of unification have spurred on progress in physics ever since the 17th century when Newton married heavenly and Earthly movements in his laws of gravitation and motion. At each stage, new conceptual tools were introduced – particles, waves, fields – that, mathematically at least, help us to order and predict the world’s workings.

Each has required sometimes cherished preconceptions to be reconsidered. Loop quantum gravity is no exception. Again, you have to unpick space-time, the unified fabric of reality that Einstein’s relativity stitched together. At the infinitesimal level of the Planck scale, space becomes a pixelated, rough, quantum foam. That, incidentally, also supplies time with a new guise: the direction in which it flows emerges from the order in which processes happen on unobservably small scales within this foam.

As radical as this sounds, Rovelli makes a convincing argument that this is the conservative option compared with the extra dimensions, fields and particles demanded by string theory and its widely trailed precursor, supersymmetry. Newton, Einstein and co did not try to “guess” new theories, argues Rovelli, but built on what was known. Quantum theory and general relativity are “right” theories on their respective scales of the small and the large – the trick is to do as little damage to both while melding them into a unified whole.

In the best tradition of scientists writing popular science, Rovelli marries physical understanding with a light touch and a literary eye for incidental detail. Take the case of the Belgian priest-astronomer Georges Lemaître, who in 1951 successfully dissuaded Pope Pius XII from equating the big bang (Lemaître’s baby more than anyone’s) with the biblical act of creation in Catholic dogma. His argument was that it would be embarrassing should it turn out that the big bang wasn’t actually the beginning – an act of extraordinary foresight, given that contemporary ideas about the existence of a multiverse were decades away.

Quantum gravity

Yet in some senses Rovelli’s easy, readable style pulls the wool over our eyes. You could be forgiven for concluding that a working theory of loop quantum gravity as good as exists, and that experimental verification is around the corner. Would it were that simple.

And a blunter question emerges. Quantum gravity is unlikely to produce a more intuitive picture of reality than we have now, and its predictions will probably only kick in at energies so huge and distances so small it is hard to see how we might probe the theory experimentally or find a practical use for it. Never say never, of course, and knowledge for knowledge’s sake has its value – but in what sense is such a theory a useful guide to reality?

Let’s roll back a bit: if we’re making intuition the measure of a theory, where does that leave quantum theory? It’s given us lasers and computers, so on some level it is unquestionably useful – even if the old line that if you think you understand it, you haven’t understood it, is both true and has a fittingly fuzzy origin.

In his new book QBism, Hans Christian von Baeyer bangs the drum for a new “Quantum Bayesian” interpretation: the uncertainties that apparently haunt the quantum world before it is measured have little to do with reality being uncertain, and everything to do with us being uncertain about reality. In QBism, quantum theory becomes a theory not of the observed, but of the observer.

Von Baeyer does a passable job of setting out the stall, although his more narrowly focused book tends to get lost in the details at the expense of the big picture. But QBism remains a minority sport. Is that, to return to Muller’s critique, because of the inability of physicists to recognise or to accept the limits of their pretensions to describe reality?

“Ultimately physics only describes that part of reality that is susceptible to mathematics”

This theme is taken up by Roger Penrose in Fashion, Faith and Fantasy in the New Physics of the Universe – by far the least easy read of the four books, but one that gives us a valuable insight into what one of the most prominent theoretical physicists of recent times makes of reality’s relationship to ideas in quantum theory, standard cosmology, and theories that pretend to replace them.

So where does all this leave us? Ultimately, physics only describes the part of reality that is susceptible to mathematics – as Muller points out, not least because Kurt Gödel’s theorems of the 1930s made it clear that any mathematically based theory will always be incomplete. Efforts such as the push to a quantum theory of gravity may bring us to a more complete understanding, but it is likely our vista will remain blurred. No doubt physics is important, but it could be there is much that is important about reality that is not physics

 

           

 

[1] Mon concept d’’Instant Présent’ que je mets en exergue depuis une dizaine d’années a rencontré quelques cousins auxquels j’attribue un cousinage de genèse : le ‘Moment Présent’ de L. Smolin, mais sans valeur numérique attribué ; le ‘Temps Créatif’ de N. Gisin, mais sans évaluation numérique ; ultimement le ‘Now’ de R. A. Muller, qui à mon sens ne peut avoir le moindre lien de parenté avec les concepts précédents.

Partager cet article
Repost0
20 novembre 2016 7 20 /11 /novembre /2016 15:08

Cachée dans un secteur caché.

‘La matière noire serait cachée dans un secteur caché.’ : tel est le titre d’un article daté du 11/11/2016, dans phys.org, qui commente ainsi l’article original récemment publié dans le Physical Review Letters. Cet article relate les travaux de ‘cordistes’, que l’on désigne ainsi ceux qui travaillent sur la théorie des cordes et conséquemment sur la théorie des paysages.

Selon eux la matière noire est constituée de particules occupant l’un des multiples (une centaine) ‘secteurs cachés’ qui sont pensés exister (sic) en dehors du ‘secteur visible’ qui lui inclut entièrement notre monde visible. « Les secteurs cachés sont nommés ainsi parce que les particules de ces secteurs sont insensibles aux forces fortes et électrofaibles comme celles du secteur visible, ce qui réduit leur interaction avec le secteur visible. Ainsi les particules de secteurs cachés pourraient être tout autour de nous et nous n’avons aucun moyen de les détecter. » Alors que la publication de McGaugh, il y a quelques semaines, vient de fragiliser les fondements de la théorie de la matière noire, il se trouve que cet article apparaît pour sauver cette théorie avec un argument principal statuant qu’elle est vraie mais elle est pour nous absolument et définitivement invisible. Définitivement invisible ! pas tout à fait car selon eux il devrait exister une porte par laquelle on pourrait conjecturer une réalité de l’existence de la matière noire. Cette porte ils ne l’ont pas encore mise en évidence mais patience cela va venir ! Les auteurs de l’article montrent (sic) que les WIMPs pourraient théoriquement se désintégrer en une ou plusieurs particules plus légères d’un secteur caché qui pourraient encore se désintégrer en particules plus légères d’un autre secteur caché… Donc, ils en déduiraient que les WIMPs supersymétriques ne seraient pas de bons candidats de particules de matière noire parce qu’elles sont typiquement instables et il faudrait aller chercher dans d’autres secteurs cachés de particules qui seraient de meilleurs candidats pour la matière noire.

Je cite encore avant de me prononcer sur ce genre de fonctionnement, de conception, de la connaissance en physique, de sa dynamique et partant de son devenir : « Le paysage des cordes inclut un nombre très grand de théories possibles de modèle à basse énergie (le Modèle Standard des particules élémentaire constituant le Modèle connu de référence). Néanmoins nous avons trouvé que presque tous les paysages indiqueraient une instabilité certaine des WIMPs. Une telle conclusion signifie que si nous pensons sérieusement inclure notre univers visible dans une théorie des cordes nous devons considérer sérieusement la possibilité naturelle que la matière noire réside dans un secteur cachée… »

Ce qui est absurde, aberrant, avec ce type d’assertion, c’est qu’il est prétendu que les physiciens savent tout : même ce qui est définitivement inaccessible à leur connaissance. Je crains que ce soit le propre de beaucoup d’adeptes de la théorie des cordes qui, depuis le début l’avènement de cette théorie (années 1970), n’a jamais pu être soumise à une quelconque épreuve de vérification expérimentale. Elle est pure développement théorique mathématique – pourquoi pas – et à mes yeux ce qui est inquiétant c’est qu’elle prétend figer dans le marbre des mathématiques l’exclusion de tout autre alternative. Cela conduit à asphyxier toute velléité de faire émerger de nouveau(x) paradigme(s). Alors que l’attitude, à mon sens, la plus pertinente, étant donnée l’état de la recherche de la matière noire et conséquemment la valeur des travaux de McGaugh et Lelli, c’est de collectivement réfléchir en ces termes : bref nous sommes probablement sur une piste erronée, analysons sur des bases différentes la compréhension des dynamiques jusqu’à présent observées des différentes structures qui composent notre univers. De plus nous ne pouvons pas ignorer plus longtemps certains résultats obtenus par Milgrom, sans devoir pour autant opter, a priori, pour son postulat initial.

Il est sérieusement régressif de penser que l’être humain, ici le physicien, est doté aujourd’hui d’une capacité à penser aboutie et ainsi son aptitude à évoluer serait révolue. Il n’aurait plus à apprendre de ses tâtonnements, de ses erreurs. Ces cordistes sont-ils inconscients au point de considérer que ce qu’ils appellent les secteurs cachés réels, mais inobservables, ne sont rien d’autres que des domaines de connaissances non encore élucidés mais qui le seront parce que le propre de l’homme est d’accéder à une connaissance sans fin de nouveaux territoires de compréhension des lois de la nature. Ces cordistes qui véhiculent de tels concepts apparaissent comme des disciples de Freud et de Lacan avec leur théorie de l’inconscient mais la psychanalyse concerne un champ de recherche, certes très intéressant, mais totalement extérieur à celui de la physique. La physique ne procède pas par topiques.

A maintes occasions, ces dernières décennies, il fut tenté d’exploiter les neutrinos pour combler les incompréhensions que nous avons de la dynamique des différentes structures que l’on a identifiées dans notre univers. Ces différentes opérations de comblement furent régulièrement abandonnées puisqu’à chaque fois incohérentes. Ces tentatives régulièrement infructueuses étaient envisagées à cause de notre connaissance franchement approximative des neutrinos. En conséquence la bonne démarche consisterait, non pas à inventer des secteurs cachées mais à percer les énigmes posées par les neutrinos. Déjà, poser correctement le problème : quelle est la physique que nous révèlent les neutrinos plutôt que : quelles sont les lois physiques – sous-entendus du modèle standard – auxquelles répondent les neutrinos ? En débusquant cette autre physique nous ferons un sérieux pas en avant pour accéder à la compréhension de la dynamique dans notre univers

Partager cet article
Repost0
15 novembre 2016 2 15 /11 /novembre /2016 14:35

A chacun sa tranchée

La publication récente, de très grande qualité, des résultats concernant l’observation des variations de vitesse de déplacement des étoiles dans 153 galaxies de toutes sortes (formes, masses, densités) obligent à une réévaluation de la validité de la théorie de la Matière Noire ainsi que celle de la théorie Mond. Les résultats des observations publiés mi-octobre par S. McGaugh et F. Lelli et les autres a provoqué un tir groupé de publications que les différents auteurs proposent d’interpréter suivant leur grille de lecture très déterminée par leur croyance préalable. Pour certains (majoritaire aujourd’hui) sur la base de leur croyance définitive en la théorie de la Matière Noire et pour les autres plus disponibles à considérer positivement la théorie Mond. Ces deux groupes ont conscience que de toute façon le Modèle Standard de la Cosmologie va devoir être repensé, conduisant à une réévaluation de celui-ci avec des conséquences plus ou moins importantes voire radicales.

Il y a deux types d’articles génériques marquant une différence contrastée d’analyse et d’interprétation des résultats de McGaugh. Il y a d’un côté des articles qui ont pour titre : ‘Des galaxies défient la théorie de la matière noire’ et ‘Des corrélations entre la rotation des galaxies et la matière visible laisse perplexe les astronomes’ et de l’autre côté des articles qui titrent : ‘Les galaxies spirales défient la matière noire’ et ‘Connection entre le côté brillant et noir des galaxies.’ Dans ces derniers on constate que le décryptage des résultats est proposé dans le cadre de la théorie de la Matière Noire et c’est ce que je me propose d’évoquer en premier temps. Je me réfèrerai principalement aux arguments qui sont développés dans l’article : ‘Connection…’ de A. Kosowsky, du 9/11, dans phys.aps.org, car le raisonnement apparemment implacable qu’il développe est parfaitement traçable dans le sens où, selon lui, il n’est pas possible d’interpréter les nouveaux résultats en dehors de la théorie de la matière noire. Idem pour l’autre : ‘Des galaxies spirales…’.

Alors que les observations de McGaugh rapportent qu’il y a une relation directe entre la variation de l’accélération centripète des étoiles (V2/R : V = vitesse tangentielle et R = distance du centre de la galaxie) et la variation de la quantité de matière visible (baryonique) et donc qu’il y a une corrélation entre les deux, Kosowsky nous dit : « Il a été montré une simple relation entre l’accélération rotationnelle de ces galaxies et la distribution de la matière ordinaire (baryonique) qu’elles contiennent. Puisque (sic) la matière noire est la principale composante de ces galaxies – et donc le principal déterminant de la rotation de la galaxie – cette découverte implique que la distribution de la matière conventionnelle dans le disque spécifie le profil de la densité du halo de la matière noire qui l’entoure. » Il faut rappeler que les résultats de McCaugh sont identiques quelle que soit le type de galaxie : qu’elle soit massive ou non, spirale ou non, brillante ou moins. Malgré tout, Kosowsky continue d’interpréter les résultats d’une manière bornée par une conception qui privilégie, sans aucun questionnement de sa part, la théorie de la matière noire. Ainsi il affirme : « La loi de Tully et Fisher a montré une corrélation entre la matière visible et la matière noire : la luminosité d’un disque galactique, proportionnelle à sa masse de matière visible, dépend d’une loi de puissance de sa vitesse de rotation aux grands rayons, essentiellement déterminée par son contenu en matière noire (sic). Et de plus grâce à McGaugh qui a montré une remarquable relation simple entre la distribution radiale de la matière visible dans le disque des galaxies et la dépendance radiale de la vitesse de rotation, cela confirme qu’il y a une corrélation (sic) entre la matière visible et la matière noire. » Cette interprétation est franchement erronée car, au contraire, la remarquable loi de Tully-Fisher (empirique : fruit d’observations) constituerait plutôt une première validation de la théorie Mond. Ce qui est impressionnant chez Kosowsky c’est qu’il ne peut pas penser la dynamique des galaxies en dehors d’une existence problématique de matière noire qui, jusqu’à présent, n’a jamais été observée d’une façon ou d’une autre (voir article sur le blog du 29/07/2016 : ‘Abandonner l’hypothèse de la matière noire’). N’oublions pas que la physique est une science de l’observation en conséquence il n’est pas possible d’affirmer que les vitesses excessives de plateau des étoiles périphériques – en se fiant uniquement à la loi de Newton – ne peuvent s’expliquer qu’avec la matière noire qui jouerait le rôle de glue alors que la publication nouvelle nous dit qu’une seule chose : corrélation entre la distribution radiale de la matière visible et la variation de la vitesse de rotation et rien de plus.

Plus impressionnante encore est la lecture par Kosowsky des résultats quand il constate que lorsque l’accélération centripète est supérieure à 3×10-9m/s2 il y a accord entre la valeur prédite des vitesses par le calcul avec la loi de Newton, soit aN, et celles observées, mais si l’accélération est plus petite alors la vitesse observée est plus grande que la prédite. On remarquera qu’une telle valeur pivot, toujours la même quelle que soit le type de galaxie, a été postulée par Milgrom, il y a plus de trente ans mais avec une valeur différente : 1,2×10-10 soit 25 fois plus petite. Est-ce que cette différence de valeur a un sens ou a-t-elle vocation à s’annuler ? On verra bien. (Il est étonnant qu’aucun autre article de compte rendu n’évoque cette valeur pivot de 3×10-9)

Avec cette remarque finale : « Une possibilité pour expliquer les nouvelles observations c’est de considérer que celles-ci sont relatives à une fin naturelle (sic) de l’évolution astrophysique des disques des galaxies et de la matière noire. » on peut constater que l’auteur est prêt à avancer des explications inédites, arcbouté qu’il est dans sa tranchée pour justifier la théorie de la matière noire.

Evaluons pourquoi il y tient à cette théorie, et c’est à la fin de son article que cela est explicite. Subsidiairement l’auteur évoque donc une explication alternative qui est celle de Mond (Modified Newtonian Dynamics) : « Il se pourrait que la loi de Newton ne convienne pas. La relation d’échelle pourrait indiquer une modification de la loi de la force de gravitation de Newton plutôt que d’introduire de la matière noire. M. Milgrom a défendu cette possibilité depuis 1983, et J. Bekestein en 2004 a démontré que cette loi modifiée pouvait bénéficier d’une propriété de covariance et devenir compatible avec la loi de Relativité Générale. La modification de la gravité de Newton évite les difficultés de corrélation entre la matière noire à la matière visible dans les galaxies (pour être clair, en fait, avec Milgrom il n’y a pas (plus) de matière noire). Mais si une modification de la gravité peut reproduire les observations de la dynamique des galaxies, cela conduit à des difficultés sérieuses quand on veut faire coïncider des observations obtenues à des échelles cosmologiques différentes, incluant le développement des structures, les amas de galaxies, l’effet lentille gravitationnelle, etc… (ceci est vrai bien que cela soit d’une façon de moins en moins dramatique car la théorie Mond est ajustable).

Je réserve pour la fin l’explication pour laquelle on assiste à une telle résistance, à un tel aveuglement, de la part d’une majorité de physiciens : « La relation de l’accélération observée dans les disques galactiques présente un clair challenge pour la simulation de la formation de galaxies dans le cadre du Modèle Standard de la Cosmologie. Cela conduira à une compréhension plus profonde des processus astrophysiques de la formation des galaxies, ou – peut-être possiblement – à une révision substantielle des théories physiques fondamentales. » Voilà cela est dit.

Dans l’autre article générique de Sean Bailly on peut lire : « Cependant, si Mond est la solution pour expliquer les courbes de vitesse des galaxies et que la matière noire n’existe pas, il reste à expliquer toutes les autres situations où la matière noire apporte (sic) une explication efficace. » Pourquoi est-il possible de proposer une telle réponse puisqu’on ne sait pas ce qu’est la matière noire et elle n’a jamais été détectée ? On est ici dans la doctrine et non pas dans la démarche objective, dite scientifique, et ça fait longtemps que cela dure.

L’autre tranchée a été creusée méthodiquement, empiriquement, depuis 1983, par M. Milgrom. Son hypothèse est franchement iconoclaste car il propose de modifier la loi de Newton lorsque l’accélération centripète devient < 1,2×10-10m/s2. Iconoclaste parce qu’il détruit le caractère de loi universelle, qualité prêtée à la loi de Newton (et n’est pas remise en cause par la R.G. l’héritage étant assumé). Ainsi les physiciens devraient considérer que le monde n’est pas ordonné comme ils le pensent, il serait donc plutôt configuré comme un jeu de poupées russes. Ou bien le monde est parfaitement ordonné, unique, mais les physiciens n’auraient pas (encore) accédé à la loi qui régit cette unité. En l’occurrence, quelle que soit la réalité de ce monde, on comprend pourquoi les physiciens n’étaient pas (ne le sont toujours pas) accueillant à l’égard de cette hypothèse de Milgrom. Quoi qu’il en soit avec Mond la théorie de la matière noire est annulée et progressivement, en 33 années, Milgrom obtient des confirmations entre des observations et ses prédictions théoriques.  Elles ne sont toujours pas suffisantes pour que l’hypothèse Mond soit adoptée mais elle devrait être mieux prise en considération par un plus grand nombre de physiciens. Comme le précise Milgrom dans un article dans le NewScientist du 3/05/2014 qui a pour titre : ‘Il est temps de renoncer à la matière noire’, « La théorie Mond est nettement plus économique. Pour chaque galaxie, les théoriciens de la matière noire doivent définir au fur et à mesure la quantité et la distribution de matière noire. Ainsi, si on comprend 10 galaxies, nous ne connaissons toujours pas la onzième. La matière noire explique après coup. Mond prédit les choses à l’avance. Ceci est la clé. » Cette remarque de Milgrom est pertinente car si les physiciens sont rebutés par la rupture de l’universalité de Newton, ils se condamnent au bricolage avec la matière noire. Dans l’article on lui demande : « Est-ce que cela vous embête que la plupart des physiciens continuent de rejeter votre idée ? » ; il répond : « Il y a 15 ans, je trouvai cela consternant. Maintenant, je suis au-dessus de ça. Dans les récentes années, environ 700 publications exploitant Mond ont été publiées. Cela est vraiment encourageant. »

Maintenant nous sommes dans une période cruciale car les observations publiées par McGaugh pourraient valider Mond ou au moins confirmer des convergences significatives avec et remettre en cause le modèle de la matière noire. Les articles génériques de points de vue plus objectifs nous disent : « Les résultats nous parviennent avec surprise parce qu’ils ne sont pas prédits par le modèle de matière noire conventionnelle. » Milgrom a malgré tout exprimé un sérieux mécontentement parce que McGaugh ne lui a pas attribué franchement la paternité de ces résultats qui sont, selon lui, la confirmation de sa théorie. Mais on vérifie que la théorie de la matière noire a étonnamment imprégné les esprits car McGaugh le confirme : « Il veut garder l’esprit ouvert en pointant l’idée que des formes exotiques de matière noire par exemple superfluides ou même des dynamiques complexes des galaxies pourraient être consistantes avec les données. Néanmoins, il ressent aussi qu’il y a un rejet implicite à l’égard de la théorie Mond parmi les membres de la communauté scientifique. »

McGaugh est prêt à mettre un pied dans la tranchée de M. Milgrom mais ses collègues retiennent l’autre pied : « L’essentiel de notre compréhension courante de la cosmologie repose sur la matière noire. Il se pourrait que mes résultats menacent les modèles de la formation des galaxies et de la formation des structures aux grandes échelles. Je le pense mais pas mes collègues. »

Maintenant essayons de comprendre l’hypothèse originale qui permettrait de rendre compatible à la fois les résultats de Mond et l’hypothèse de la matière noire. Il s’agirait de prendre en compte le modèle de la matière noire exotique et ainsi assister à une fraternisation entre les occupants des deux tranchées. L’axion serait typiquement une particule exotique. Ce qui est important de remarquer c’est qu’elle ne fut pas inventée pour les besoins de la cause de cette hypothèse, non elle précède celle-ci. Ce fut au tout début des années 1980 que dans le cadre de la théorie de la chromodynamique quantique (QCD) que le formalisme prêté à cette interaction faisait apparaître une violation de CP : non observable concrètement, aussi il fallut colmater cette faille du formalisme et ce fut l’hypothèse de l’axion qui reçut une approbation majoritaire de la part des physiciens. Précisons tout de suite qu’elle n’a jamais encore été observée, si malgré tout elle existe, voyons pourquoi. Sa masse estimée est très petite entre 1 meV et 1 µeV, elle est neutre, elle est supersymétrique. Dotée de ces trois paramètres, elle n’a pas jusqu’à présent été détectée dans les trois détecteurs configurés à cette fin. Il semblerait qu’il lui fut attribué d’autres propriétés pour qu’elle hérite de la qualification de matière noire aussi exotique. Donc ce supplément de propriétés serait pour les besoins de la cause et à mes yeux cette nouvelle invention réduit la fiabilité du sujet. Allons quand même jusqu’à ce qui justifie le terme d’exotique. L’axion interagit très faiblement avec la matière ordinaire et serait présente dans l’univers avec une densité de 107/cm3 (rappelons-nous que pour les photons c’est 400 et les neutrinos 300).  D’après B. Famaey, dans l’article de Futura science du 15/10 : « Ces particules pourraient se comporter comme un superfluide sans viscosité en dessous d'une certaine température critique. Cette température critique serait d'autant plus élevée que la densité est grande. Cette transition de phase se produirait justement au niveau des galaxies, lorsque la matière noire est beaucoup plus froide, un peu comme un gaz qui se condense en donnant des gouttes de liquide.

Des ondes sonores dans ce superfluide sont décrites par des phonons, comme dans le cas des solides, d'un point de vue quantique. Il est alors possible de montrer que ces phonons peuvent interagir avec la matière normale comme si la force de gravité était modifiée en donnant précisément les phénomènes que l'on trouve dans le cadre de Mond.

Au moment où le rayonnement fossile a été émis et au niveau de la formation des amas de galaxies et des grandes structures qui les regroupent, la matière noire est, bien sûr, non relativiste mais quand même trop chaude pour se comporter comme un superfluide, de sorte que Mond ne s'applique pas. »

Le sujet est ouvert, il n’est pas prêt de se refermer, nous aurons donc l’occasion d’en reparler.

Partager cet article
Repost0
9 novembre 2016 3 09 /11 /novembre /2016 05:00

A nouveau : prenons date

A nouveau, parce que j’ai déjà posté un article le 20/09/2012 : ‘Prenons date’ qui avait été suivi par l’article du 02/11/2012, dans lequel je soulignai : « Bref aucune opération de mesure physique ne peut être instantanée, elle implique obligatoirement une durée. » Cette affirmation est totalement corrélée à mon hypothèse : TpS, point aveugle de l’intelligence humaine, et donc les lois de la physique que nous concevons et confirmons implique que leur observation se situe sur une durée supérieure à TpS. Les lois de la physique qui mettent en jeu des durées au deçà de la valeur de TpS ne sont pas accessible à notre entendement et encore moins celles qui seraient de l’ordre de l’instantanéité. Selon mon point de vue ceci expliquerait pourquoi la problématique de l’intrication nous semble encore mystérieuse. Cela n’est pas le propos principal de l’article actuel mais celui du constat que les lois qui font sens pour nous aujourd’hui sont celles qui sont ‘franchement’ en dehors de l’instantanéité bien qu’il fût cru jusqu’à présent exactement le contraire.

            L’article du 7/11/2016 dans phys.org : « Des scientifiques présentent les mesures actuelles les plus précises de saut quantique. » Dans cet article on peut lire la phrase qui corrobore mon hypothèse : « Habituellement, ces processus étaient pensés se produisant instantanément (sic), d’un moment à l’autre. »

            Je joins l’article original en copié collé à la fin de celui-ci, toutefois je veux mettre en exergue ses éléments significatifs. « L’expérience consiste à utiliser un faisceau laser qui heurte un atome d’hélium. Un des électrons est expulsé de l’atome, l’autre électron peut changer d’état quantique. » ; « Quand un système quantique change d’état, cela s’appelle un saut quantique. Habituellement, ces sauts quantiques sont considérés comme se produisant instantanément. Maintenant, des nouvelles méthodes de mesure de haute précision nous permettent d’étudier l’évolution temporelle de ces sauts quantiques. A l’échelle de l’attoseconde (10-18seconde), la structure de leur durée d’évolution devient perceptible. C’est la mesure d’une durée de saut quantique la plus exacte obtenue aujourd’hui. »

            Il y a quatre ans j’avais proposé ce résultat comme une conséquence de l’hypothèse TpS, et cet article conforte le bien fondé de celle-ci, toutefois je ne peux pas tirer la conclusion que mon hypothèse est définitivement prouvée. Une conclusion pourra être statuée lorsque nous constaterons un processus par lequel l’intelligence humaine devient aveugle. Détecter un processus est essentiel car expliquer comme je le propose : que la propriété de l’intrication est pour nous inexplicable parce que l’intrication entre deux objets se réalise en une durée < TpS n’est pas probant car d’autres commentaires sont actuellement toujours possibles et ils ne manquent pas. On pourrait conjecturer que le Black-Out rencontré avec le run de 2016 au LHC, soit un révélateur car on peut supposer que le domaine d’énergie mis en jeu cette année, pour la première fois, conduise à la production d’événements dont leur durée de vie soient extrêmement courts et conséquemment n’étant pas préparé à cette éventualité, les physiciens n’ayant pas placé a priori leur pensée à la confrontation à cette situation, c’est un énorme sentiment de frustration qui s’est imposé.

            Pour ma part, en ce qui concerne le phénomène de l’intrication, je reconnais que ma proposition d’expérience ré-évoquée à la fin de l’article du 5/10/216 : ‘NOW’ est difficile à réaliser.  De même prendre appui sur la conjecture de L. Susskind et J. Maldacena : ER = EPR ne permet pas actuellement de faire jaillir une démonstration qui prouverait la validité de mon hypothèse.

            Mon estimation de TpS est de l’ordre de 10-25s au maximum. Disons que la difficulté de découvrir le boson de Higgs, entre autres, provient de sa durée de vie très courte, peut-être 10-22s, donc laissant une trace dans le détecteur très courte. Dans le détecteur Ligo, la fluctuation minimale de distance entre les miroirs à laquelle l’appareil est encore sensible est de 10-18m. En dessous de cette valeur l’appareil est muet pour l’observateur. Pour un photon 10-18m est parcouru en 3×10-27s.

Copie de l’article original :

Scientists present the most accurate time measurements of quantum jumps to date

November 7, 2016

A laser pulse hits a helium atom. One of the electron is ripped out of the atom, the other electron may change its quantum state.

When a quantum system changes its state, this is called a quantum jump. Usually, these quantum jumps are considered to be instantaneous. Now, new methods for high-precision measurements allow us to study the time evolution of these quantum jumps. On a time scale of attoseconds, there time structure becomes visible. It is he most accurate time measurement of quantum jumps to date.

Quantum particles can change their state very quickly—this is called a "quantum jump". An atom, for example, can absorb a photon, thereby changing into a state of higher energy. Usually, these processes are thought to happen instantaneously, from one moment to the next. However, with new methods, developed at TU Wien (Vienna), it is now possible to study the time structure of such extremely fast state changes. Much like an electron microscope allows us to take a look at tiny structures which are too small to be seen with the naked eye, ultrashort laser pulses allow us to analyse temporal structures which used to be inaccessible.

The theoretical part of the project was done by Prof. Joachim Burgdörfer's team at TU Wien (Vienna), which also developed the initial idea for the experiment. The experiment was performed at the Max-Planck-Institute for Quantum Optics in Garching (Germany). The results have now been published in the journal Nature Physics.

The Most Accurate Time Measurement of Quantum Jumps

A neutral helium atom has two electrons. When it is hit by a high energy laser pulse, it can be ionized: one of the electrons is ripped out of the atom and departs from it. This process occurs on a time scale of attoseconds - one attosecond is a billionth of a billionth of a second.

"One could imagine that the other electron, which stays in the atom, does not really play an important part in this process—but that's not true", says Renate Pazourek (TU Wien). The two electrons are correlated, they are closely connected by the laws of quantum physics, they cannot be seen as independent particles. "When one electron is removed from the atom, some of the laser energy can be transferred to the second electron. It remains in the atom, but it is lifted up to a state of higher energy", says Stefan Nagele (TU Wien).

Therefore, it is possible to distinguish between two different ionization processes: one, in which the remaining electron gains additional energy and one, in which it remains in a state of minimal energy. Using a sophisticated experimental setup, it was possible to show that the duration of these two processes is not exactly the same.

"When the remaining electron jumps to an excited state, the photo ionization process is slightly faster - by about five attoseconds", says Stefan Nagele. It is remarkable how well the experimental results agree with theoretical calculations and large-scale computer simulations carried out at the Vienna Scientific Cluster, Austria's largest supercomputer: "The precision of the experiment is better than one attosecond. This is the most accurate time measurement of a quantum jump to date", says Renate Pazourek.

Controlling Attoseconds

The experiment provides new insights into the physics of ultrashort time scales. Effects, which a few decades ago were still considered "instantaneous" can now be seen as temporal developments which can be calculated, measured and even controlled. This does not only help to understand the basic laws of nature, it also brings new possibilities of manipulating matter on a quantum scale.

Read more at:
http://phys.org/news/2016-11-scientists-accurate-quantum-date.html#jCp

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens