Overblog
Suivre ce blog Administration + Créer mon blog
10 janvier 2017 2 10 /01 /janvier /2017 15:44

Ce que Carlo Rovelli a répondu.

Je me réfère à l’article du 10/12/2016 et plus spécifiquement au paragraphe qui commence par : « Ce que je voudrais dire à CR (Carlo Rovelli)… », puisque CR a répondu à mon interpellation, promptement, après que je lui ai envoyé un tiré à part avec ce commentaire préalable : « En premier lieu, je remercie Carlo qui formule avec clarté et force de sa conviction ses idées originales car cela oblige, quand on ne partage pas son point de vue, d’essayer de répondre avec une clarté et une force les plus équivalentes. »

Mon interpellation était suscitée par ce qu’il affirmait dans une interview de l’actuel N° hors-série de décembre-janvier de la revue ‘La Recherche’ : « Même si l’on ignore exactement comment cela se passe, je suis persuadé que le temps émerge parce qu’on n’a accès qu’à une vision partielle du monde qui nous entoure. » ; « Imaginons un système – nous-mêmes – qui interagit avec le reste du monde. Le temps émerge (distinction entre le futur et le passé) au moment où il y a interaction entre les systèmes. » ; « En fin de compte, je suis dans le camp de ceux non pas qui pense que le temps n’existe pas, mais qu’il n’est pas utile d’avoir du temps dans les équations fondamentales. »

Ci-joint, ce qu’il m’a fait parvenir en retour à cette interpellation :

Cher Philip,

« Je vous remercie de l’appréciation que vous aviez manifesté quant à mes paroles, et je voudrais vous répondre avec le plus de précision possible,, étant donné que nous sommes, dans les domaines dont vous parlez, à la limite de la physique et de la philosophie.
Quand vous dites « je n’utilise pas la notion de conscience, car c’est une notion trop subjective », je voudrais vous dire, que si l’on veut suivre un grand maître en la matière, Sir Roger Penrose, la conscience dans (sic) l’univers est la notion la plus objective qui soit.
C’est à partir d’elle que, selon nous, devrons être construits, aussi bien les concepts d’intelligence dans le monde, que la notion de temps.
En ce qui concerne le temps, nous avons probablement, encore là, un point de désaccord amical car je crois que la notion de temps a déjà reçu un sérieux choc, avec le concept de cohérence quantique entre deux particules éloignées, ce à quoi s’ajoute la relativité générale où Einstein avait démontré combien les notions de temps étaient justement très « relatifs ».
Voilà donc pourquoi, j’ai cru pouvoir dire, qu’il ne serait pas utile d’avoir le temps dans les équations fondamentales. »

Carlo Rovelli

Ces deux grands totems de la physique auxquels me renvoie Carlo, qui bien évidemment inspirent le respect, sont, entre autres, ceux qui ont contribué à me forger des convictions en physique mais pas obligatoirement dans leur sillage. Ce qui est certain, c’est qu’ils n’ont jamais considéré qu’ils constituaient des bornes à la pensée. En ce qui concerne R. Penrose mon désaccord est quasiment global et celui-ci se cristallise par le fait que Penrose est un fervent représentant d’une conception platonicienne du monde alors que je ne suis pas du tout touché par une quelconque lueur de la métaphysique platonicienne. Mais ici je me concentrerai sur l’analyse de cette certitude citée : « la conscience dans l’univers est la notion la plus objective qui soit » En ce qui concerne le thème du temps, je me suis assez souvent exprimé sur ce sujet et Carlo ne peut que connaître l’analyse critique qui a été mené par L. Smolin dans son livre : ‘La renaissance du temps’, notamment à propos de ce qu’il a identifié comme « l’image de l’univers bloc ». Ici encore, plus particulièrement, j’aurai une réponse-explication alternative à proposer au ‘mystérieux’ : « concept de cohérence quantique entre deux particules éloignées, ». Celle-ci est peut-être voisine à ce qui est sous-tendue dans la conjecture formulée en 2013 par Leonard Susskind et Juan Maldacena : « E.R. = E.P.R. »

Je souhaite mettre en évidence immédiatement ce qu’implique l’expression : « la conscience dans l’univers ». En effet, la préposition ‘dans’ met en évidence une ubiquité de ladite conscience, celle-ci n’ayant pas pour siège unique l’être humain. A travers cette expression on est obligé de comprendre que la doctrine platonicienne de l’immanence chère à R. Penrose est à l’œuvre. Immanence qui fut clairement explicitée par Galilée et Newton et raillée par Leibniz, etc...

Encore, à propos de la conscience dans l’univers qui est la notion la plus objective qui soit, comme nous le dit CR, voyons d’où cette affirmation, sans nuance, provient. Cela résulte des travaux en commun de Penrose et Hameroff (anesthésiste, biologiste) qui prétendent que la conscience est le résultat d’effets de la gravité quantique sur les microtubules dans les neurones du cerveau. En conséquence le processus quantique agissant : assure corrélation et régulation entre les synapses neuronaux et l’activité des membranes et il en résulte l’éveil de la conscience. En plus des principes quantiques intervenant dans le fonctionnement du cerveau, il faut ajouter une dépendance à la géométrie de l’espace-temps ce qui conduit les auteurs du résumé de leur article : ‘Conscience dans l’univers’, en 2014, d’écrire, dans ‘Physics of Life Reviews’ : « Il y a une connexion entre les processus biomoléculaires du cerveau et la structure basique de l’univers. »

En parcourant les publications et les débats sur ce sujet, on constate que cette thèse proposée depuis deux décennies est particulièrement controversée et CR devrait rigoureusement utiliser le conditionnel lorsqu’il fait référence à celle-ci. Citons, Philip Tetlow (professeur de la science du Web à l’université de Southampton), « bien que je sois un supporter des vues de Penrose, je reconnais que les idées de Penrose concernant le processus de la pensée humaine sont à présent minoritaires, (une poignée) dans les cercles scientifiques. »

A mon sens, il n’est pas possible d’exclure que l’être humain que nous sommes dans notre temps présent soit le fruit d’interactions multiples dans le temps avec ce que l’on reconnait comme étant de l’ordre de la Nature. Les paléoanthropologues apportent de plus en plus, et, de mieux en mieux, des preuves que nous sommes le fruit d’une évolution qui s’est engagé depuis une profondeur du temps, difficile voire impossible à fixer, (voir dernier livre de P. Picq : ‘Premiers Hommes’ ainsi que le N° H.S. de ‘Pour la Science’, Janvier-Mars 2017, ‘Evolution, la saga de l’humain’). Justement la saga de l’humain est profondément déterminée par une lutte permanente contre les déterminations de la Nature. Ce qui caractérise l’être humain et son évolution…et donc sa survie, c’est sa faculté de progressivement s’émanciper des déterminations de la Nature depuis des millions d’années. Le processus d’émancipation consiste à transformer ces déterminations en autant de sujets de connaissances et in fine les attribuer à l’action de la Nature (Pensons à l’avancée intellectuelle, et donc à la libération provoquée, que constitue la découverte de la loi de gravitation qui, par exemple, permet de différencier la matière constitutive du corps et son poids). Plus cette émancipation progresse, plus l’être humain affirme le développement de sa spécificité à l’égard de tous les êtres vivants. Conjecturons que celle-ci n’est pas aboutie et augurons que cela jamais ne se produira (voir article de P. Picq : ‘Le roman des intelligences’, dans ‘Dossier pour la Science’ de Juillet-Septembre 2016). Je suis convaincu que notre dynamique intellectuelle à l’égard de la découverte des propriétés et des lois de la nature ne cesse de se renouveler grâce à cette volonté vitale d’émancipation qui nous habite. L’engouement actuel vis-à-vis de la compréhension de ce qui est identifié présentement comme représentant ‘Notre Univers’, au-delà du cercle des scientifiques dont c’est le métier, en est une belle illustration.

Il y a plusieurs raisons pour rejeter la thèse de Penrose, endossée par quelques disciples, mais ici, je n’en citerai qu’une seule pour proposer sa réfutation et elle est nourrie par ce que les paléoanthropologues, biologistes de l’évolution, généticiens, découvrent et nous communiquent actuellement. Penrose nous propose de facto une conception statique dans le temps de ce qui fait que l’être humain est ce qu’il est. Selon sa conception, l’être humain aurait eu des aptitudes intellectuelles toujours semblables depuis qu’il est sur terre, c’est évidemment à contrecourant de ce qui est dévoilé maintenant. Enfin, je suis toujours surpris quand les physiciens théoriciens cogitent à partir de l’idée que la connaissance scientifique que nous maitrisons soit celle qui correspond à un aboutissement, qu’elle est définitive et n’a rien de provisoire. Enfin que savons-nous effectivement de la gravité quantique ?

Atteindre autant que faire se peut la compréhension du fonctionnement de notre cerveau est une tâche récemment entreprise et qui est et sera passionnante. En quelques décennies des progrès ont déjà été constatés. La compréhension du phénomène de la conscience du sujet réflexif est une voie d’analyse et d’accès significative au fonctionnement cérébral. Ce qui est approprié aujourd’hui, c’est d’évoquer des états de conscience et non pas la conscience comme étant une donnée permanente. A ce titre je conseille de lire un article de Lionel Naccache dans le N° HS de Sciences et Avenir de Janvier/Février 2017 : ‘Le mystère des origines’, où l’auteur, p.70, nous dit qu’il a identifié la signature cérébrale de la prise de conscience, celle-ci ne relève pas d’une aire en particulier. Elle naît d’un échange entre de nombreux réseaux. Quand on demande à ce neurologue et chercheur au Centre de recherches de l’institut du cerveau et de la moelle épinière : « Il n’y a donc pas une aire de la conscience ? », il confirme : « Non ! Si l’éveil correspond bien à une région – précisément la zone réticulée du tronc cérébral – et si l’état de coma, lui, s’explique par une souffrance de ce même territoire, il en va autrement pour la conscience. La différence entre conscience et inconscience ne réside pas dans l’activation d’une aire ou d’une autre, mais dans un mode de fonctionnement, de communication, entre les régions. » Autre question : « Peut-on être plus ou moins conscient ? » La réponse est : « Nous sommes nombreux à penser qu’il n’y a pas de continuum (sic) entre l’absence totale de conscience et le premier signe de conscience. On peut être plus ou moins éveillé, mais on est conscient ou on ne l’est pas ! »

Je reviens maintenant sur ma promesse de réponse-explication à propos du « concept de cohérence quantique entre deux particules éloignées », ce que l’on appelle généralement la propriété d’intrication entre deux particules, qui peuvent être des atomes ou des molécules, jusqu’à des cristaux. Je me suis déjà amplement expliqué sur le sujet, je rappelle que mon hypothèse de TpS de l’ordre de 10-25s, rend compte du fait de l’existence d’un intervalle de temps aveugle de l’intelligence du ‘sujet pensant’. En conséquence, il ne peut être observateur d’événement, de phénomène, se produisant pendant une durée < TpS. Il ne peut donc pas fonder du temps sur une durée si courte, ce qui est le cas quand est concrètement réalisé une intrication.

Mon hypothèse peut être ou pourra être, dans un futur proche, expérimentalement vérifiée ou réfutée. TpS est invariant quel que soit le référentiel en mouvement dans lequel se trouve l’observateur, ce qui n’est pas le cas pour la réalisation de l’opération de l’intrication car celle-ci résulte d’un mécanisme et je suppose que celui-ci n’est pas parfaitement instantanée. Dans ce cas, l’intrication qui est réalisée entre deux objets quantiques dans un référentiel o et qui apparaît comme telle peut très bien n’être plus constatée dans un autre référentiel o’ en mouvement. Si le γ de Lorentz est suffisamment grand alors le ∆t’i = γ∆ti>TpS. Et l’intrication ne sera plus.

 

Partager cet article
Repost0
10 décembre 2016 6 10 /12 /décembre /2016 09:01

La physique serait une petite mais une cruciale fraction de notre réalité.

Ci-dessus, le titre de l’article publié sur le site du ‘NewScientist’ le 30/11/2016, article proposé par Richard Webb.

            Sous-titre : « Exactement quelle part de la science physique est réelle et quelle part de réalité est représentable par la science physique ? Ceci est le thème commun de 4 livres majeurs récemment publiés. » (Ce thème, les auteurs de ces livres : R. A. Muller, C. Rovelli, R. Penrose, H. Ch. Von Baeyer, ont été évoqués maintes fois dans les articles du Blog. Le fait que cela soit analysé ailleurs et par une autre personne est vraiment très important et très intéressant.).

            « Y a-t-il beaucoup de choses importantes concernant la réalité que la physique ne peut pas expliquer ? »

            La découverte de cet article m’a immédiatement interpelé avec ces questions : « Comment avoir une connaissance du dénominateur de cette fraction de notre réalité ? » ; « Qui peut prétendre avoir cette connaissance ? » ; « De quelle métaphysique cela rend compte ? »

            De cet article, je vais citer les parties les plus importantes qui contribuent à la réflexion sur ce sujet. Le texte original est collé à la fin du présent article.

            « Les 5 dernières années écoulées ont donné lieu à 3 grandes avancées expérimentales : les découvertes du boson de Higgs et les ondes gravitationnelles, ainsi que les mesures méticuleuses du fond diffus cosmologique du satellite Planck. Mais celles-ci ont servi à confirmer les figures existantes de la réalité (sic) : le modèle standard de la physique des particules basé sur la théorie quantique des champs, et le modèle standard de la cosmologie qui rend compte d’un univers avec big bang tel que la théorie de relativité générale le programme. » ; « Ces résultats sont flatteurs mais aussi déprimants. »

            « Les déficiences de ces 2 théories sont évidentes. Non seulement chacune d’elles se contredisent, mais elles contredisent comment nous sentons la réalité devant se comporter

« Le point de départ de la réflexion de Muller est le temps, (A cet égard, voir l’article du 5/10/2016 : ‘Now’), qui constitue certainement le concept le plus notoire pour révéler la divergence le plus aigüe entre notre perception de la réalité et la description donnée par nos théories physiques. La relativité kidnappe la réalité du flux du temps qui sépare nettement le passé du futur. Il dénie l’existence de n’importe quel surplomb (sic) spécifique duquel nous pouvons mesurer (appréhender) le passage du temps. » (C’est exactement à cet endroit, signalé par R. Webb ci-avant, que, selon mon point de vue, se trouve la source de l’erreur cruciale du traitement physique du temps. L’erreur est caractérisée dans l’affirmation d’Einstein : « Ce qui du point de vue est réel… est constitué de coïncidences spatio-temporelles. Et rien d’autres (sic) », en 1915, lettre à Ehrenfest. Si on décline cette affirmation en analysant les lois de la Relativité Restreinte (RR) et en restituant leur essence première et donc en entreprenant la correction nécessaire on établit un surplomb : ‘l’Instant Présent[1] avec une valeur de l’ordre de 10-25s, duquel nous pouvons mesurer le passage du temps.)

« Comment une théorie physique peut prédire des choses si étranges à notre expérience ? Avec les mots de Muller, la physique devrait expliquer ce que nous voyons en réalité, non pas la contredire. »

Ensuite l’auteur de l’article présente d’une façon succincte la théorie de la gravité quantique à boucle proposée par C. Rovelli et essaie d’indiquer quelle est son effectivité pour décrire une part de réalité :

« Certainement dans un certain sens, le style facile, lisible, de Rovelli, jette de la poudre aux yeux (voir articles du 28/02 et du 28/07/2015). Vous serez donc pardonné si vous concluez qu’une si bonne théorie doit exister et qu’en conséquence sa vérification expérimentale devrait être au coin de la rue. Serait-ce si simple ? » La réponse à une telle question est évidente car la gravité quantique à boucle est une théorie à l’échelle de Planck, donc radicalement inaccessible et ses fondements ne peuvent être observés directement...pas plus indirectement. Pas plus qu’elle ne peut contribuer à mieux comprendre la réalité. Mais à ce niveau il faut relativiser car si on prend en compte par exemple la mécanique quantique on ne peut pas dire non plus qu’elle contribue à une meilleure compréhension de la réalité alors que grâce aux fondements qui constituent la base du corpus de cette science et son enrichissement depuis un siècle nous savons pourtant produire des laser, des ordinateurs, etc…

En troisième lieu, R. Webb fait référence à la thèse que l’on nomme le QBism, et cite le dernier livre : ‘QBism’, publié sur ce sujet dont l’auteur est Hans Ch. von Baeyer. Il rappelle, à juste raison, qu’avec la thèse du QBism la théorie quantique devient non pas une théorie de ce qui est observé, mais une théorie de l’observateur (voir articles du 2/11/2012 et du 11/01/2014). Cette théorie de l’observateur met en jeu la conscience de l’observateur, c’est-à-dire sa présence qui participe à la réception des données de l’observation et en conséquence à leur perception et à leur analyse. J’ai déjà eu l’occasion d’exprimer dans de nombreux articles à partir d’un article générique du 21/12/2011 : ‘L’être humain est-il nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la Nature ?’, qu’on devait effectivement prendre en compte, même en science physique, la position ineffaçable du ‘sujet pensant’, de l’‘être réflexif’ pour accéder à une juste compréhension des données. Toutefois, j’ai une profonde divergence avec les QBistes car ils privilégient la conscience du ‘sujet pensant’, ce que je nomme une petite ‘présence’ avec un p minuscule perpétuellement fluctuante et donc indéfinissable, alors que je me réfère à la ‘Présence’ avec un p majuscule. Cette ‘Présence’ est immuable et s’est érigée avec/depuis qu’une première lueur d’intelligence humaine a entrepris de percer (décrypter) les lois de la Nature pour survivre et partant exister progressivement en tant qu’être à part dans celle-ci.

En quatrième lieu, R. Webb cite R. Penrose et son dernier livre que j’ai déjà abordé dans l’article du 15/10/2016. Webb met en exergue l’aptitude de Penrose à nous donner un aperçu profond de la relation entre la réalité et les idées en mécanique quantique, en cosmologie standard, et les théories qui prétendent les remplacer. Cela n’est pas dit mais n’oublions pas que Penrose est un invétéré platonicien.

En conclusion ce que dit l’auteur : « Si on considère que la physique décrit la part de réalité qui est susceptible d’être mathématisée alors le théorème de Gödel nous rappelle l’impossibilité d’accéder à une description complète. Sans nul doute la physique est importante mais il se pourrait qu’il y ait une part plus importante de la réalité qui ne serait pas accessible à la physique. »

Avant de proposer ma propre conclusion sur ce sujet, je souhaite signaler ce que disent R. Penrose (RP) et C. Rovelli (CR) à propos du temps car il se trouve qu’il y ait eu début décembre un numéro Hors-Série de ‘La Recherche’ sur le thème du ‘Temps’.

RP : « Pour moi, le temps est celui de la relativité générale d’Einstein, autrement dit c’est l’une des quatre dimensions de l’espace-temps. Je considère que la relativité générale est une théorie magnifique. »

RP : « Seulement, la R.G. n’explique pas notre sensation de la progression du temps, il passe, il s’écoule. De la R.G. nous pouvons tirer l’image de l’« univers-bloc », un univers quadridimensionnel statique (sic) qui englobe passé, présent et futur, sans écoulement. » ; « En R.R. il est impossible de définir une notion de simultanéité. » ; « Notre sensation du temps qui passe n’est pas inconsistante avec la relativité. C’est juste qu’elle n’est pas expliquée (sic) par cette théorie. »

CR : « Même si l’on ignore exactement comment cela se passe, je suis persuadé que le temps émerge parce qu’on n’a accès qu’à une vision partielle du monde qui nous entoure. » ; « Imaginons un système – nous-mêmes – qui interagit avec le reste du monde. Le temps émerge (distinction entre le futur et le passé) au moment où il y a interaction entre les systèmes. » ; « En fin de compte, je suis dans le camp de ceux non pas qui pense que le temps n’existe pas, mais qu’il n’est pas utile d’avoir du temps dans les équations fondamentales. »

Ce que je voudrais dire à CR c’est que « nous-mêmes », nous ne sommes pas simplement un système mais nous sommes ‘le système’ interagissant avec le reste du monde (monde en dehors de nous) et nous sommes les seuls au monde à avoir l’intelligence de cette interaction. Le temps que nous fondons, est en conséquence le symptôme de cette intelligence, il est le substrat fondamental à partir duquel l’être humain développe son aptitude à produire un discours (entre autres scientifique), toujours en évolution, sur le reste du monde. Tous les autres systèmes interagissant produisent ce que nous appelons un temps propre : leur temps propre, et nous sommes en capacité de les identifier parce que nous les supervisons en les rapportant à notre propre temps. D’un point de vue hiérarchique, notre temps propre doit être compris comme étant le temps de notre faculté de raisonnement, de l’ordonnancement de nos connaissances sur le reste du monde. Tous les autres temps identifiés et dans le futur : identifiables, sont des temps rapportés, subordonnés. De plus, il ne faut pas considérer que nos connaissances sur le reste du monde coïncident avec ce qu’est effectivement le reste du monde, c’est le tâche permanente du physicien de faire que la coïncidence soit de plus en plus grande, de plus en plus parfaite, sans avoir l’illusion que l’aboutissement est pour demain.   

Ma métaphysique se résume ainsi : « Au sein d’une éternité parmi tous les possibles l’anthrôpos ne cesse de creuser sa connaissance de l’Univers. » Comme le souhaite CR, nous pourrons nous émanciper de toute temporalité lorsque nous atteindrons la connaissance de tous les possibles et alors nous serons à la porte d’entrée de l’éternité. Nous avons donc bien du temps devant nous et en aucun cas nous ne pouvons anticiper le pas.

Uniquement sur la problématique du temps on voit deux physiciens réalistes CR et RP à l’œuvre nous affirmer : ce que constate, ce qu’éprouve intellectuellement l’être humain est secondaire parce que ce sont les équations physiques seules qui disent la réalité. C’est exactement ce que nous dit RP à propos du temps de la RG et de la RR, alors que l’image de l’« univers-bloc » est pur artefact et joue le rôle d’un véritable trou noir de notre pensée à propos du temps. A cet égard L. Smolin a réalisé une analyse critique très approfondie de cet univers bloc dans son livre ‘La renaissance du temps’, voir aussi article du blog du 03/06/2016. Pour les physiciens réalistes, c’est une constante, un monde réel existe sans l’être humain en conséquence une bonne description physique de ce monde est celle qui de facto efface la ‘Présence’ de l’être humain.

Les réalistes se trompent, je considère que ce que les réalistes croient être la réalité n’est rien d’autre que notre réalité, celle que nous avons travaillé et donc filtré, c’est-à-dire que nous accédons in fine à un ‘apparaître’ de la réalité, c’est-à-dire la réalité que nous savons mettre en relief et qui résulte de nos capacités (qui sont heureusement évolutives) de compréhension de notre interaction avec le monde qui est en dehors de nous. Cette réalité-là n’est pas banale car les contraintes auxquelles doivent satisfaire les connaissances en physique sont très fortes (par exemple le rapport entre théorie et expérience, observation). Le fait que sans la satisfaction à ces contraintes aucune théorie, ni aucune loi ne peuvent être intégrées dans le corpus de la connaissance en physique constitue déjà un critère de sélection redoutable. Mais je considère qu’à travers ce processus, ce que nous mettons en évidence ce sont des vérités, provisoires, locales, partagées, plus que des aspects de la réalité. A mes yeux, avec le statut de vérité provisoire partagée, en évolution, nous nous octroyons une liberté intellectuelle essentielle car nous maintenons dans la perspective de notre regard intelligent un horizon de potentialités qui ne peuvent que nous animer et aussi nous prévenir des contradictions et des impasses obscurcissant.

Prenons l’exemple suivant : dans l’article de ‘La Recherche’, RP affirme : « Les nombres complexes sont déjà un élément central en mécanique quantique mais, étant donné la puissance de l’analyse complexe, je sentais que les nombres complexes devaient avoir également un rôle dans la description fondamentale (sic) de la nature… » D’un autre côté C. Bender nous dit : « Mon approche est de comprendre ce qui se passe dans le monde réel – où nous vivons – en étudiant le monde complexe, qui inclue le monde réel comme cas spécial. Tout ce que les physiciens observe est sur l’axe des réels. Mais l’axe des réels est juste une ligne dans le plan infini des nombres complexes. Le plan complexe nous permet de comprendre ce qui se passe dans le monde réel. » Voir l’article du 5/11/2016. De même dans l’article du 17/06/2015, je rapporte que des physiciens australiens ayant pu, pour la première fois, évaluer que l’effet tunnel s’opérait effectivement en 10-18s alors ils ont pu substituer, dans les équations correspondantes, le temps imaginaire usuel par le temps réel. Le temps imaginaire signifiait le temps de notre ignorance qui est maintenant tout récemment levé.

L’absence d’horizon de potentialités qui inhibe les élans de notre pensée scientifique se retrouve dans le titre et les sous-titres de l’article. Quand il est demandé : « How much of physics is real ? » et « How much of reality is physics ? », on doit se demander qu’est-ce qui justifie que l’on puisse s’interroger en terme quantitatif sur ce qui serait définitivement réel. Quel sens cela a de penser la réalité comme une étendue avec une frontière repérable ? Quelle est cette conception statique et limitée qui transparait à travers ce type de questionnement ? Quelle est cette fatigue voire cette paresse intellectuelle que cela met en évidence ?

Enfin, la question suivante : « Y a-t-il beaucoup de choses importantes à propos de la réalité que la physique ne peut pas expliquer ? », mérite comme réponse : « Quel sens cela a de se demander ce que la physique ne saurait présentement cerner, expliquer ? » La pensée en physique est en mouvement perpétuel, elle ne peut prétendre accéder à la réalité, par contre cela est son leitmotiv. La réalité galiléenne a été chamboulée par la réalité newtonienne qui le fut par la réalité einsteinienne et pourquoi cela devrait s’arrêter. Il n’y a en fait que des réalités provisoires qui ne sont de fait que des croyances qui se succèdent.

Physics may be a small but crucial fraction of our reality

Just how much of physics is real, and how much of reality is physics? That’s a theme uniting four major new books in the field

Are there many important things about reality physics can’t explain?

David Maurice Smith/Oculi/Agence VU/Camera Press

By Richard Webb

“WHAT fraction of what you know that is important is physics?” Richard A. Muller strikes an unexpected note with this question towards the end of his book Now. A veteran of particle physics and cosmology behind at least two Nobel-prizewinning strands of research, Muller isn’t pouring cold water on an entire discipline. But he is addressing a theme that, one way or another, exercises him and the authors of three other major new books: how much of physics is real, and how much of reality is physics?

There’s reason enough for the navel-gazing. In one sense fundamental physics is flowering like never before. In another, it is in one of its deepest funks. The past five years have seen three great experimental advances: the discoveries of the Higgs boson and gravitational waves, as well as the Planck satellite’s meticulous measurements of the cosmic microwave background. But all have served to confirm existing pictures of reality: the standard model of particle physics based on quantum field theory, and the standard cosmological model of a big bang universe rooted in Einstein’s theory of gravity, the general theory of relativity.

Yet the deficiencies of those two theories are obvious. Not only do they contradict each other, they contradict how we feel reality should behave. Can we do better?

Muller’s starting point is time, the most obvious place where our perception of reality and the description given by our physical theories diverge. Relativity robbed reality of a flowing time that neatly separates past from future. It denies the existence of any privileged spot from which we can measure time’s passage.

How can a physical theory predict things so at odds with our experience? In Muller’s words, physics should explain what we see in reality, not contradict it.

His is a thoughtful, thought-provoking and accessible book that blends concepts from relativity, thermodynamics and quantum theory to elucidate how physics got where it is, and the missteps that might have led it there. It is less about the destination, more about the journey. Muller’s big reveal – that new time might be continuously created in the aftermath of a 4D big bang – may or may not stand up to scrutiny, as he freely admits.“In one sense fundamental physics is flowering like never before; in another, it is in one of its deep funks”

Something similar could be said of Carlo Rovelli’s pet idea. Author of last year’s bestseller Seven Brief Lessons on Physics, Rovelli is a leading light in loop quantum gravity, a theoretical endeavour which, after string theory, is the second most popular route to reconciling quantum theory and general relativity.

As such he is part of an honourable tradition among physicists of seeking a better understanding of reality through the unification of physical theories. Bouts of unification have spurred on progress in physics ever since the 17th century when Newton married heavenly and Earthly movements in his laws of gravitation and motion. At each stage, new conceptual tools were introduced – particles, waves, fields – that, mathematically at least, help us to order and predict the world’s workings.

Each has required sometimes cherished preconceptions to be reconsidered. Loop quantum gravity is no exception. Again, you have to unpick space-time, the unified fabric of reality that Einstein’s relativity stitched together. At the infinitesimal level of the Planck scale, space becomes a pixelated, rough, quantum foam. That, incidentally, also supplies time with a new guise: the direction in which it flows emerges from the order in which processes happen on unobservably small scales within this foam.

As radical as this sounds, Rovelli makes a convincing argument that this is the conservative option compared with the extra dimensions, fields and particles demanded by string theory and its widely trailed precursor, supersymmetry. Newton, Einstein and co did not try to “guess” new theories, argues Rovelli, but built on what was known. Quantum theory and general relativity are “right” theories on their respective scales of the small and the large – the trick is to do as little damage to both while melding them into a unified whole.

In the best tradition of scientists writing popular science, Rovelli marries physical understanding with a light touch and a literary eye for incidental detail. Take the case of the Belgian priest-astronomer Georges Lemaître, who in 1951 successfully dissuaded Pope Pius XII from equating the big bang (Lemaître’s baby more than anyone’s) with the biblical act of creation in Catholic dogma. His argument was that it would be embarrassing should it turn out that the big bang wasn’t actually the beginning – an act of extraordinary foresight, given that contemporary ideas about the existence of a multiverse were decades away.

Quantum gravity

Yet in some senses Rovelli’s easy, readable style pulls the wool over our eyes. You could be forgiven for concluding that a working theory of loop quantum gravity as good as exists, and that experimental verification is around the corner. Would it were that simple.

And a blunter question emerges. Quantum gravity is unlikely to produce a more intuitive picture of reality than we have now, and its predictions will probably only kick in at energies so huge and distances so small it is hard to see how we might probe the theory experimentally or find a practical use for it. Never say never, of course, and knowledge for knowledge’s sake has its value – but in what sense is such a theory a useful guide to reality?

Let’s roll back a bit: if we’re making intuition the measure of a theory, where does that leave quantum theory? It’s given us lasers and computers, so on some level it is unquestionably useful – even if the old line that if you think you understand it, you haven’t understood it, is both true and has a fittingly fuzzy origin.

In his new book QBism, Hans Christian von Baeyer bangs the drum for a new “Quantum Bayesian” interpretation: the uncertainties that apparently haunt the quantum world before it is measured have little to do with reality being uncertain, and everything to do with us being uncertain about reality. In QBism, quantum theory becomes a theory not of the observed, but of the observer.

Von Baeyer does a passable job of setting out the stall, although his more narrowly focused book tends to get lost in the details at the expense of the big picture. But QBism remains a minority sport. Is that, to return to Muller’s critique, because of the inability of physicists to recognise or to accept the limits of their pretensions to describe reality?

“Ultimately physics only describes that part of reality that is susceptible to mathematics”

This theme is taken up by Roger Penrose in Fashion, Faith and Fantasy in the New Physics of the Universe – by far the least easy read of the four books, but one that gives us a valuable insight into what one of the most prominent theoretical physicists of recent times makes of reality’s relationship to ideas in quantum theory, standard cosmology, and theories that pretend to replace them.

So where does all this leave us? Ultimately, physics only describes the part of reality that is susceptible to mathematics – as Muller points out, not least because Kurt Gödel’s theorems of the 1930s made it clear that any mathematically based theory will always be incomplete. Efforts such as the push to a quantum theory of gravity may bring us to a more complete understanding, but it is likely our vista will remain blurred. No doubt physics is important, but it could be there is much that is important about reality that is not physics

 

           

 

[1] Mon concept d’’Instant Présent’ que je mets en exergue depuis une dizaine d’années a rencontré quelques cousins auxquels j’attribue un cousinage de genèse : le ‘Moment Présent’ de L. Smolin, mais sans valeur numérique attribué ; le ‘Temps Créatif’ de N. Gisin, mais sans évaluation numérique ; ultimement le ‘Now’ de R. A. Muller, qui à mon sens ne peut avoir le moindre lien de parenté avec les concepts précédents.

Partager cet article
Repost0
20 novembre 2016 7 20 /11 /novembre /2016 15:08

Cachée dans un secteur caché.

‘La matière noire serait cachée dans un secteur caché.’ : tel est le titre d’un article daté du 11/11/2016, dans phys.org, qui commente ainsi l’article original récemment publié dans le Physical Review Letters. Cet article relate les travaux de ‘cordistes’, que l’on désigne ainsi ceux qui travaillent sur la théorie des cordes et conséquemment sur la théorie des paysages.

Selon eux la matière noire est constituée de particules occupant l’un des multiples (une centaine) ‘secteurs cachés’ qui sont pensés exister (sic) en dehors du ‘secteur visible’ qui lui inclut entièrement notre monde visible. « Les secteurs cachés sont nommés ainsi parce que les particules de ces secteurs sont insensibles aux forces fortes et électrofaibles comme celles du secteur visible, ce qui réduit leur interaction avec le secteur visible. Ainsi les particules de secteurs cachés pourraient être tout autour de nous et nous n’avons aucun moyen de les détecter. » Alors que la publication de McGaugh, il y a quelques semaines, vient de fragiliser les fondements de la théorie de la matière noire, il se trouve que cet article apparaît pour sauver cette théorie avec un argument principal statuant qu’elle est vraie mais elle est pour nous absolument et définitivement invisible. Définitivement invisible ! pas tout à fait car selon eux il devrait exister une porte par laquelle on pourrait conjecturer une réalité de l’existence de la matière noire. Cette porte ils ne l’ont pas encore mise en évidence mais patience cela va venir ! Les auteurs de l’article montrent (sic) que les WIMPs pourraient théoriquement se désintégrer en une ou plusieurs particules plus légères d’un secteur caché qui pourraient encore se désintégrer en particules plus légères d’un autre secteur caché… Donc, ils en déduiraient que les WIMPs supersymétriques ne seraient pas de bons candidats de particules de matière noire parce qu’elles sont typiquement instables et il faudrait aller chercher dans d’autres secteurs cachés de particules qui seraient de meilleurs candidats pour la matière noire.

Je cite encore avant de me prononcer sur ce genre de fonctionnement, de conception, de la connaissance en physique, de sa dynamique et partant de son devenir : « Le paysage des cordes inclut un nombre très grand de théories possibles de modèle à basse énergie (le Modèle Standard des particules élémentaire constituant le Modèle connu de référence). Néanmoins nous avons trouvé que presque tous les paysages indiqueraient une instabilité certaine des WIMPs. Une telle conclusion signifie que si nous pensons sérieusement inclure notre univers visible dans une théorie des cordes nous devons considérer sérieusement la possibilité naturelle que la matière noire réside dans un secteur cachée… »

Ce qui est absurde, aberrant, avec ce type d’assertion, c’est qu’il est prétendu que les physiciens savent tout : même ce qui est définitivement inaccessible à leur connaissance. Je crains que ce soit le propre de beaucoup d’adeptes de la théorie des cordes qui, depuis le début l’avènement de cette théorie (années 1970), n’a jamais pu être soumise à une quelconque épreuve de vérification expérimentale. Elle est pure développement théorique mathématique – pourquoi pas – et à mes yeux ce qui est inquiétant c’est qu’elle prétend figer dans le marbre des mathématiques l’exclusion de tout autre alternative. Cela conduit à asphyxier toute velléité de faire émerger de nouveau(x) paradigme(s). Alors que l’attitude, à mon sens, la plus pertinente, étant donnée l’état de la recherche de la matière noire et conséquemment la valeur des travaux de McGaugh et Lelli, c’est de collectivement réfléchir en ces termes : bref nous sommes probablement sur une piste erronée, analysons sur des bases différentes la compréhension des dynamiques jusqu’à présent observées des différentes structures qui composent notre univers. De plus nous ne pouvons pas ignorer plus longtemps certains résultats obtenus par Milgrom, sans devoir pour autant opter, a priori, pour son postulat initial.

Il est sérieusement régressif de penser que l’être humain, ici le physicien, est doté aujourd’hui d’une capacité à penser aboutie et ainsi son aptitude à évoluer serait révolue. Il n’aurait plus à apprendre de ses tâtonnements, de ses erreurs. Ces cordistes sont-ils inconscients au point de considérer que ce qu’ils appellent les secteurs cachés réels, mais inobservables, ne sont rien d’autres que des domaines de connaissances non encore élucidés mais qui le seront parce que le propre de l’homme est d’accéder à une connaissance sans fin de nouveaux territoires de compréhension des lois de la nature. Ces cordistes qui véhiculent de tels concepts apparaissent comme des disciples de Freud et de Lacan avec leur théorie de l’inconscient mais la psychanalyse concerne un champ de recherche, certes très intéressant, mais totalement extérieur à celui de la physique. La physique ne procède pas par topiques.

A maintes occasions, ces dernières décennies, il fut tenté d’exploiter les neutrinos pour combler les incompréhensions que nous avons de la dynamique des différentes structures que l’on a identifiées dans notre univers. Ces différentes opérations de comblement furent régulièrement abandonnées puisqu’à chaque fois incohérentes. Ces tentatives régulièrement infructueuses étaient envisagées à cause de notre connaissance franchement approximative des neutrinos. En conséquence la bonne démarche consisterait, non pas à inventer des secteurs cachées mais à percer les énigmes posées par les neutrinos. Déjà, poser correctement le problème : quelle est la physique que nous révèlent les neutrinos plutôt que : quelles sont les lois physiques – sous-entendus du modèle standard – auxquelles répondent les neutrinos ? En débusquant cette autre physique nous ferons un sérieux pas en avant pour accéder à la compréhension de la dynamique dans notre univers

Partager cet article
Repost0
15 novembre 2016 2 15 /11 /novembre /2016 14:35

A chacun sa tranchée

La publication récente, de très grande qualité, des résultats concernant l’observation des variations de vitesse de déplacement des étoiles dans 153 galaxies de toutes sortes (formes, masses, densités) obligent à une réévaluation de la validité de la théorie de la Matière Noire ainsi que celle de la théorie Mond. Les résultats des observations publiés mi-octobre par S. McGaugh et F. Lelli et les autres a provoqué un tir groupé de publications que les différents auteurs proposent d’interpréter suivant leur grille de lecture très déterminée par leur croyance préalable. Pour certains (majoritaire aujourd’hui) sur la base de leur croyance définitive en la théorie de la Matière Noire et pour les autres plus disponibles à considérer positivement la théorie Mond. Ces deux groupes ont conscience que de toute façon le Modèle Standard de la Cosmologie va devoir être repensé, conduisant à une réévaluation de celui-ci avec des conséquences plus ou moins importantes voire radicales.

Il y a deux types d’articles génériques marquant une différence contrastée d’analyse et d’interprétation des résultats de McGaugh. Il y a d’un côté des articles qui ont pour titre : ‘Des galaxies défient la théorie de la matière noire’ et ‘Des corrélations entre la rotation des galaxies et la matière visible laisse perplexe les astronomes’ et de l’autre côté des articles qui titrent : ‘Les galaxies spirales défient la matière noire’ et ‘Connection entre le côté brillant et noir des galaxies.’ Dans ces derniers on constate que le décryptage des résultats est proposé dans le cadre de la théorie de la Matière Noire et c’est ce que je me propose d’évoquer en premier temps. Je me réfèrerai principalement aux arguments qui sont développés dans l’article : ‘Connection…’ de A. Kosowsky, du 9/11, dans phys.aps.org, car le raisonnement apparemment implacable qu’il développe est parfaitement traçable dans le sens où, selon lui, il n’est pas possible d’interpréter les nouveaux résultats en dehors de la théorie de la matière noire. Idem pour l’autre : ‘Des galaxies spirales…’.

Alors que les observations de McGaugh rapportent qu’il y a une relation directe entre la variation de l’accélération centripète des étoiles (V2/R : V = vitesse tangentielle et R = distance du centre de la galaxie) et la variation de la quantité de matière visible (baryonique) et donc qu’il y a une corrélation entre les deux, Kosowsky nous dit : « Il a été montré une simple relation entre l’accélération rotationnelle de ces galaxies et la distribution de la matière ordinaire (baryonique) qu’elles contiennent. Puisque (sic) la matière noire est la principale composante de ces galaxies – et donc le principal déterminant de la rotation de la galaxie – cette découverte implique que la distribution de la matière conventionnelle dans le disque spécifie le profil de la densité du halo de la matière noire qui l’entoure. » Il faut rappeler que les résultats de McCaugh sont identiques quelle que soit le type de galaxie : qu’elle soit massive ou non, spirale ou non, brillante ou moins. Malgré tout, Kosowsky continue d’interpréter les résultats d’une manière bornée par une conception qui privilégie, sans aucun questionnement de sa part, la théorie de la matière noire. Ainsi il affirme : « La loi de Tully et Fisher a montré une corrélation entre la matière visible et la matière noire : la luminosité d’un disque galactique, proportionnelle à sa masse de matière visible, dépend d’une loi de puissance de sa vitesse de rotation aux grands rayons, essentiellement déterminée par son contenu en matière noire (sic). Et de plus grâce à McGaugh qui a montré une remarquable relation simple entre la distribution radiale de la matière visible dans le disque des galaxies et la dépendance radiale de la vitesse de rotation, cela confirme qu’il y a une corrélation (sic) entre la matière visible et la matière noire. » Cette interprétation est franchement erronée car, au contraire, la remarquable loi de Tully-Fisher (empirique : fruit d’observations) constituerait plutôt une première validation de la théorie Mond. Ce qui est impressionnant chez Kosowsky c’est qu’il ne peut pas penser la dynamique des galaxies en dehors d’une existence problématique de matière noire qui, jusqu’à présent, n’a jamais été observée d’une façon ou d’une autre (voir article sur le blog du 29/07/2016 : ‘Abandonner l’hypothèse de la matière noire’). N’oublions pas que la physique est une science de l’observation en conséquence il n’est pas possible d’affirmer que les vitesses excessives de plateau des étoiles périphériques – en se fiant uniquement à la loi de Newton – ne peuvent s’expliquer qu’avec la matière noire qui jouerait le rôle de glue alors que la publication nouvelle nous dit qu’une seule chose : corrélation entre la distribution radiale de la matière visible et la variation de la vitesse de rotation et rien de plus.

Plus impressionnante encore est la lecture par Kosowsky des résultats quand il constate que lorsque l’accélération centripète est supérieure à 3×10-9m/s2 il y a accord entre la valeur prédite des vitesses par le calcul avec la loi de Newton, soit aN, et celles observées, mais si l’accélération est plus petite alors la vitesse observée est plus grande que la prédite. On remarquera qu’une telle valeur pivot, toujours la même quelle que soit le type de galaxie, a été postulée par Milgrom, il y a plus de trente ans mais avec une valeur différente : 1,2×10-10 soit 25 fois plus petite. Est-ce que cette différence de valeur a un sens ou a-t-elle vocation à s’annuler ? On verra bien. (Il est étonnant qu’aucun autre article de compte rendu n’évoque cette valeur pivot de 3×10-9)

Avec cette remarque finale : « Une possibilité pour expliquer les nouvelles observations c’est de considérer que celles-ci sont relatives à une fin naturelle (sic) de l’évolution astrophysique des disques des galaxies et de la matière noire. » on peut constater que l’auteur est prêt à avancer des explications inédites, arcbouté qu’il est dans sa tranchée pour justifier la théorie de la matière noire.

Evaluons pourquoi il y tient à cette théorie, et c’est à la fin de son article que cela est explicite. Subsidiairement l’auteur évoque donc une explication alternative qui est celle de Mond (Modified Newtonian Dynamics) : « Il se pourrait que la loi de Newton ne convienne pas. La relation d’échelle pourrait indiquer une modification de la loi de la force de gravitation de Newton plutôt que d’introduire de la matière noire. M. Milgrom a défendu cette possibilité depuis 1983, et J. Bekestein en 2004 a démontré que cette loi modifiée pouvait bénéficier d’une propriété de covariance et devenir compatible avec la loi de Relativité Générale. La modification de la gravité de Newton évite les difficultés de corrélation entre la matière noire à la matière visible dans les galaxies (pour être clair, en fait, avec Milgrom il n’y a pas (plus) de matière noire). Mais si une modification de la gravité peut reproduire les observations de la dynamique des galaxies, cela conduit à des difficultés sérieuses quand on veut faire coïncider des observations obtenues à des échelles cosmologiques différentes, incluant le développement des structures, les amas de galaxies, l’effet lentille gravitationnelle, etc… (ceci est vrai bien que cela soit d’une façon de moins en moins dramatique car la théorie Mond est ajustable).

Je réserve pour la fin l’explication pour laquelle on assiste à une telle résistance, à un tel aveuglement, de la part d’une majorité de physiciens : « La relation de l’accélération observée dans les disques galactiques présente un clair challenge pour la simulation de la formation de galaxies dans le cadre du Modèle Standard de la Cosmologie. Cela conduira à une compréhension plus profonde des processus astrophysiques de la formation des galaxies, ou – peut-être possiblement – à une révision substantielle des théories physiques fondamentales. » Voilà cela est dit.

Dans l’autre article générique de Sean Bailly on peut lire : « Cependant, si Mond est la solution pour expliquer les courbes de vitesse des galaxies et que la matière noire n’existe pas, il reste à expliquer toutes les autres situations où la matière noire apporte (sic) une explication efficace. » Pourquoi est-il possible de proposer une telle réponse puisqu’on ne sait pas ce qu’est la matière noire et elle n’a jamais été détectée ? On est ici dans la doctrine et non pas dans la démarche objective, dite scientifique, et ça fait longtemps que cela dure.

L’autre tranchée a été creusée méthodiquement, empiriquement, depuis 1983, par M. Milgrom. Son hypothèse est franchement iconoclaste car il propose de modifier la loi de Newton lorsque l’accélération centripète devient < 1,2×10-10m/s2. Iconoclaste parce qu’il détruit le caractère de loi universelle, qualité prêtée à la loi de Newton (et n’est pas remise en cause par la R.G. l’héritage étant assumé). Ainsi les physiciens devraient considérer que le monde n’est pas ordonné comme ils le pensent, il serait donc plutôt configuré comme un jeu de poupées russes. Ou bien le monde est parfaitement ordonné, unique, mais les physiciens n’auraient pas (encore) accédé à la loi qui régit cette unité. En l’occurrence, quelle que soit la réalité de ce monde, on comprend pourquoi les physiciens n’étaient pas (ne le sont toujours pas) accueillant à l’égard de cette hypothèse de Milgrom. Quoi qu’il en soit avec Mond la théorie de la matière noire est annulée et progressivement, en 33 années, Milgrom obtient des confirmations entre des observations et ses prédictions théoriques.  Elles ne sont toujours pas suffisantes pour que l’hypothèse Mond soit adoptée mais elle devrait être mieux prise en considération par un plus grand nombre de physiciens. Comme le précise Milgrom dans un article dans le NewScientist du 3/05/2014 qui a pour titre : ‘Il est temps de renoncer à la matière noire’, « La théorie Mond est nettement plus économique. Pour chaque galaxie, les théoriciens de la matière noire doivent définir au fur et à mesure la quantité et la distribution de matière noire. Ainsi, si on comprend 10 galaxies, nous ne connaissons toujours pas la onzième. La matière noire explique après coup. Mond prédit les choses à l’avance. Ceci est la clé. » Cette remarque de Milgrom est pertinente car si les physiciens sont rebutés par la rupture de l’universalité de Newton, ils se condamnent au bricolage avec la matière noire. Dans l’article on lui demande : « Est-ce que cela vous embête que la plupart des physiciens continuent de rejeter votre idée ? » ; il répond : « Il y a 15 ans, je trouvai cela consternant. Maintenant, je suis au-dessus de ça. Dans les récentes années, environ 700 publications exploitant Mond ont été publiées. Cela est vraiment encourageant. »

Maintenant nous sommes dans une période cruciale car les observations publiées par McGaugh pourraient valider Mond ou au moins confirmer des convergences significatives avec et remettre en cause le modèle de la matière noire. Les articles génériques de points de vue plus objectifs nous disent : « Les résultats nous parviennent avec surprise parce qu’ils ne sont pas prédits par le modèle de matière noire conventionnelle. » Milgrom a malgré tout exprimé un sérieux mécontentement parce que McGaugh ne lui a pas attribué franchement la paternité de ces résultats qui sont, selon lui, la confirmation de sa théorie. Mais on vérifie que la théorie de la matière noire a étonnamment imprégné les esprits car McGaugh le confirme : « Il veut garder l’esprit ouvert en pointant l’idée que des formes exotiques de matière noire par exemple superfluides ou même des dynamiques complexes des galaxies pourraient être consistantes avec les données. Néanmoins, il ressent aussi qu’il y a un rejet implicite à l’égard de la théorie Mond parmi les membres de la communauté scientifique. »

McGaugh est prêt à mettre un pied dans la tranchée de M. Milgrom mais ses collègues retiennent l’autre pied : « L’essentiel de notre compréhension courante de la cosmologie repose sur la matière noire. Il se pourrait que mes résultats menacent les modèles de la formation des galaxies et de la formation des structures aux grandes échelles. Je le pense mais pas mes collègues. »

Maintenant essayons de comprendre l’hypothèse originale qui permettrait de rendre compatible à la fois les résultats de Mond et l’hypothèse de la matière noire. Il s’agirait de prendre en compte le modèle de la matière noire exotique et ainsi assister à une fraternisation entre les occupants des deux tranchées. L’axion serait typiquement une particule exotique. Ce qui est important de remarquer c’est qu’elle ne fut pas inventée pour les besoins de la cause de cette hypothèse, non elle précède celle-ci. Ce fut au tout début des années 1980 que dans le cadre de la théorie de la chromodynamique quantique (QCD) que le formalisme prêté à cette interaction faisait apparaître une violation de CP : non observable concrètement, aussi il fallut colmater cette faille du formalisme et ce fut l’hypothèse de l’axion qui reçut une approbation majoritaire de la part des physiciens. Précisons tout de suite qu’elle n’a jamais encore été observée, si malgré tout elle existe, voyons pourquoi. Sa masse estimée est très petite entre 1 meV et 1 µeV, elle est neutre, elle est supersymétrique. Dotée de ces trois paramètres, elle n’a pas jusqu’à présent été détectée dans les trois détecteurs configurés à cette fin. Il semblerait qu’il lui fut attribué d’autres propriétés pour qu’elle hérite de la qualification de matière noire aussi exotique. Donc ce supplément de propriétés serait pour les besoins de la cause et à mes yeux cette nouvelle invention réduit la fiabilité du sujet. Allons quand même jusqu’à ce qui justifie le terme d’exotique. L’axion interagit très faiblement avec la matière ordinaire et serait présente dans l’univers avec une densité de 107/cm3 (rappelons-nous que pour les photons c’est 400 et les neutrinos 300).  D’après B. Famaey, dans l’article de Futura science du 15/10 : « Ces particules pourraient se comporter comme un superfluide sans viscosité en dessous d'une certaine température critique. Cette température critique serait d'autant plus élevée que la densité est grande. Cette transition de phase se produirait justement au niveau des galaxies, lorsque la matière noire est beaucoup plus froide, un peu comme un gaz qui se condense en donnant des gouttes de liquide.

Des ondes sonores dans ce superfluide sont décrites par des phonons, comme dans le cas des solides, d'un point de vue quantique. Il est alors possible de montrer que ces phonons peuvent interagir avec la matière normale comme si la force de gravité était modifiée en donnant précisément les phénomènes que l'on trouve dans le cadre de Mond.

Au moment où le rayonnement fossile a été émis et au niveau de la formation des amas de galaxies et des grandes structures qui les regroupent, la matière noire est, bien sûr, non relativiste mais quand même trop chaude pour se comporter comme un superfluide, de sorte que Mond ne s'applique pas. »

Le sujet est ouvert, il n’est pas prêt de se refermer, nous aurons donc l’occasion d’en reparler.

Partager cet article
Repost0
9 novembre 2016 3 09 /11 /novembre /2016 05:00

A nouveau : prenons date

A nouveau, parce que j’ai déjà posté un article le 20/09/2012 : ‘Prenons date’ qui avait été suivi par l’article du 02/11/2012, dans lequel je soulignai : « Bref aucune opération de mesure physique ne peut être instantanée, elle implique obligatoirement une durée. » Cette affirmation est totalement corrélée à mon hypothèse : TpS, point aveugle de l’intelligence humaine, et donc les lois de la physique que nous concevons et confirmons implique que leur observation se situe sur une durée supérieure à TpS. Les lois de la physique qui mettent en jeu des durées au deçà de la valeur de TpS ne sont pas accessible à notre entendement et encore moins celles qui seraient de l’ordre de l’instantanéité. Selon mon point de vue ceci expliquerait pourquoi la problématique de l’intrication nous semble encore mystérieuse. Cela n’est pas le propos principal de l’article actuel mais celui du constat que les lois qui font sens pour nous aujourd’hui sont celles qui sont ‘franchement’ en dehors de l’instantanéité bien qu’il fût cru jusqu’à présent exactement le contraire.

            L’article du 7/11/2016 dans phys.org : « Des scientifiques présentent les mesures actuelles les plus précises de saut quantique. » Dans cet article on peut lire la phrase qui corrobore mon hypothèse : « Habituellement, ces processus étaient pensés se produisant instantanément (sic), d’un moment à l’autre. »

            Je joins l’article original en copié collé à la fin de celui-ci, toutefois je veux mettre en exergue ses éléments significatifs. « L’expérience consiste à utiliser un faisceau laser qui heurte un atome d’hélium. Un des électrons est expulsé de l’atome, l’autre électron peut changer d’état quantique. » ; « Quand un système quantique change d’état, cela s’appelle un saut quantique. Habituellement, ces sauts quantiques sont considérés comme se produisant instantanément. Maintenant, des nouvelles méthodes de mesure de haute précision nous permettent d’étudier l’évolution temporelle de ces sauts quantiques. A l’échelle de l’attoseconde (10-18seconde), la structure de leur durée d’évolution devient perceptible. C’est la mesure d’une durée de saut quantique la plus exacte obtenue aujourd’hui. »

            Il y a quatre ans j’avais proposé ce résultat comme une conséquence de l’hypothèse TpS, et cet article conforte le bien fondé de celle-ci, toutefois je ne peux pas tirer la conclusion que mon hypothèse est définitivement prouvée. Une conclusion pourra être statuée lorsque nous constaterons un processus par lequel l’intelligence humaine devient aveugle. Détecter un processus est essentiel car expliquer comme je le propose : que la propriété de l’intrication est pour nous inexplicable parce que l’intrication entre deux objets se réalise en une durée < TpS n’est pas probant car d’autres commentaires sont actuellement toujours possibles et ils ne manquent pas. On pourrait conjecturer que le Black-Out rencontré avec le run de 2016 au LHC, soit un révélateur car on peut supposer que le domaine d’énergie mis en jeu cette année, pour la première fois, conduise à la production d’événements dont leur durée de vie soient extrêmement courts et conséquemment n’étant pas préparé à cette éventualité, les physiciens n’ayant pas placé a priori leur pensée à la confrontation à cette situation, c’est un énorme sentiment de frustration qui s’est imposé.

            Pour ma part, en ce qui concerne le phénomène de l’intrication, je reconnais que ma proposition d’expérience ré-évoquée à la fin de l’article du 5/10/216 : ‘NOW’ est difficile à réaliser.  De même prendre appui sur la conjecture de L. Susskind et J. Maldacena : ER = EPR ne permet pas actuellement de faire jaillir une démonstration qui prouverait la validité de mon hypothèse.

            Mon estimation de TpS est de l’ordre de 10-25s au maximum. Disons que la difficulté de découvrir le boson de Higgs, entre autres, provient de sa durée de vie très courte, peut-être 10-22s, donc laissant une trace dans le détecteur très courte. Dans le détecteur Ligo, la fluctuation minimale de distance entre les miroirs à laquelle l’appareil est encore sensible est de 10-18m. En dessous de cette valeur l’appareil est muet pour l’observateur. Pour un photon 10-18m est parcouru en 3×10-27s.

Copie de l’article original :

Scientists present the most accurate time measurements of quantum jumps to date

November 7, 2016

A laser pulse hits a helium atom. One of the electron is ripped out of the atom, the other electron may change its quantum state.

When a quantum system changes its state, this is called a quantum jump. Usually, these quantum jumps are considered to be instantaneous. Now, new methods for high-precision measurements allow us to study the time evolution of these quantum jumps. On a time scale of attoseconds, there time structure becomes visible. It is he most accurate time measurement of quantum jumps to date.

Quantum particles can change their state very quickly—this is called a "quantum jump". An atom, for example, can absorb a photon, thereby changing into a state of higher energy. Usually, these processes are thought to happen instantaneously, from one moment to the next. However, with new methods, developed at TU Wien (Vienna), it is now possible to study the time structure of such extremely fast state changes. Much like an electron microscope allows us to take a look at tiny structures which are too small to be seen with the naked eye, ultrashort laser pulses allow us to analyse temporal structures which used to be inaccessible.

The theoretical part of the project was done by Prof. Joachim Burgdörfer's team at TU Wien (Vienna), which also developed the initial idea for the experiment. The experiment was performed at the Max-Planck-Institute for Quantum Optics in Garching (Germany). The results have now been published in the journal Nature Physics.

The Most Accurate Time Measurement of Quantum Jumps

A neutral helium atom has two electrons. When it is hit by a high energy laser pulse, it can be ionized: one of the electrons is ripped out of the atom and departs from it. This process occurs on a time scale of attoseconds - one attosecond is a billionth of a billionth of a second.

"One could imagine that the other electron, which stays in the atom, does not really play an important part in this process—but that's not true", says Renate Pazourek (TU Wien). The two electrons are correlated, they are closely connected by the laws of quantum physics, they cannot be seen as independent particles. "When one electron is removed from the atom, some of the laser energy can be transferred to the second electron. It remains in the atom, but it is lifted up to a state of higher energy", says Stefan Nagele (TU Wien).

Therefore, it is possible to distinguish between two different ionization processes: one, in which the remaining electron gains additional energy and one, in which it remains in a state of minimal energy. Using a sophisticated experimental setup, it was possible to show that the duration of these two processes is not exactly the same.

"When the remaining electron jumps to an excited state, the photo ionization process is slightly faster - by about five attoseconds", says Stefan Nagele. It is remarkable how well the experimental results agree with theoretical calculations and large-scale computer simulations carried out at the Vienna Scientific Cluster, Austria's largest supercomputer: "The precision of the experiment is better than one attosecond. This is the most accurate time measurement of a quantum jump to date", says Renate Pazourek.

Controlling Attoseconds

The experiment provides new insights into the physics of ultrashort time scales. Effects, which a few decades ago were still considered "instantaneous" can now be seen as temporal developments which can be calculated, measured and even controlled. This does not only help to understand the basic laws of nature, it also brings new possibilities of manipulating matter on a quantum scale.

Read more at:
http://phys.org/news/2016-11-scientists-accurate-quantum-date.html#jCp

Partager cet article
Repost0
5 novembre 2016 6 05 /11 /novembre /2016 12:25

Merci Carl Bender

Peut-être ai-je trouvé une confirmation intéressante à propos de l’intuition développée, dans l’article du 15/10/2016 : « Physique théorique : la nouvelle physique de l’empereur. », et qui mériterait d’être prolongée. Dans cet article, je justifie ma proposition d’expérience avec la conviction que les résultats que nous rencontrons en mécanique quantique pourraient résulter de déterminations de notre fonctionnement cérébral. Déterminations qui sont le fruit de l’évolution de l’être humain depuis la profondeur du temps. Puisque le moteur de l’évolution est constitué par l’obligation de survie au regard des épreuves imposées par les propriétés de la nature, l’espèce humaine a été façonnée par sa capacité à ‘appréhender’, ‘comprendre’, la nature de ces épreuves pour, les présupposer, les affronter, les contourner, les situer, etc... En prenant en compte les résultats des travaux et des analyses proposés par les paléoanthropologues qui deviennent de plus en plus circonstanciés, j’ai extrait l’idée que la faculté ‘d’intellectualiser’ (intérioriser) les données empiriques de l’espace et du temps par nos ancêtres archaïques, c’est-à-dire pour ceux-ci se situer physiquement dans l’environnement proche de leur milieu naturel accessible, devait être affirmée comme un facteur favorable de sélection.

En conséquence l’imprégnation de notre conception de l’espace et du temps, de l’espace-temps, détermine notre regard intellectuel actuel de la Nature, qui évidemment à l’échelle classique ne met pas trop en évidence des interprétations conflictuelles car notre regard intellectuel s’est forgé à cette échelle, mais il en est tout autrement à l’échelle de l’infiniment petit. Je propose de considérer l’hypothèse que ces interprétations conflictuelles sont révélées par ce que l’on désigne les bizarreries de la mécanique quantique.

Ma proposition d’expérience vise à tenter de vérifier si cette hypothèse tient la route au moins sur la bizarrerie caractérisée par l’énigme de la superposition des états : onde/corpuscule, corrélée à : pas d’information/information, spatio-temporelle, à la disposition de l’observateur. A ce sujet voir, par exemple, l’article de A. Ananthaswamy, du 02/11/216, sur le site du NewScientist : « Classic quantum experiment could conceal theory of everything”. Ma proposition d’expérience est exactement limitée à cette corrélation, alors que le spectre des bizarreries pour notre capacité d’entendement traditionnelle est très étendu. Par défaut, je privilégie une approche pragmatique en considérant que suivant le résultat obtenu en première instance soit on considère que l’hypothèse qui fonde l’expérience a de la valeur et on persévère, soit on constate qu’elle n’a pas de valeur et on bifurque vers d’autres hypothèses.

En fait, mon hypothèse non encore exprimée jusqu’à présent est bien plus radicale puisque je conçois que c’est notre représentation classique de l’espace-temps qui est la cause d’autres bizarreries de la M.Q. Parmi celles-ci : la superposition des états des niveaux discrets d’énergie d’un atome d’hydrogène par exemple pourrait être expliquée. A priori, il n’est pas évident de corréler directement ce problème avec celui de la problématique de l’espace-temps tel que nous nous le représentons.

C’est en découvrant un article du 1/11, dans phys.org que j’ai considéré pouvoir évoquer ce sujet maintenant. Cet article s’intitule : ‘Un physicien distingué pour avoir trouvé une nouvelle symétrie dans l’espace et le temps.’ Le distingué est Carl Brender : physicien-mathématicien ou mathématicien-physicien, c’est selon… et la distinction est le ‘Prix Dannie Heineman’ qui a précédemment distingué : S. Hawking, M. Gell-Mann, R. Penrose… Donc c’est du très solide. La production scientifique la plus significative de ce mathématicien, tout autant physicien, est celle de faire apparaître théoriquement une ‘transition de phase’ d’un système physique : d’un état d’énergie continu à un état d’énergie discontinu, grâce à une contribution de l’espace et du temps (sic). Ci-dessous, je vais tenter de vous exposer les bonnes raisons qui m’incitent à vous faire partager l’intérêt suscité par ce travail. L’article original est sur le site Phys.org.

Pour C. Bender : « J’utilise la physique pour générer des problèmes intéressants et ensuite j’utilise les mathématiques pour les résoudre. » ; « Mon approche est de comprendre ce qui se passe dans le monde réel – où nous vivons – en étudiant le monde complexe, qui inclut le monde réel comme un cas spécial» ; « Il explique que ce que les physiciens observent se situe sur l’axe des réels : tous les nombres, mais l’axe des réels est juste une droite dans le plan infini des nombres complexes, qui inclut  des nombres avec des parties imaginaires. Le plan complexe nous aide à comprendre ce qui se passe dans le monde réel. » ; « Par exemple, pourquoi les niveaux d’énergie dans un atome sont quantifiés ? Pourquoi les atomes peuvent avoir seulement certaines énergies et pas d’autres ? Nous ne comprenons pas ceci parce que nous ne regardons pas dans le plan complexe. Dans le plan complexe, les niveaux d’énergie sont quantifiés (dans le sens où on leur attribue une valeur). Ils sont continus et évoluent régulièrement. Mais si vous considérez une tranche dans le plan complexe, le long de l’axe réel, l’énergie est différenciée en points de valeur déconnectés. C’est comme si la rampe d’accès d’un parking à plusieurs niveaux était supprimée, laissant ainsi les niveaux déconnectés. »

Cette conception théorique a été observé physiquement et c’est en exploitant la propriété de la symétrie Parité (P) Temps (T) : PT. La symétrie parité se réfère à l’espace et l’autre au temps évidemment. Caractéristiquement, C. Bender a été amené à réfléchir à cette théorie en questionnant la définition fondamentale de la mécanique quantique qui postule que certains aspects de la MQ doivent être hermitiens ce qui signifie qu’ils doivent se cantonner au royaume des nombres réels. « Mais insister que la MQ doit être hermitienne c’est comme nous dire que tous les nombres doivent être pairs. » Sur ce, Bender a proposé une nouvelle théorie non hermitienne, une généralisation complexe de la MQ, qu’il a appelé : ‘mécanique quantique PT-symétrique’. Nous savons que réellement dans la nature il y a des propriétés, et des objets qui ne respectent pas la symétrie spatiale (parité) ni la symétrie temporelle, mais lorsque l’on recombine ces deux violations, elles s’annulent et la symétrie globale (PT) est retrouvée.

Grâce à sa théorie, C. Bender a pu prédire des résultats qui ont été observés. Cette prédiction était qu’un système PT-symétrique peut subir une transition de l’énergie réelle à l’énergie complexe. La symétrie PT serait rompue à cause de cette transition, et le comportement du système changerait d’une façon observable. Dix années après, en 2008, une expérience a confirmé la prédiction de Bender. Comme il le dit, lui-même n’avait pas prévu que sa conception à la base très théorique (car évidemment il est aussi convaincu, comme nous, que les nombres et les plans imaginaires ne sont pas dans notre monde réel) puisse conduire un jour à être vérifiée expérimentalement grâce aux conséquences déduites.

En intitulant cet article « Merci Carl Bender », je suis très explicite et j’indique ô combien le travail de Bender ‘boost’ ma réflexion. 

Il n’en reste pas moins qu’il y a plusieurs façons d’interpréter et de valoriser ce résultat. Soit on est Platonicien, et dans ce cas les travaux et les résultats de C. Bender montre qu’effectivement il y a dans le monde un ordre, une harmonie mathématique, préétablis et pour connaître ce monde il suffit donc de décrypter l’alphabet du langage des mathématiques. Le scientifique n’invente pas, il décrypte ce qui est. En effet, on peut considérer que les travaux exposés par C. Bender sont probants. Comme il en rend compte, il part du monde complexe mathématiques, qui ne peut être que théorique, pour descendre ensuite dans le monde réel. Etant donné sa démarche intellectuelle fructueuse on peut supposer que Bender est Platonicien.

Comment interpréter ce résultat si on n’est pas Platonicien ? Cela est mon cas, je ne le suis pas. J’ai plutôt la conviction qu’il faut privilégier le contexte de l’évolution de l’humanité pour conjecturer que c’est notre conception actuelle de l’espace et du temps qui joue un rôle déterminant, entre autres, dans la formation et l’évolution de nos connaissances des lois de la nature à toutes les échelles. Ainsi je considère que les lois mathématiques ne sont pas la preuve d’un ordre divin qui serait a priori ! comme le proclame par ex. R. Penrose, mais des outils, que nous produisons, permettant de décrire dans un langage commun rationnel, logique, les propriétés de la nature, afin que celles-ci puissent être partagées, discutées, comprises, pour être intégrées ou rejetées dans le patrimoine commun du savoir de l’humanité. Alors nous devons toujours privilégier in fine l’observation expérimentale pour adopter ce qui est annoncé dans une prédiction théorique. D’ailleurs C. Bender s’en étonne : « …Jamais dans ma vie, je n’ai pensé que je pourrais prédire quelque chose qui serait directement observable dans une expérience de laboratoire, pas plus de mentionner une simple expérience. » La sincérité de l’auteur m’autorise à penser qu’avec mon hypothèse nous sommes sur un sujet très impactant.

Partager cet article
Repost0
30 octobre 2016 7 30 /10 /octobre /2016 18:27

  Neutrinos et leur nature

En juillet 2016, plusieurs articles ont publié les résultats et les commentaires à propos d’une expérience réalisée sur le site MINOS comprenant le Fermilab (Chicago) d’où est lancé un faisceau de neutrinos muoniques aux caractéristiques physiques définies très précisément. Ce faisceau est intercepté 750 km plus loin et on détecte le nombre de neutrinos qui sont identifiables dans la saveur neutrino électronique. Ce site fait partie de ceux qui ont été conçus, dans le monde, pour étudier les propriétés d’oscillations des saveurs dont j’ai, dans le précédent article, mis en doute la validité de l’hypothèse de cette oscillation, effective sur leur trajectoire de propagation, en tous les cas les préalables qui la justifierait.

  Les conclusions de cette expérience jettent aussi un sérieux doute sur la validité de l’hypothèse de l’oscillation mais il faudra attendre que dans le cadre d’au moins une autre expérience avec une autre équipe de chercheurs une confirmation ou une infirmation soit apportée.

  Ci-dessous, je précise ce qui est exposé :

On s’appuie sur l’inégalité de Legget-Garg et sa violation pour analyser le résultat de l’expérience en question. Cette inégalité est équivalente à celle de Bell mais elle est évaluée sur la base du temps et non pas, comme celle de Bell, sur la base du lieu où on réalise une action de mesure d’une caractéristique d’un objet quantique et conduisant de fait à l’obtention immédiate de celle correspondante à l’autre objet quantique intriqué qui se trouve dans un autre lieu. L’inégalité de Leggett-Garg permet d’évaluer si deux objets sont dans des états superposés comme cela peut être conjecturé à propos du fameux chat de Schrödinger qui serait dans sa cage vivant/mort. Donc cela permet d’évaluer si un système se comporte d’une façon classique ou d’une façon quantique.

Dans l’article de Futura-Science du 18/07 : « Les neutrinos existent sous trois formes (donc trois états quantiques superposés), encore appelées saveurs, et se transforment en oscillant sans cesse de l’une à l’autre. Ce processus dépend de l’énergie des neutrinos, de sorte que pour une valeur donnée, un faisceau composé initialement d’une saveur en contiendra une autre selon une proportion dont la valeur oscille avec le temps, donc la distance entre la source et l’endroit de la mesure. La situation est donc semblable à celle imaginée par Leggett et Garg. Ce qui permet de tester les fondations de la théorie quantique dans un domaine particulier, celui des neutrinos à hautes énergies.

Pour cela, plutôt que d'effectuer plusieurs mesures séparées dans le temps sur un neutrino individuel, ce qui n’est pas réaliste car elles font disparaître la particule, on peut réaliser une expérience avec plusieurs neutrinos possédant des énergies différentes. C’est ce que les chercheurs ont fait avec des faisceaux de neutrinos produits au Fermilab et qui ont été envoyés à travers la croûte terrestre en direction du fameux détecteur de l’expérience Main Injector Neutrino Oscillation Search, Minos, à une distance de 735 km.

Les neutrinos initialement de type muonique peuvent devenir « électroniques » dans le détecteur de Minos. Comme on s’y attendait, les corrélations mesurées violent l’inégalité de Leggett-Garg en plein accord avec les prédictions de la mécanique quantique. Ce ne serait donc en effet qu’au moment de la mesure que la nature des neutrinos prendrait une réalité bien définie au sens classique, alors qu’elle resterait une superposition oscillante durant le trajet. Il ne faut donc pas voir (sic) dans cette oscillation un neutrino qui passerait constamment d’un état à un autre pendant son voyage. Même à ce niveau-là, le monde quantique n’a pas la réalité décrite par la physique classique. Ce qui n’aurait pas surpris Bohr, mais qu’aurait réfuté Einstein... »

Dans un autre article concernant la même expérience : phys.org le 19/07, « Les chercheurs ont trouvé que les données étaient ‘en haute tension’ avec une description plus classique sur la façon dont la matière devrait se comporter. En particulier, il était statistiquement improbable que les données relevées puissent être expliquées par des modèles de la sorte de ceux préconisés par Einstein, dans lesquels les objets endosseraient des propriétés définies plutôt que d’exister en état de superposition. »  Ceci fait référence à la croyance réaliste d’Einstein qui prétend qu’à la valeur d’une grandeur physique, il correspond et il existe un élément de réalité correspondant à cette grandeur physique. La source inspiratrice de cette croyance philosophico-scientifique étant spinozienne pour qui le bon ordre des connaissances est celui qui s’ajuste exactement à l’ordre des choses existant.

Il est donc montré, grâce au résultat de ces observations – qui rappelons-le a la valeur d’une ‘première’ et ce résultat a donc besoin d’être confirmé – que les neutrinos ne répondent pas à la préconisation des attributs préalables qui justifierait la propriété de l’oscillation. Grâce à ce résultat je rencontrerais la confirmation de mon rejet de l’attribution d’une masse d’inertie et plus généralement d’une masse. Si cela se trouve confirmé, l’horizon de leurs authentiques propriétés sera moins parasité par celles que je considère comme inappropriées.

Nous devons aussi prendre en compte le fait que les physiciens ayant rencontré des aberrations dans les résultats expérimentaux visant à confirmer leur hypothèse d’oscillations, ils ont alors considéré qu’il fallait inventer un quatrième neutrino. Celui-ci s’appelle le neutrino stérile. Stérile parce qu’il n’interagirait que par la voie de l’interaction gravitationnelle extrêmement faible étant donné les soi-disant masses très petites en jeux. Confirmons que ce neutrino n’a jamais été effectivement détecté, malgré des déclarations de quelques indices de leur trace observés ici ou là. Dans une publication du 08/08 de phys.org au titre éloquent : ‘La recherche dans IceCube du 'sterile neutrino' ne fournit aucune indication.’ A priori ‘Icecube’ serait le détecteur (dans l’Antarctique) le plus sensible pour constater sa trace. Quelles seraient les propriétés attribuées à ce quatrième neutrino ? :

1-     Il pourrait se transformer et osciller avec les neutrinos des trois saveurs. C’est la raison première pour laquelle on l’a inventé.

2-    Depuis, voilà ce que l’on espère avec sa découverte, in phys.org du 26/10/2016 : "The sterile neutrino could explain the puzzle of why the neutrino is so much lighter - by orders of magnitude - than any other massive particle. It could help to explain why the universe contains more matter than antimatter, ie help to explain why we exist as we do. And, if the sterile neutrino is heavy enough, it could even be part of the solution for the dark matter puzzle." "Finding a sterile neutrino would be an even bigger discovery than finding the Higgs boson," ; soit pas moins : « Le neutrino stérile pourrait expliquer le puzzle du pourquoi les neutrinos sont si légers – de plusieurs ordres de grandeurs – que les autres particules massives. Il pourrait aider à expliquer pourquoi l’univers contient plus de matière que d’antimatière, c. à d. expliquer pourquoi nous existons en tant que tel. Et, si le neutrino stérile est suffisamment léger, il pourrait même contribuer à la solution du puzzle de la matière noire. » ; « Découvrir un neutrino stérile serait une découverte plus significative que celle du boson de Higgs. »

Constatons que plus les physiciens sont ignorants sur un objet hypothétique et qui à ce titre bénéficie d’un grand nombre de degrés de liberté, plus on peut lui prêter les propriétés rêvées.

Pour mémoire, rappelons-nous que l’équipe de Planck a toujours affirmé que les données recueillies par le satellite donnent comme résultat 3 neutrinos et non pas 4.

 

Partager cet article
Repost0
26 octobre 2016 3 26 /10 /octobre /2016 10:22

Neutrinos et la nature de leur masse.

Il aura fallu donc qu’il n’y ait plus qu’un paysage intellectuel de ruines du modèle standard de la physique des particules élémentaires comme cela apparaît évidemment comme tel en ce second semestre de 2016 pour que les physiciens s’interrogent sur la pertinence des propriétés physiques attribuées aux neutrinos depuis leur invention en 1930 par Pauli. Cela conduit immédiatement à concevoir non plus : ‘les propriétés physiques des neutrinos’ mais plus justement concevoir : ‘la physique des neutrinos’, c’est à dire que les neutrinos seraient les vecteurs d’une physique à part entière et cela constitue une autre physique que celle conçue dans le cadre du modèle standard de la théorie quantique des champs (TQC). Cela fut une de mes motivations de créer le blog : “mc2est-cesuffisant”, qui j’en conviens, ceci est un titre qui ne fait pas très marketing mais en creux dit bien ce qu’il veut dire : la célèbre loi E = mc2 n’est pas suffisante pour représenter tous les objets physiques de la nature et probablement pas les neutrinos. Comme je l’écris dans le texte de présentation : la masse effective des neutrinos n’est pas contrainte par la célèbre loi, si cette fameuse matière noire existait vraiment il en serait de même pour ses constituants élémentaires. Cela signifie aussi qu’il n’est pas approprié de postuler qu’ils aient une masse d’inertie = mi, comme cela est le cas dans les équations qui veulent rendre compte de la soi-disant oscillation entre les différentes saveurs. A ce propos, il y a vraiment un manque de vigilance de la part des physiciens car dans certains articles on peut lire : “puisque les neutrinos ont une masse, il y a une oscillation entre leurs saveurs” et dans d’autres : ‘puisqu’il y a oscillation, ils ont une masse’. Or, dans les trois articles récents que je cite ci-dessous, on commence à s’interroger sur la pertinence sur cette masse attribuée a priori et sur sa nature.

Je cite en premier les articles tels qu’ils sont écrits originalement puis ensuite je propose une traduction. Je procède ainsi parce que ce sont des textes ou citations fondateurs et puisque j’ai proposé ces hypothèses depuis de nombreuses années je ne veux pas qu’il y ait un soupçon de biais introduit dans la version en français.  

In ‘Nature physics’ du 02/09/2016, article : ‘Nullius in Verba’ : “ There are deep interconnections between these results: dark matter — which has so far only been inferred from astrophysical observations of processes such as galaxy formation and dynamics — is not described by the standard model, and the origin of the mass of neutrinos continues to remain a mystery.”

Dans ‘Nature physics’ du 02/09/2016, article : ‘Ne croire personne sur Parole’ : “Il y a des interconnexions profondes entre ces résultats : matière noire – qui jusqu’à présent a été inférée que par des observations astrophysiques de processus tels que ceux concernant la formation des galaxies et ceux concernant leurs dynamiques – n’est pas décrite par le modèle standard, et l’origine de la masse des neutrinos continue de rester un mystère.” Voir fin de mon article du 27/05/2012 : ‘Lumière/Matière ↔Matière/lumière.

In ‘Cern courier’ de juillet/aout 2016,  article : A portal to new physics : “The most important question about neutrinos concerns the type of masses they have. So far, all the known fermions are of the Dirac type: their particles and antiparticles have opposite charges and they possess a Dirac mass that arises from the coupling to the Higgs field. Neutrinos could behave in the same way, but because they are electrically neutral it is possible that neutrinos acquire mass via a different mechanism. Indeed, neutrinos and antineutrinos might be indistinguishable, constituting what is called a Majorana particle after Ettore Majorana who proposed the concept in 1937. Unlike Dirac fields, which have four components, Majorana fields have only two d.o.f. Such a particle cannot possess any charge, not even a lepton number.”

Dans le ‘Cern courier’, article : Une porte pour une nouvelle physique : “La question la plus importante à propos des neutrinos concerne le type des masses dont ils sont dotés. Jusqu’à présent tous les fermions connus sont des fermions de Dirac : les particules et les antiparticules ont des charges opposées et ils ont une masse de Dirac à cause de leur couplage avec le champ de Higgs. Les neutrinos pourraient suivre le même chemin mais parce qu’ils sont neutres électriquement (sic), il est possible que les neutrinos acquièrent une masse par un mécanisme différent. En effet, les neutrinos et les antineutrinos peuvent être indiscernables, constituant ce que nous appelons des particules de Majorana, après que Ettore Majorana eut proposé ce concept en 1937. Contrairement aux champs de Dirac qui ont quatre composantes, les champs de Majorana n’ont que deux composantes indépendantes. Une telle particule ne peut avoir de charge ni même un nombre leptonique.”

In Futura-Sciences, le 09/08/ 2016, dans l’article : « Le LHC est triste : il n'y a pas de nouveau boson, mais y a-t-il un multivers ? », propos tenus par Julien Baglio : « Cependant, je reste optimiste devant les possibilités de découverte dans la physique des neutrinos (sic), bien que peut-être pas en premier au LHC. Nous ne savons toujours pas quelle est leur nature réelle, de Majorana ou de Dirac ? Comment expliquer de façon satisfaisante leur masse, sachant que le mécanisme de Brout-Englert-Higgs, qui est possible pour les autres particules du modèle standard, est plus difficile à mettre en œuvre de façon satisfaisante pour les neutrinos ? »

Comme il est dit dans l’article « Nullius in Verba », il y a une interconnexion entre le flop de la quête de matière noire et celui de l’accès à la physique des neutrinos parce que dans ces deux cas, il y a un préalable erroné qui consiste à considérer que ces deux entités sont contraintes par la loi E = mC2. Je le prétends erroné parce que ces particules n’émettent aucun rayonnement électromagnétique et à ce titre elles ne sont pas a priori astreinte par la limite de la vitesse C. Cette hypothèse implique que l’on ne peut pas leur attribuer une masse d’inertie, mais pas plus. Par exemple, on ne peut pas sur cette base inférer que ces particules pourraient se déplacer à des vitesses supraluminiques. Par contre on remet en cause une hypothèse fondamentale, celle de l’équivalence entre masse grave et masse d’inertie : mg = mi, car annuler la masse d’inertie n’implique pas l’annulation d’une masse grave. Il n’y a donc plus d’égalité qui vaille. A ce titre probablement le satellite microscope nous dira au cours de l’année prochaine si cette égalité est violée à des très petites échelles de précision.

Toutes les hypothèses essentielles sur les neutrinos ont été formulées dans le référentiel du modèle standard, à l’époque où l’on pensait les propriétés physiques des neutrinos et non pas de la physique dont ils sont les vecteurs. Si on considère que ceux-ci sont des objets qui témoignent d’un au-delà du modèle standard, il faudrait donc, avant tout, remettre à plat les hypothèses premières concernant les neutrinos. Le filtre expérimental actuel de l’analyse des propriétés des neutrinos s’appuie sur une propriété d’oscillation et cette propriété fut postulée en 1969 par B. Pontecorvo, par homologie avec ce que l’on connaissait à propos des Kaons neutres. Ces Kaons sont des hadrons, particules composites, constituées d’un nombre pair de quarks et d’antiquarks. On peut considérer que cette hypothèse d’oscillation attribuée à l’époque impose un modèle qui nous éloigne de la compréhension de ce que peut être la nature du neutrino.

On pourra toujours me dire en retour que nous avons obtenu quelques résultats partiels. Mais nous devons faire le constat que ceux-ci sont toujours partiels, et ce, depuis longtemps. Lorsqu’il y a progrès il ne peut pas nous échapper le fait que ceux-ci nous indiquent une tendance asymptotique des valeurs des grandeurs que nous pensons avoir mises en relief. Ainsi il y a une quinzaine d’années on considérait que la somme de leur masse était de l’ordre de 30 MeV, aujourd’hui elle serait tout au plus de 0.2 eV. Cette tendance asymptotique devrait nous amener à considérer que notre pensée est mal placée pour obtenir des résultats tangibles (voir article du 16/01/2016 : ‘Et si notre pensée était mal placée ! ’). A l’égard des neutrinos nous devons changer de paradigme si nous voulons accéder à la compréhension de la physique dont ils sont les vecteurs.

Dans l’article de futura-sciences, l’hypothèse de l’existence d’un multivers est posée. Selon l’auteur, l’hypothèse deviendrait légitime puisque le LHC ne nous fournit plus de résultats physiques nouveaux que nous serions en mesure de décrypter. Cela laisserait entendre que nous avons accédé à la compréhension de l’ensemble des lois physiques qui détermine Notre Univers. En conséquence le black-out actuel ne peut que durer. L’hypothèse du multivers rôde dans les esprits des physiciens depuis pas mal d’années. Dans ce sens le raisonnement développé par Aurélien Barrau, souvent cité dans des articles, est convaincant, encore faudrait-il étayer, par contraste, quelle serait cette autre physique ou quelles seraient ces autres physiques possible(s) ailleurs. Si c’est pour dire en permanence que cela nous est définitivement inaccessible, cela ne devient qu’un jeu d’esprit gratuit. Je considère que ce que nous concevons comme étant notre univers est avant tout l’univers de la limite actuelle de notre capacité de (le) penser. En franchissant la barrière de cette limite, cet autre univers du multivers deviendra pensable et sera en conséquence intégré à notre univers ainsi étendu. C’est une illustration de ma conception : « Au sein d’une éternité, parmi tous les possibles, l’anthrôpos, sans cesse, creuse sa connaissance de l’univers… » 

            Les neutrinos nous indiquent peut-être les hypothèses hardies que nous devrions formuler pour accroitre l’univers globale de notre pensée. Par exemple considérer que le rayonnement de la matière baryonique est le seul rayonnement que nous avons jusqu’à présent identifié et que celui-ci a effectivement une vitesse : C, limite de propagation. On peut conjecturer que ce tropisme résulte du fait que nous sommes fondamentalement constitués de cette matière (nous sommes faits de poussières d’étoiles). Considérer que les neutrinos ne seraient pas contraints par cette constante dite universelle voilà une hypothèse qui devrait être creusée.

Partager cet article
Repost0
18 octobre 2016 2 18 /10 /octobre /2016 14:43

Concevoir l’Être humain sans Être ?

            Préambule : annuler l’Être à l’Être humain ou le banaliser, c’est n’avoir plus à faire qu’à un être inerte que l’on ne pourra même pas qualifier d’être vivant. Il ne sera plus qu’un amas de matière baryonique. 

Concevoir l’être humain sans être ? Telle est bien la question que je me suis spontanément posée lorsque j’ai lu l’article dans le ‘Monde’ du 12/10/2016 : ‘L’homme 2.0 ou la mort des limites’, l’auteur Laurent Alexandre est chirurgien urologue et président de DNAVision. Dans le cours de cet article on lit rapidement la conséquence de l’annulation de l’’être’ de l’être humain par cette phrase : « rendre l’homme maître de sa propre nature ». En pensant que l’homme serait réductible à n’être que d’une nature, quelle qu’elle soit, on annonce qu’avec la maîtrise de celle-ci, il pourrait être prisonnier de lui-même, s’immobiliser dans lui-même, être autarcique, figé et sans interaction avec aucune extériorité. Sans l’être de l’être humain qui nous caractérise, pourrais-je parler de lui, là, maintenant, dans cet article ? Qui serais-je ? Où serais-je ? Et vous qui seriez-vous ? Où seriez-vous ?

            L’auteur de l’article nous annonce d’emblée : « L’homme se construit sur ses limites, ses faiblesses et l’inéluctabilité de la mort. Dépassant ce fatalisme, les transhumanistes veulent supprimer toutes les limites de l’humanité et démanteler tous les impossibles grâce aux technologies NBIC (nanotechnologies, biotechnologies, informatique et sciences cognitives), dont le potentiel croît de manière exponentielle. La mort de la mort, l’augmentation des capacités humaines, la fabrication d’intelligences artificielles, la création de la vie en éprouvette et la colonisation du cosmos sont les cinq premiers objectifs de ce mouvement qui promeut l’homme 2.0, ou l’homme-dieu»

            A propos des NBIC, Pascal Picq que j’ai déjà cité dans l’article du 21/09/2016 : « P. Picq l’annonce, S. Dehaene l’illustre. » nous dit tout autre chose et même exactement le contraire parce qu’il n’est pas réducteur de ce qui fait la richesse et la spécificité de l’être humain : « Mais contrairement aux sirènes du tranhumanisme qui postulent que l’évolution est arrivée à son terme et que nos technologies doivent prendre le relais, il faut penser notre avenir en fonction des interactions de trois coévolutions (1e celle qui a concerné tous les organismes vivants et leurs interactions ; 2e celle qui s’est mise en place avec les premiers hommes (homo erectus) avec des innovations techniques et culturelles, comme la cuisson et la taille des outils ; 3e celle qui se manifeste depuis le début du XXIe siècle avec l’impact des NBIC). Ces trois coévolutions permettent l’émergence, en quelque sorte, d’une nouvelle intelligence. Car fondamentalement, c’est quoi l’intelligence ? Essentiellement des interactions… » En me fiant à Picq, je comprends par nouvelle intelligence : nouvelle ampleur de cette intelligence = nouvelle ampleur de l’être de l’être humain, nouvel enracinement de l’être de l’être humain qui s’humanise de plus en plus et devient ainsi moins dépendant, moins déterminé par son origine naturelle (ceci est illustré dans mes différents articles par les conquêtes de l’être dans la nature à l’égard de l’être de la nature cohabitant en l’être humain.) Il faut préciser tout de suite que ce processus ne peut être vertueux que s’il ne se fait pas au détriment d’autres êtres vivants.

            Le maître mot de P. Picq est interaction, selon moi, il est aussi le maître mot de la motivation du physicien, c’est ce que j’ai précisé dans l’article du 23/08/2016 : ‘Décrire comment les humains interagissent avec la nature ? Comment ils évoluent grâce à cette interaction ?’

             L’article de P. Picq dans le N° de ‘Pour la Science’ a pour titre ‘Le roman des intelligences’, et en avant-propos : « Pour appréhender toute la diversité et la richesse des intelligences dans leur dynamique (évolutive ou individuelle), nous devons nous défaire d’une conception dualiste qui oppose humain et animal. C’est aussi essentiel pour que demain nous puissions cohabiter au mieux avec les nouvelles formes d’intelligence. » L’avenir, selon P. Picq, est celui des nouvelles intelligences alors que pour les technophiles invétérés l’avenir appartient aux Gafami (Google, Apple, Facebook, Amazon, Microsoft et IBM) ou aux BATX (Baidu, Ali-baba, Tencent et Xiaomi), qui sont les concurrents chinois de la Silicon Valley, et selon L. Alexandre, personne ne peut lutter contre les immenses moyens des géants du numérique, qui bénéficient d’une base installée de milliards de clients (sic) : les transhumanistes ont des moyens quasi illimités.

            Alerte donc, selon l’auteur, puisque ce serait un changement de civilisation qui serait en train de s’engager avec ce tsunami technologique.

Ne soyons pas naïfs ni angéliques, l’être humain pourrait s’autodétruire, la crainte n’est pas vaine ; l’être humain pourrait détruire l’environnement qui assure son existence parce qu’il ne sait pas encore à quel point il est dépendant de l’interaction vitale avec la Nature. Il est dépendant puisqu’il en est l’émanation et ce cordon ombilical ne pourra jamais se rompre.

            Au recto de la page du ‘Monde’ où se trouve l’article traité, il y a un autre article qui nous indiquerait quasiment le chemin inverse et qui s’intitule : « Il est temps d’arrêter de courir après le propre de l’homme ». L’auteur : Frans de Waal, est éthologue, enseignant à l’université d’Emory (Géorgie, EU) et a écrit un livre au titre explicite : ‘Sommes-nous trop « bêtes » pour comprendre l’intelligence des animaux ?’. Lire l’article vaut la peine. Je ne citerai que quelques extraits de celui-ci.

            Après avoir cité l’ensemble des performances que l’éthologue considère avoir détecté chez les animaux, il lui est demandé : « Qu’est-ce qui nous reste, à nous humains ? » sa réponse fuse : « Honnêtement pas grand-chose. Le développement du langage comme moyen de communication symbolique, quand même. Les autres n’en sont pas dénués mais nous restons dans une catégorie à part. En dehors de ça, je ne vois pas. Nos capacités d’intelligence sont parfois plus développées. Mais c’est une différence de degré, pas de nature. Il est temps d’arrêter de courir après le « propre de l’homme ». Dans ma vie, j’ai dû voir 25 propositions sur le propre de l’homme. Toutes sont tombées. On perd notre temps. Mieux vaut comprendre les règles générales de la cognition et étudier les spécificités de chaque espèce. Pourquoi toujours chercher ce qui nous est unique, à nous ? » Un peu plus loin dans l’article, il est demandé : « D’où viendra la prochaine percée ? » ; réponse : « Les neurosciences vont beaucoup nous apprendre. Pour l’instant, elles sont restées très descriptives. Mais elles vont être de plus en plus précises. Montrer des homologies(sic). Que non seulement les animaux ont des capacités communes, entre eux et avec nous, mais que leurs cerveaux fonctionnent pareil. Des collègues l’ont fait en montrant que les chiens percevaient le langage humain de la même façon que nous… » Avec ce propos, j’entends les conséquences d’une pensée étroite car vouloir établir une homologie entre l’ancêtre humain qui a fondé le langage avec l’animal qui perçoit quelques mots et intonations de ce langage grâce à un apprentissage dû à la domestication, cela est plus que troublant. Il me semble que l’éthologie a atteint le stade d’une science, il y aurait donc des personnes qui se proclament éthologistes mais qui sont loin d’être des scientifiques.

            Il me semble qu’un paléoanthropologue ne peut pas exprimer de telles inepties car celui-ci étudie la façon dont l’homo-sapiens surgit finalement en s’extirpant, durant les dernières 2 millions d’années, par étapes successives de l’évolution, des péripéties naturelles violentes qui ont failli le rayer de l’existence. A ce stade de la réflexion on peut valablement me répliquer : ‘il en fut de même pour les autres êtres vivants !’. Effectivement, en acceptant l’idée d’un ordre commun à l’origine, celui des primates, on peut constater qu’il y eut des processus différents d’évolution, d’adaptation à la Nature, qui ont abouti à l’émergence d’espèces qui se distinguent.

Sur des préalables, a priori, antipodiques, les transhumanistes de Laurent Alexandre et les éthologues façon Frans de Waal veulent régler leur compte à l’être humain. Est-ce que c’est le signe que l’être humain perd les marques de sa raison d’être ? En ce qui concerne les transhumanistes la réponse est positive car la lumière que lui renvoie le miroir des technologies qu’il invente, peut l’aveugler et lui faire croire qu’il est au bord d’atteindre le stade de l’homme-dieu. En ce qui concerne les éthologues façon F. de Waal, il y a un autre phénomène qui est jeu car effectivement on peut considérer que le genre humain a historiquement méprisé les formes de vie, les stades de vie, autres que la sienne et nous rencontrons là, en retour, un effet boomerang qui viserait à ratiboiser les spécificités de l’être humain pour qu’enfin une sorte d’égalité, ou pour le moins d’homologie, puisse être établie. Il est hors de question, encore moins au nom d’une scientificité bâtarde, d’entretenir et d’accepter un tel mouvement extrême de balancier.

A l’injonction de l’éthologue qui nous dit : « Il est temps d’arrêter de courir après le « propre de l’homme » », j’ai envie de répondre benoîtement : « Ah bon ! sur la planète Terre ce ne serait pas un propre de l’homme que de concevoir un univers qui aurait une histoire de plus de 13,8 milliards d’années, ce ne serait pas un propre de l’homme que de concevoir des instruments qui permettent d’ausculter l’infiniment grand ou l’infiniment petit et d’inférer sur les phénomènes naturels que l’on observe, ce ne serait pas un propre de l’homme que de vouloir s’émanciper des contraintes de la nature et de ses déterminations, en mettant au jour ses lois qui gouvernent notre environnement, ce ne serait pas un propre de l’homme que de… » ; « Ah bon ! ce n’est pas propre à l’humanité que d’avoir généré en son sein des Galilée, Descartes, Newton, Maxwell, Einstein,… des Kant, Spinoza, Hegel,… des Humboldt, Freud, Benveniste… ».

Pour que dans le ‘roman des intelligences’ selon P. Picq, soit écrit un nouveau chapitre, les physiciens doivent apporter une contribution significative. A mon sens, celle-ci sera effective lorsque le verrou de la finitude cosmologique sautera. En effet la pensée dominante se réfère à une histoire de l’univers entier qui est représentée par la Relativité Générale qui impose une représentation de l’univers bloc, intemporel, inaltérable. Tout est joué dès le Big-Bang de notre univers, à partir de ce moment-là, la chaîne de causalité s’occupe du reste (voir article du 03/06/206 : ‘Bienvenu au ‘Temps créatif de Nicolas Gisin’). Telle est la représentation de l’univers dans laquelle l’intelligence humaine se trouve contrainte, immobilisée.

Si on recense les différentes cosmogonies élaborées par l’humanité, il est évident que l’être humain a toujours éprouvé la nécessité de poser sa pensée sur une origine du temps pour que celle-ci puisse se déployer, jusqu’à ce que l’obsolescence de cette origine provisoire soit pensée et partant dépassée. Actuellement, il est temps de penser à l’obsolescence du moment primordial appelé Big-Bang, il y a matière à la constater et des faits nouveaux rendront ce processus irréversible. Nous statuerons pour une nouvelle origine plus profonde et donc vers la conception d’un univers ou des univers qui permettront un nouveau déploiement de la pensée du sujet pensant et les transhumanistes resteront cois car dépourvus et les éthologues façon F. de Waal devront remiser leur thèse.  

 

           

 

Partager cet article
Repost0
15 octobre 2016 6 15 /10 /octobre /2016 07:03

Physique théorique : La nouvelle physique de l’empereur.

            Tel est le titre du nouveau livre que vient de publier Roger Penrose et qui est le sujet d’un article critique du 6/10, dans la revue ‘Nature’, signé Richard Dawid. Cet article se concentre sur la critique de Penrose pour ce qui est de : la mécanique quantique, la théorie des cordes et l’inflation en cosmologie. Le sous-titre précise la triade de qualificatifs que son jugement attribue à ces domaines de la connaissance en physique : Mode, Foi, et Fantaisie dans la Nouvelle physique de l’Univers. Comparativement aux nombreux livres publiés par R. Penrose (toujours passionnants) on peut donc considérer a priori qu’il n’y a pas vraiment des idées nouvelles dans celui-ci, si ce n’est des accents plus prononcés dans un sens ou dans un autre qui justifieraient la publication d’un nouveau livre.

            R. Penrose affirme que des théories même bien confirmées comme la mécanique quantique, sont ‘surestimées’ au regard de leur stabilité conceptuelle présumée. La physique quantique connaît un impressionnant record de succès prédictif, de la chimie quantique à la physique des particules élémentaires. Mais selon l’auteur elle est confrontée à un profond problème conceptuel. Tandis que la mécanique quantique a une consistance interne parfaite quand elle décrit un système qui évolue sans qu’il soit mesuré, la façon par laquelle elle rend compte de l’action de la mesure n’est pas justifiée d’une façon cohérente dans la description. Pour Penrose, ceci indique que les principes fondamentaux de la mécanique quantique n’ont pas été mis correctement en évidence et ceci est à relier avec l’impossible intégration de la théorie de la gravité au cœur du corpus la physique quantique. Il prétend que les succès de la mécanique quantique tendent à rendre les physiciens insensibles aux problèmes conceptuels de la théorie et génèrent un degré de confiance injustifié en ses principes basiques comme si les fondations étaient solides.

            Rien de nouveau avec cette critique, qui est en partie justifiée, c’est ce qu’on appelle le problème de la mesure ou le problème de la réduction de fonction d’onde. Ce qui est insupportable pour l’auteur ce sont les postulats ou les principes énoncés par l’école de Copenhague qui interdisent de fait une conception réaliste de la Nature à l’échelle quantique. En effet N. Bohr, W. Heisenberg et les autres nous disent in fine : …telle que les lois, les propriétés de la Nature nous apparaissent. Il est un fait que depuis un peu plus d’un siècle nous n’avons pas pu franchir une barrière de compréhension et d’explication causale ce qui nous oblige à nous référer à des principes voire des postulats. On peut comprendre que des réalistes comme Penrose n’acceptent pas de ne pas pouvoir remonter plus en amont de la chaîne de causalité qui lui semble donc tronquée. Pour lui, il doit y avoir une cause fondamentale qui soit à l’œuvre et qui une fois débusquée, le recours au principe, au postulat, n’auront plus de raison d’être et la mécanique quantique sera explicable dans le paysage d’un monde réel.

            Cette frustration tenace qu’exprime Penrose et qui était celle d’Einstein en son temps, est due pour l’essentiel au refus d’entendre, d’accepter, dans les énoncés de l’école de Copenhague le verbe : apparaître.

Etant donnée cette frustration, je propose : patience ! Tant que nous ne saurons pas penser quantique, nous ne progresserons pas. Or, cette situation n’est pas définitive ! Déjà on peut mesurer que la physique quantique est moins absconse qu’elle le fut dans ses débuts et dans les années 1950. Son enseignement de plus grande qualité et la manipulation d’objet exploitant les propriétés de la M. Q. rendent celle-ci plus familière, notre cerveau engrange des données qui deviennent de moins en moins étranges, parce que de plus en plus communes. Cela n’est pas suffisant, j’en conviens. Le saut le plus déterminant aura lieu quand nous comprendrons que les bizarreries de la M.Q. que nous jugeons ainsi : puisque nous avons une conception classique de la mesure de la Nature, sont dues à notre part, à notre contribution de ‘sujet pensant’ : observateur. Lorsque nous découvrirons que c’est à cause d’une détermination de notre fonctionnement cérébral que les lois de la mécanique quantique nous apparaissent bizarres, alors on sera en mesure de répondre, en partie d’une façon satisfaisante à R. Penrose, car effectivement les bizarreries de la M.Q., selon mon hypothèse, auraient une cause bien qu’elle ne soit pas celle dont il a l’intuition. La proposition d’expérience que j’ai détaillée dans l’article précédent du 21/09 : ‘P. Picq l’annonce, S. Dehaene l’illustre’ devrait fournir une réponse.

Ce résultat, ne changera pas notre fonctionnement cérébral, il apportera une explication qui nous aidera sérieusement à ‘penser quantique’ car nous pourrons connaître la contribution de l’observateur dans les lois de la mécanique quantique. Quoi que ! il est possible que Penrose y trouve son compte car dans les ouvrages précédents il avait avec force détail voulu démontrer que le caractère quantique de la gravité puisait une cause dans des structures élémentaires de notre cerveau (synapse, dendrite, axone, neurotransmetteur…). Ce chantier est resté 30 ans après inabouti (heureusement car si ses hypothèses avaient été confirmées, cela nous conduisait tout droit à la validation de la thèse du physicalisme).

Comme je l’indique dans ma proposition d’expérience, puisqu’il y aurait eu un processus archétypal de l’intellectualisation du temps voire de l’espace-temps chez les ancêtres de l’être humain, la zone du cerveau, qui est activée lorsque l’espace-temps parcouru par un objet quantique est un donné connu, ne peut être que distincte de celle qui est activée lorsqu’il est inconnu. Lorsque l’espace-temps est un donné connu, la zone archaïque du cerveau activée nous conduit à inférer qu’un objet ponctuel se déplace dans l’interféromètre. Lorsque l’espace-temps n’est pas un donné, c’est une autre zone du cerveau qui est activée, qui ne peut pas être qualifiée d’archaïque, et qui privilégie l’inférence d’une dispersion spatio-temporelle[1]. Si on arrive à distinguer qu’effectivement ce sont des zones différentes du cerveau qui sont sollicitées, dans ce cas, on mettra en évidence la contribution du ‘sujet pensant’ dans les bizarreries de la mécanique quantique, et le terme ‘apparaître’ utilisé par les fondateurs de l’Ecole de Copenhague sera justifié. 

La pensée scientifique de R. Penrose est guidée par l’Idéalité platonicienne. Il considère donc que la loi de la relativité générale est une magnifique illustration de sa conception platonicienne de l’Univers et une belle illustration de la voie par laquelle le scientifique peut accéder à la bonne connaissance. Cette voie étant essentiellement celle des mathématiques, bien évidemment, (qui sont préinscrites sur les pages de l’Univers Platonicien). Pour cette raison, il est convaincu que toute recherche théorique visant à rendre compte de la gravité quantique ne peut s’engager qu’à partir de la loi de la relativité générale et de ses propriétés fondamentales pour aller vers une quantification. La théorie des cordes emprunte exactement le chemin inverse, puisque c’est à partir de la M.Q. que l’on vise à formuler une théorie de la gravitation quantique satisfaisante. Ceci a été entrepris au début des années 1970, des développements ont connu des rebonds importants et successifs mais cela n’a toujours pas abouti. Penrose a donc un regard très critique vis-à-vis de cette théorie des cordes et tout autant sur la cosmologie inflationnaire[p1]  qui fait appel aussi à la théorie quantique des champs.

Bref on peut considérer que son nouveau livre est probablement une bonne reprise de tous ses livres déjà publiés et qui ont déjà utilement nourri notre réflexion.

 

[1] A priori, je ne suis pas un adepte de la philosophie empiriste (voir : F. Bacon, J. Locke…, D. Hume) pour rendre compte de la voie d’accès à la connaissance mais je suis convaincu qu’analyser pour mieux comprendre l’évolution historique de la connaissance permet d’accéder à de la signification et partant d’emprunter une/des voie(s) nouvelle(s) de connaissances.

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens