Overblog
Suivre ce blog Administration + Créer mon blog
5 novembre 2016 6 05 /11 /novembre /2016 12:25

Merci Carl Bender

Peut-être ai-je trouvé une confirmation intéressante à propos de l’intuition développée, dans l’article du 15/10/2016 : « Physique théorique : la nouvelle physique de l’empereur. », et qui mériterait d’être prolongée. Dans cet article, je justifie ma proposition d’expérience avec la conviction que les résultats que nous rencontrons en mécanique quantique pourraient résulter de déterminations de notre fonctionnement cérébral. Déterminations qui sont le fruit de l’évolution de l’être humain depuis la profondeur du temps. Puisque le moteur de l’évolution est constitué par l’obligation de survie au regard des épreuves imposées par les propriétés de la nature, l’espèce humaine a été façonnée par sa capacité à ‘appréhender’, ‘comprendre’, la nature de ces épreuves pour, les présupposer, les affronter, les contourner, les situer, etc... En prenant en compte les résultats des travaux et des analyses proposés par les paléoanthropologues qui deviennent de plus en plus circonstanciés, j’ai extrait l’idée que la faculté ‘d’intellectualiser’ (intérioriser) les données empiriques de l’espace et du temps par nos ancêtres archaïques, c’est-à-dire pour ceux-ci se situer physiquement dans l’environnement proche de leur milieu naturel accessible, devait être affirmée comme un facteur favorable de sélection.

En conséquence l’imprégnation de notre conception de l’espace et du temps, de l’espace-temps, détermine notre regard intellectuel actuel de la Nature, qui évidemment à l’échelle classique ne met pas trop en évidence des interprétations conflictuelles car notre regard intellectuel s’est forgé à cette échelle, mais il en est tout autrement à l’échelle de l’infiniment petit. Je propose de considérer l’hypothèse que ces interprétations conflictuelles sont révélées par ce que l’on désigne les bizarreries de la mécanique quantique.

Ma proposition d’expérience vise à tenter de vérifier si cette hypothèse tient la route au moins sur la bizarrerie caractérisée par l’énigme de la superposition des états : onde/corpuscule, corrélée à : pas d’information/information, spatio-temporelle, à la disposition de l’observateur. A ce sujet voir, par exemple, l’article de A. Ananthaswamy, du 02/11/216, sur le site du NewScientist : « Classic quantum experiment could conceal theory of everything”. Ma proposition d’expérience est exactement limitée à cette corrélation, alors que le spectre des bizarreries pour notre capacité d’entendement traditionnelle est très étendu. Par défaut, je privilégie une approche pragmatique en considérant que suivant le résultat obtenu en première instance soit on considère que l’hypothèse qui fonde l’expérience a de la valeur et on persévère, soit on constate qu’elle n’a pas de valeur et on bifurque vers d’autres hypothèses.

En fait, mon hypothèse non encore exprimée jusqu’à présent est bien plus radicale puisque je conçois que c’est notre représentation classique de l’espace-temps qui est la cause d’autres bizarreries de la M.Q. Parmi celles-ci : la superposition des états des niveaux discrets d’énergie d’un atome d’hydrogène par exemple pourrait être expliquée. A priori, il n’est pas évident de corréler directement ce problème avec celui de la problématique de l’espace-temps tel que nous nous le représentons.

C’est en découvrant un article du 1/11, dans phys.org que j’ai considéré pouvoir évoquer ce sujet maintenant. Cet article s’intitule : ‘Un physicien distingué pour avoir trouvé une nouvelle symétrie dans l’espace et le temps.’ Le distingué est Carl Brender : physicien-mathématicien ou mathématicien-physicien, c’est selon… et la distinction est le ‘Prix Dannie Heineman’ qui a précédemment distingué : S. Hawking, M. Gell-Mann, R. Penrose… Donc c’est du très solide. La production scientifique la plus significative de ce mathématicien, tout autant physicien, est celle de faire apparaître théoriquement une ‘transition de phase’ d’un système physique : d’un état d’énergie continu à un état d’énergie discontinu, grâce à une contribution de l’espace et du temps (sic). Ci-dessous, je vais tenter de vous exposer les bonnes raisons qui m’incitent à vous faire partager l’intérêt suscité par ce travail. L’article original est sur le site Phys.org.

Pour C. Bender : « J’utilise la physique pour générer des problèmes intéressants et ensuite j’utilise les mathématiques pour les résoudre. » ; « Mon approche est de comprendre ce qui se passe dans le monde réel – où nous vivons – en étudiant le monde complexe, qui inclut le monde réel comme un cas spécial» ; « Il explique que ce que les physiciens observent se situe sur l’axe des réels : tous les nombres, mais l’axe des réels est juste une droite dans le plan infini des nombres complexes, qui inclut  des nombres avec des parties imaginaires. Le plan complexe nous aide à comprendre ce qui se passe dans le monde réel. » ; « Par exemple, pourquoi les niveaux d’énergie dans un atome sont quantifiés ? Pourquoi les atomes peuvent avoir seulement certaines énergies et pas d’autres ? Nous ne comprenons pas ceci parce que nous ne regardons pas dans le plan complexe. Dans le plan complexe, les niveaux d’énergie sont quantifiés (dans le sens où on leur attribue une valeur). Ils sont continus et évoluent régulièrement. Mais si vous considérez une tranche dans le plan complexe, le long de l’axe réel, l’énergie est différenciée en points de valeur déconnectés. C’est comme si la rampe d’accès d’un parking à plusieurs niveaux était supprimée, laissant ainsi les niveaux déconnectés. »

Cette conception théorique a été observé physiquement et c’est en exploitant la propriété de la symétrie Parité (P) Temps (T) : PT. La symétrie parité se réfère à l’espace et l’autre au temps évidemment. Caractéristiquement, C. Bender a été amené à réfléchir à cette théorie en questionnant la définition fondamentale de la mécanique quantique qui postule que certains aspects de la MQ doivent être hermitiens ce qui signifie qu’ils doivent se cantonner au royaume des nombres réels. « Mais insister que la MQ doit être hermitienne c’est comme nous dire que tous les nombres doivent être pairs. » Sur ce, Bender a proposé une nouvelle théorie non hermitienne, une généralisation complexe de la MQ, qu’il a appelé : ‘mécanique quantique PT-symétrique’. Nous savons que réellement dans la nature il y a des propriétés, et des objets qui ne respectent pas la symétrie spatiale (parité) ni la symétrie temporelle, mais lorsque l’on recombine ces deux violations, elles s’annulent et la symétrie globale (PT) est retrouvée.

Grâce à sa théorie, C. Bender a pu prédire des résultats qui ont été observés. Cette prédiction était qu’un système PT-symétrique peut subir une transition de l’énergie réelle à l’énergie complexe. La symétrie PT serait rompue à cause de cette transition, et le comportement du système changerait d’une façon observable. Dix années après, en 2008, une expérience a confirmé la prédiction de Bender. Comme il le dit, lui-même n’avait pas prévu que sa conception à la base très théorique (car évidemment il est aussi convaincu, comme nous, que les nombres et les plans imaginaires ne sont pas dans notre monde réel) puisse conduire un jour à être vérifiée expérimentalement grâce aux conséquences déduites.

En intitulant cet article « Merci Carl Bender », je suis très explicite et j’indique ô combien le travail de Bender ‘boost’ ma réflexion. 

Il n’en reste pas moins qu’il y a plusieurs façons d’interpréter et de valoriser ce résultat. Soit on est Platonicien, et dans ce cas les travaux et les résultats de C. Bender montre qu’effectivement il y a dans le monde un ordre, une harmonie mathématique, préétablis et pour connaître ce monde il suffit donc de décrypter l’alphabet du langage des mathématiques. Le scientifique n’invente pas, il décrypte ce qui est. En effet, on peut considérer que les travaux exposés par C. Bender sont probants. Comme il en rend compte, il part du monde complexe mathématiques, qui ne peut être que théorique, pour descendre ensuite dans le monde réel. Etant donné sa démarche intellectuelle fructueuse on peut supposer que Bender est Platonicien.

Comment interpréter ce résultat si on n’est pas Platonicien ? Cela est mon cas, je ne le suis pas. J’ai plutôt la conviction qu’il faut privilégier le contexte de l’évolution de l’humanité pour conjecturer que c’est notre conception actuelle de l’espace et du temps qui joue un rôle déterminant, entre autres, dans la formation et l’évolution de nos connaissances des lois de la nature à toutes les échelles. Ainsi je considère que les lois mathématiques ne sont pas la preuve d’un ordre divin qui serait a priori ! comme le proclame par ex. R. Penrose, mais des outils, que nous produisons, permettant de décrire dans un langage commun rationnel, logique, les propriétés de la nature, afin que celles-ci puissent être partagées, discutées, comprises, pour être intégrées ou rejetées dans le patrimoine commun du savoir de l’humanité. Alors nous devons toujours privilégier in fine l’observation expérimentale pour adopter ce qui est annoncé dans une prédiction théorique. D’ailleurs C. Bender s’en étonne : « …Jamais dans ma vie, je n’ai pensé que je pourrais prédire quelque chose qui serait directement observable dans une expérience de laboratoire, pas plus de mentionner une simple expérience. » La sincérité de l’auteur m’autorise à penser qu’avec mon hypothèse nous sommes sur un sujet très impactant.

Partager cet article
Repost0
30 octobre 2016 7 30 /10 /octobre /2016 18:27

  Neutrinos et leur nature

En juillet 2016, plusieurs articles ont publié les résultats et les commentaires à propos d’une expérience réalisée sur le site MINOS comprenant le Fermilab (Chicago) d’où est lancé un faisceau de neutrinos muoniques aux caractéristiques physiques définies très précisément. Ce faisceau est intercepté 750 km plus loin et on détecte le nombre de neutrinos qui sont identifiables dans la saveur neutrino électronique. Ce site fait partie de ceux qui ont été conçus, dans le monde, pour étudier les propriétés d’oscillations des saveurs dont j’ai, dans le précédent article, mis en doute la validité de l’hypothèse de cette oscillation, effective sur leur trajectoire de propagation, en tous les cas les préalables qui la justifierait.

  Les conclusions de cette expérience jettent aussi un sérieux doute sur la validité de l’hypothèse de l’oscillation mais il faudra attendre que dans le cadre d’au moins une autre expérience avec une autre équipe de chercheurs une confirmation ou une infirmation soit apportée.

  Ci-dessous, je précise ce qui est exposé :

On s’appuie sur l’inégalité de Legget-Garg et sa violation pour analyser le résultat de l’expérience en question. Cette inégalité est équivalente à celle de Bell mais elle est évaluée sur la base du temps et non pas, comme celle de Bell, sur la base du lieu où on réalise une action de mesure d’une caractéristique d’un objet quantique et conduisant de fait à l’obtention immédiate de celle correspondante à l’autre objet quantique intriqué qui se trouve dans un autre lieu. L’inégalité de Leggett-Garg permet d’évaluer si deux objets sont dans des états superposés comme cela peut être conjecturé à propos du fameux chat de Schrödinger qui serait dans sa cage vivant/mort. Donc cela permet d’évaluer si un système se comporte d’une façon classique ou d’une façon quantique.

Dans l’article de Futura-Science du 18/07 : « Les neutrinos existent sous trois formes (donc trois états quantiques superposés), encore appelées saveurs, et se transforment en oscillant sans cesse de l’une à l’autre. Ce processus dépend de l’énergie des neutrinos, de sorte que pour une valeur donnée, un faisceau composé initialement d’une saveur en contiendra une autre selon une proportion dont la valeur oscille avec le temps, donc la distance entre la source et l’endroit de la mesure. La situation est donc semblable à celle imaginée par Leggett et Garg. Ce qui permet de tester les fondations de la théorie quantique dans un domaine particulier, celui des neutrinos à hautes énergies.

Pour cela, plutôt que d'effectuer plusieurs mesures séparées dans le temps sur un neutrino individuel, ce qui n’est pas réaliste car elles font disparaître la particule, on peut réaliser une expérience avec plusieurs neutrinos possédant des énergies différentes. C’est ce que les chercheurs ont fait avec des faisceaux de neutrinos produits au Fermilab et qui ont été envoyés à travers la croûte terrestre en direction du fameux détecteur de l’expérience Main Injector Neutrino Oscillation Search, Minos, à une distance de 735 km.

Les neutrinos initialement de type muonique peuvent devenir « électroniques » dans le détecteur de Minos. Comme on s’y attendait, les corrélations mesurées violent l’inégalité de Leggett-Garg en plein accord avec les prédictions de la mécanique quantique. Ce ne serait donc en effet qu’au moment de la mesure que la nature des neutrinos prendrait une réalité bien définie au sens classique, alors qu’elle resterait une superposition oscillante durant le trajet. Il ne faut donc pas voir (sic) dans cette oscillation un neutrino qui passerait constamment d’un état à un autre pendant son voyage. Même à ce niveau-là, le monde quantique n’a pas la réalité décrite par la physique classique. Ce qui n’aurait pas surpris Bohr, mais qu’aurait réfuté Einstein... »

Dans un autre article concernant la même expérience : phys.org le 19/07, « Les chercheurs ont trouvé que les données étaient ‘en haute tension’ avec une description plus classique sur la façon dont la matière devrait se comporter. En particulier, il était statistiquement improbable que les données relevées puissent être expliquées par des modèles de la sorte de ceux préconisés par Einstein, dans lesquels les objets endosseraient des propriétés définies plutôt que d’exister en état de superposition. »  Ceci fait référence à la croyance réaliste d’Einstein qui prétend qu’à la valeur d’une grandeur physique, il correspond et il existe un élément de réalité correspondant à cette grandeur physique. La source inspiratrice de cette croyance philosophico-scientifique étant spinozienne pour qui le bon ordre des connaissances est celui qui s’ajuste exactement à l’ordre des choses existant.

Il est donc montré, grâce au résultat de ces observations – qui rappelons-le a la valeur d’une ‘première’ et ce résultat a donc besoin d’être confirmé – que les neutrinos ne répondent pas à la préconisation des attributs préalables qui justifierait la propriété de l’oscillation. Grâce à ce résultat je rencontrerais la confirmation de mon rejet de l’attribution d’une masse d’inertie et plus généralement d’une masse. Si cela se trouve confirmé, l’horizon de leurs authentiques propriétés sera moins parasité par celles que je considère comme inappropriées.

Nous devons aussi prendre en compte le fait que les physiciens ayant rencontré des aberrations dans les résultats expérimentaux visant à confirmer leur hypothèse d’oscillations, ils ont alors considéré qu’il fallait inventer un quatrième neutrino. Celui-ci s’appelle le neutrino stérile. Stérile parce qu’il n’interagirait que par la voie de l’interaction gravitationnelle extrêmement faible étant donné les soi-disant masses très petites en jeux. Confirmons que ce neutrino n’a jamais été effectivement détecté, malgré des déclarations de quelques indices de leur trace observés ici ou là. Dans une publication du 08/08 de phys.org au titre éloquent : ‘La recherche dans IceCube du 'sterile neutrino' ne fournit aucune indication.’ A priori ‘Icecube’ serait le détecteur (dans l’Antarctique) le plus sensible pour constater sa trace. Quelles seraient les propriétés attribuées à ce quatrième neutrino ? :

1-     Il pourrait se transformer et osciller avec les neutrinos des trois saveurs. C’est la raison première pour laquelle on l’a inventé.

2-    Depuis, voilà ce que l’on espère avec sa découverte, in phys.org du 26/10/2016 : "The sterile neutrino could explain the puzzle of why the neutrino is so much lighter - by orders of magnitude - than any other massive particle. It could help to explain why the universe contains more matter than antimatter, ie help to explain why we exist as we do. And, if the sterile neutrino is heavy enough, it could even be part of the solution for the dark matter puzzle." "Finding a sterile neutrino would be an even bigger discovery than finding the Higgs boson," ; soit pas moins : « Le neutrino stérile pourrait expliquer le puzzle du pourquoi les neutrinos sont si légers – de plusieurs ordres de grandeurs – que les autres particules massives. Il pourrait aider à expliquer pourquoi l’univers contient plus de matière que d’antimatière, c. à d. expliquer pourquoi nous existons en tant que tel. Et, si le neutrino stérile est suffisamment léger, il pourrait même contribuer à la solution du puzzle de la matière noire. » ; « Découvrir un neutrino stérile serait une découverte plus significative que celle du boson de Higgs. »

Constatons que plus les physiciens sont ignorants sur un objet hypothétique et qui à ce titre bénéficie d’un grand nombre de degrés de liberté, plus on peut lui prêter les propriétés rêvées.

Pour mémoire, rappelons-nous que l’équipe de Planck a toujours affirmé que les données recueillies par le satellite donnent comme résultat 3 neutrinos et non pas 4.

 

Partager cet article
Repost0
26 octobre 2016 3 26 /10 /octobre /2016 10:22

Neutrinos et la nature de leur masse.

Il aura fallu donc qu’il n’y ait plus qu’un paysage intellectuel de ruines du modèle standard de la physique des particules élémentaires comme cela apparaît évidemment comme tel en ce second semestre de 2016 pour que les physiciens s’interrogent sur la pertinence des propriétés physiques attribuées aux neutrinos depuis leur invention en 1930 par Pauli. Cela conduit immédiatement à concevoir non plus : ‘les propriétés physiques des neutrinos’ mais plus justement concevoir : ‘la physique des neutrinos’, c’est à dire que les neutrinos seraient les vecteurs d’une physique à part entière et cela constitue une autre physique que celle conçue dans le cadre du modèle standard de la théorie quantique des champs (TQC). Cela fut une de mes motivations de créer le blog : “mc2est-cesuffisant”, qui j’en conviens, ceci est un titre qui ne fait pas très marketing mais en creux dit bien ce qu’il veut dire : la célèbre loi E = mc2 n’est pas suffisante pour représenter tous les objets physiques de la nature et probablement pas les neutrinos. Comme je l’écris dans le texte de présentation : la masse effective des neutrinos n’est pas contrainte par la célèbre loi, si cette fameuse matière noire existait vraiment il en serait de même pour ses constituants élémentaires. Cela signifie aussi qu’il n’est pas approprié de postuler qu’ils aient une masse d’inertie = mi, comme cela est le cas dans les équations qui veulent rendre compte de la soi-disant oscillation entre les différentes saveurs. A ce propos, il y a vraiment un manque de vigilance de la part des physiciens car dans certains articles on peut lire : “puisque les neutrinos ont une masse, il y a une oscillation entre leurs saveurs” et dans d’autres : ‘puisqu’il y a oscillation, ils ont une masse’. Or, dans les trois articles récents que je cite ci-dessous, on commence à s’interroger sur la pertinence sur cette masse attribuée a priori et sur sa nature.

Je cite en premier les articles tels qu’ils sont écrits originalement puis ensuite je propose une traduction. Je procède ainsi parce que ce sont des textes ou citations fondateurs et puisque j’ai proposé ces hypothèses depuis de nombreuses années je ne veux pas qu’il y ait un soupçon de biais introduit dans la version en français.  

In ‘Nature physics’ du 02/09/2016, article : ‘Nullius in Verba’ : “ There are deep interconnections between these results: dark matter — which has so far only been inferred from astrophysical observations of processes such as galaxy formation and dynamics — is not described by the standard model, and the origin of the mass of neutrinos continues to remain a mystery.”

Dans ‘Nature physics’ du 02/09/2016, article : ‘Ne croire personne sur Parole’ : “Il y a des interconnexions profondes entre ces résultats : matière noire – qui jusqu’à présent a été inférée que par des observations astrophysiques de processus tels que ceux concernant la formation des galaxies et ceux concernant leurs dynamiques – n’est pas décrite par le modèle standard, et l’origine de la masse des neutrinos continue de rester un mystère.” Voir fin de mon article du 27/05/2012 : ‘Lumière/Matière ↔Matière/lumière.

In ‘Cern courier’ de juillet/aout 2016,  article : A portal to new physics : “The most important question about neutrinos concerns the type of masses they have. So far, all the known fermions are of the Dirac type: their particles and antiparticles have opposite charges and they possess a Dirac mass that arises from the coupling to the Higgs field. Neutrinos could behave in the same way, but because they are electrically neutral it is possible that neutrinos acquire mass via a different mechanism. Indeed, neutrinos and antineutrinos might be indistinguishable, constituting what is called a Majorana particle after Ettore Majorana who proposed the concept in 1937. Unlike Dirac fields, which have four components, Majorana fields have only two d.o.f. Such a particle cannot possess any charge, not even a lepton number.”

Dans le ‘Cern courier’, article : Une porte pour une nouvelle physique : “La question la plus importante à propos des neutrinos concerne le type des masses dont ils sont dotés. Jusqu’à présent tous les fermions connus sont des fermions de Dirac : les particules et les antiparticules ont des charges opposées et ils ont une masse de Dirac à cause de leur couplage avec le champ de Higgs. Les neutrinos pourraient suivre le même chemin mais parce qu’ils sont neutres électriquement (sic), il est possible que les neutrinos acquièrent une masse par un mécanisme différent. En effet, les neutrinos et les antineutrinos peuvent être indiscernables, constituant ce que nous appelons des particules de Majorana, après que Ettore Majorana eut proposé ce concept en 1937. Contrairement aux champs de Dirac qui ont quatre composantes, les champs de Majorana n’ont que deux composantes indépendantes. Une telle particule ne peut avoir de charge ni même un nombre leptonique.”

In Futura-Sciences, le 09/08/ 2016, dans l’article : « Le LHC est triste : il n'y a pas de nouveau boson, mais y a-t-il un multivers ? », propos tenus par Julien Baglio : « Cependant, je reste optimiste devant les possibilités de découverte dans la physique des neutrinos (sic), bien que peut-être pas en premier au LHC. Nous ne savons toujours pas quelle est leur nature réelle, de Majorana ou de Dirac ? Comment expliquer de façon satisfaisante leur masse, sachant que le mécanisme de Brout-Englert-Higgs, qui est possible pour les autres particules du modèle standard, est plus difficile à mettre en œuvre de façon satisfaisante pour les neutrinos ? »

Comme il est dit dans l’article « Nullius in Verba », il y a une interconnexion entre le flop de la quête de matière noire et celui de l’accès à la physique des neutrinos parce que dans ces deux cas, il y a un préalable erroné qui consiste à considérer que ces deux entités sont contraintes par la loi E = mC2. Je le prétends erroné parce que ces particules n’émettent aucun rayonnement électromagnétique et à ce titre elles ne sont pas a priori astreinte par la limite de la vitesse C. Cette hypothèse implique que l’on ne peut pas leur attribuer une masse d’inertie, mais pas plus. Par exemple, on ne peut pas sur cette base inférer que ces particules pourraient se déplacer à des vitesses supraluminiques. Par contre on remet en cause une hypothèse fondamentale, celle de l’équivalence entre masse grave et masse d’inertie : mg = mi, car annuler la masse d’inertie n’implique pas l’annulation d’une masse grave. Il n’y a donc plus d’égalité qui vaille. A ce titre probablement le satellite microscope nous dira au cours de l’année prochaine si cette égalité est violée à des très petites échelles de précision.

Toutes les hypothèses essentielles sur les neutrinos ont été formulées dans le référentiel du modèle standard, à l’époque où l’on pensait les propriétés physiques des neutrinos et non pas de la physique dont ils sont les vecteurs. Si on considère que ceux-ci sont des objets qui témoignent d’un au-delà du modèle standard, il faudrait donc, avant tout, remettre à plat les hypothèses premières concernant les neutrinos. Le filtre expérimental actuel de l’analyse des propriétés des neutrinos s’appuie sur une propriété d’oscillation et cette propriété fut postulée en 1969 par B. Pontecorvo, par homologie avec ce que l’on connaissait à propos des Kaons neutres. Ces Kaons sont des hadrons, particules composites, constituées d’un nombre pair de quarks et d’antiquarks. On peut considérer que cette hypothèse d’oscillation attribuée à l’époque impose un modèle qui nous éloigne de la compréhension de ce que peut être la nature du neutrino.

On pourra toujours me dire en retour que nous avons obtenu quelques résultats partiels. Mais nous devons faire le constat que ceux-ci sont toujours partiels, et ce, depuis longtemps. Lorsqu’il y a progrès il ne peut pas nous échapper le fait que ceux-ci nous indiquent une tendance asymptotique des valeurs des grandeurs que nous pensons avoir mises en relief. Ainsi il y a une quinzaine d’années on considérait que la somme de leur masse était de l’ordre de 30 MeV, aujourd’hui elle serait tout au plus de 0.2 eV. Cette tendance asymptotique devrait nous amener à considérer que notre pensée est mal placée pour obtenir des résultats tangibles (voir article du 16/01/2016 : ‘Et si notre pensée était mal placée ! ’). A l’égard des neutrinos nous devons changer de paradigme si nous voulons accéder à la compréhension de la physique dont ils sont les vecteurs.

Dans l’article de futura-sciences, l’hypothèse de l’existence d’un multivers est posée. Selon l’auteur, l’hypothèse deviendrait légitime puisque le LHC ne nous fournit plus de résultats physiques nouveaux que nous serions en mesure de décrypter. Cela laisserait entendre que nous avons accédé à la compréhension de l’ensemble des lois physiques qui détermine Notre Univers. En conséquence le black-out actuel ne peut que durer. L’hypothèse du multivers rôde dans les esprits des physiciens depuis pas mal d’années. Dans ce sens le raisonnement développé par Aurélien Barrau, souvent cité dans des articles, est convaincant, encore faudrait-il étayer, par contraste, quelle serait cette autre physique ou quelles seraient ces autres physiques possible(s) ailleurs. Si c’est pour dire en permanence que cela nous est définitivement inaccessible, cela ne devient qu’un jeu d’esprit gratuit. Je considère que ce que nous concevons comme étant notre univers est avant tout l’univers de la limite actuelle de notre capacité de (le) penser. En franchissant la barrière de cette limite, cet autre univers du multivers deviendra pensable et sera en conséquence intégré à notre univers ainsi étendu. C’est une illustration de ma conception : « Au sein d’une éternité, parmi tous les possibles, l’anthrôpos, sans cesse, creuse sa connaissance de l’univers… » 

            Les neutrinos nous indiquent peut-être les hypothèses hardies que nous devrions formuler pour accroitre l’univers globale de notre pensée. Par exemple considérer que le rayonnement de la matière baryonique est le seul rayonnement que nous avons jusqu’à présent identifié et que celui-ci a effectivement une vitesse : C, limite de propagation. On peut conjecturer que ce tropisme résulte du fait que nous sommes fondamentalement constitués de cette matière (nous sommes faits de poussières d’étoiles). Considérer que les neutrinos ne seraient pas contraints par cette constante dite universelle voilà une hypothèse qui devrait être creusée.

Partager cet article
Repost0
18 octobre 2016 2 18 /10 /octobre /2016 14:43

Concevoir l’Être humain sans Être ?

            Préambule : annuler l’Être à l’Être humain ou le banaliser, c’est n’avoir plus à faire qu’à un être inerte que l’on ne pourra même pas qualifier d’être vivant. Il ne sera plus qu’un amas de matière baryonique. 

Concevoir l’être humain sans être ? Telle est bien la question que je me suis spontanément posée lorsque j’ai lu l’article dans le ‘Monde’ du 12/10/2016 : ‘L’homme 2.0 ou la mort des limites’, l’auteur Laurent Alexandre est chirurgien urologue et président de DNAVision. Dans le cours de cet article on lit rapidement la conséquence de l’annulation de l’’être’ de l’être humain par cette phrase : « rendre l’homme maître de sa propre nature ». En pensant que l’homme serait réductible à n’être que d’une nature, quelle qu’elle soit, on annonce qu’avec la maîtrise de celle-ci, il pourrait être prisonnier de lui-même, s’immobiliser dans lui-même, être autarcique, figé et sans interaction avec aucune extériorité. Sans l’être de l’être humain qui nous caractérise, pourrais-je parler de lui, là, maintenant, dans cet article ? Qui serais-je ? Où serais-je ? Et vous qui seriez-vous ? Où seriez-vous ?

            L’auteur de l’article nous annonce d’emblée : « L’homme se construit sur ses limites, ses faiblesses et l’inéluctabilité de la mort. Dépassant ce fatalisme, les transhumanistes veulent supprimer toutes les limites de l’humanité et démanteler tous les impossibles grâce aux technologies NBIC (nanotechnologies, biotechnologies, informatique et sciences cognitives), dont le potentiel croît de manière exponentielle. La mort de la mort, l’augmentation des capacités humaines, la fabrication d’intelligences artificielles, la création de la vie en éprouvette et la colonisation du cosmos sont les cinq premiers objectifs de ce mouvement qui promeut l’homme 2.0, ou l’homme-dieu»

            A propos des NBIC, Pascal Picq que j’ai déjà cité dans l’article du 21/09/2016 : « P. Picq l’annonce, S. Dehaene l’illustre. » nous dit tout autre chose et même exactement le contraire parce qu’il n’est pas réducteur de ce qui fait la richesse et la spécificité de l’être humain : « Mais contrairement aux sirènes du tranhumanisme qui postulent que l’évolution est arrivée à son terme et que nos technologies doivent prendre le relais, il faut penser notre avenir en fonction des interactions de trois coévolutions (1e celle qui a concerné tous les organismes vivants et leurs interactions ; 2e celle qui s’est mise en place avec les premiers hommes (homo erectus) avec des innovations techniques et culturelles, comme la cuisson et la taille des outils ; 3e celle qui se manifeste depuis le début du XXIe siècle avec l’impact des NBIC). Ces trois coévolutions permettent l’émergence, en quelque sorte, d’une nouvelle intelligence. Car fondamentalement, c’est quoi l’intelligence ? Essentiellement des interactions… » En me fiant à Picq, je comprends par nouvelle intelligence : nouvelle ampleur de cette intelligence = nouvelle ampleur de l’être de l’être humain, nouvel enracinement de l’être de l’être humain qui s’humanise de plus en plus et devient ainsi moins dépendant, moins déterminé par son origine naturelle (ceci est illustré dans mes différents articles par les conquêtes de l’être dans la nature à l’égard de l’être de la nature cohabitant en l’être humain.) Il faut préciser tout de suite que ce processus ne peut être vertueux que s’il ne se fait pas au détriment d’autres êtres vivants.

            Le maître mot de P. Picq est interaction, selon moi, il est aussi le maître mot de la motivation du physicien, c’est ce que j’ai précisé dans l’article du 23/08/2016 : ‘Décrire comment les humains interagissent avec la nature ? Comment ils évoluent grâce à cette interaction ?’

             L’article de P. Picq dans le N° de ‘Pour la Science’ a pour titre ‘Le roman des intelligences’, et en avant-propos : « Pour appréhender toute la diversité et la richesse des intelligences dans leur dynamique (évolutive ou individuelle), nous devons nous défaire d’une conception dualiste qui oppose humain et animal. C’est aussi essentiel pour que demain nous puissions cohabiter au mieux avec les nouvelles formes d’intelligence. » L’avenir, selon P. Picq, est celui des nouvelles intelligences alors que pour les technophiles invétérés l’avenir appartient aux Gafami (Google, Apple, Facebook, Amazon, Microsoft et IBM) ou aux BATX (Baidu, Ali-baba, Tencent et Xiaomi), qui sont les concurrents chinois de la Silicon Valley, et selon L. Alexandre, personne ne peut lutter contre les immenses moyens des géants du numérique, qui bénéficient d’une base installée de milliards de clients (sic) : les transhumanistes ont des moyens quasi illimités.

            Alerte donc, selon l’auteur, puisque ce serait un changement de civilisation qui serait en train de s’engager avec ce tsunami technologique.

Ne soyons pas naïfs ni angéliques, l’être humain pourrait s’autodétruire, la crainte n’est pas vaine ; l’être humain pourrait détruire l’environnement qui assure son existence parce qu’il ne sait pas encore à quel point il est dépendant de l’interaction vitale avec la Nature. Il est dépendant puisqu’il en est l’émanation et ce cordon ombilical ne pourra jamais se rompre.

            Au recto de la page du ‘Monde’ où se trouve l’article traité, il y a un autre article qui nous indiquerait quasiment le chemin inverse et qui s’intitule : « Il est temps d’arrêter de courir après le propre de l’homme ». L’auteur : Frans de Waal, est éthologue, enseignant à l’université d’Emory (Géorgie, EU) et a écrit un livre au titre explicite : ‘Sommes-nous trop « bêtes » pour comprendre l’intelligence des animaux ?’. Lire l’article vaut la peine. Je ne citerai que quelques extraits de celui-ci.

            Après avoir cité l’ensemble des performances que l’éthologue considère avoir détecté chez les animaux, il lui est demandé : « Qu’est-ce qui nous reste, à nous humains ? » sa réponse fuse : « Honnêtement pas grand-chose. Le développement du langage comme moyen de communication symbolique, quand même. Les autres n’en sont pas dénués mais nous restons dans une catégorie à part. En dehors de ça, je ne vois pas. Nos capacités d’intelligence sont parfois plus développées. Mais c’est une différence de degré, pas de nature. Il est temps d’arrêter de courir après le « propre de l’homme ». Dans ma vie, j’ai dû voir 25 propositions sur le propre de l’homme. Toutes sont tombées. On perd notre temps. Mieux vaut comprendre les règles générales de la cognition et étudier les spécificités de chaque espèce. Pourquoi toujours chercher ce qui nous est unique, à nous ? » Un peu plus loin dans l’article, il est demandé : « D’où viendra la prochaine percée ? » ; réponse : « Les neurosciences vont beaucoup nous apprendre. Pour l’instant, elles sont restées très descriptives. Mais elles vont être de plus en plus précises. Montrer des homologies(sic). Que non seulement les animaux ont des capacités communes, entre eux et avec nous, mais que leurs cerveaux fonctionnent pareil. Des collègues l’ont fait en montrant que les chiens percevaient le langage humain de la même façon que nous… » Avec ce propos, j’entends les conséquences d’une pensée étroite car vouloir établir une homologie entre l’ancêtre humain qui a fondé le langage avec l’animal qui perçoit quelques mots et intonations de ce langage grâce à un apprentissage dû à la domestication, cela est plus que troublant. Il me semble que l’éthologie a atteint le stade d’une science, il y aurait donc des personnes qui se proclament éthologistes mais qui sont loin d’être des scientifiques.

            Il me semble qu’un paléoanthropologue ne peut pas exprimer de telles inepties car celui-ci étudie la façon dont l’homo-sapiens surgit finalement en s’extirpant, durant les dernières 2 millions d’années, par étapes successives de l’évolution, des péripéties naturelles violentes qui ont failli le rayer de l’existence. A ce stade de la réflexion on peut valablement me répliquer : ‘il en fut de même pour les autres êtres vivants !’. Effectivement, en acceptant l’idée d’un ordre commun à l’origine, celui des primates, on peut constater qu’il y eut des processus différents d’évolution, d’adaptation à la Nature, qui ont abouti à l’émergence d’espèces qui se distinguent.

Sur des préalables, a priori, antipodiques, les transhumanistes de Laurent Alexandre et les éthologues façon Frans de Waal veulent régler leur compte à l’être humain. Est-ce que c’est le signe que l’être humain perd les marques de sa raison d’être ? En ce qui concerne les transhumanistes la réponse est positive car la lumière que lui renvoie le miroir des technologies qu’il invente, peut l’aveugler et lui faire croire qu’il est au bord d’atteindre le stade de l’homme-dieu. En ce qui concerne les éthologues façon F. de Waal, il y a un autre phénomène qui est jeu car effectivement on peut considérer que le genre humain a historiquement méprisé les formes de vie, les stades de vie, autres que la sienne et nous rencontrons là, en retour, un effet boomerang qui viserait à ratiboiser les spécificités de l’être humain pour qu’enfin une sorte d’égalité, ou pour le moins d’homologie, puisse être établie. Il est hors de question, encore moins au nom d’une scientificité bâtarde, d’entretenir et d’accepter un tel mouvement extrême de balancier.

A l’injonction de l’éthologue qui nous dit : « Il est temps d’arrêter de courir après le « propre de l’homme » », j’ai envie de répondre benoîtement : « Ah bon ! sur la planète Terre ce ne serait pas un propre de l’homme que de concevoir un univers qui aurait une histoire de plus de 13,8 milliards d’années, ce ne serait pas un propre de l’homme que de concevoir des instruments qui permettent d’ausculter l’infiniment grand ou l’infiniment petit et d’inférer sur les phénomènes naturels que l’on observe, ce ne serait pas un propre de l’homme que de vouloir s’émanciper des contraintes de la nature et de ses déterminations, en mettant au jour ses lois qui gouvernent notre environnement, ce ne serait pas un propre de l’homme que de… » ; « Ah bon ! ce n’est pas propre à l’humanité que d’avoir généré en son sein des Galilée, Descartes, Newton, Maxwell, Einstein,… des Kant, Spinoza, Hegel,… des Humboldt, Freud, Benveniste… ».

Pour que dans le ‘roman des intelligences’ selon P. Picq, soit écrit un nouveau chapitre, les physiciens doivent apporter une contribution significative. A mon sens, celle-ci sera effective lorsque le verrou de la finitude cosmologique sautera. En effet la pensée dominante se réfère à une histoire de l’univers entier qui est représentée par la Relativité Générale qui impose une représentation de l’univers bloc, intemporel, inaltérable. Tout est joué dès le Big-Bang de notre univers, à partir de ce moment-là, la chaîne de causalité s’occupe du reste (voir article du 03/06/206 : ‘Bienvenu au ‘Temps créatif de Nicolas Gisin’). Telle est la représentation de l’univers dans laquelle l’intelligence humaine se trouve contrainte, immobilisée.

Si on recense les différentes cosmogonies élaborées par l’humanité, il est évident que l’être humain a toujours éprouvé la nécessité de poser sa pensée sur une origine du temps pour que celle-ci puisse se déployer, jusqu’à ce que l’obsolescence de cette origine provisoire soit pensée et partant dépassée. Actuellement, il est temps de penser à l’obsolescence du moment primordial appelé Big-Bang, il y a matière à la constater et des faits nouveaux rendront ce processus irréversible. Nous statuerons pour une nouvelle origine plus profonde et donc vers la conception d’un univers ou des univers qui permettront un nouveau déploiement de la pensée du sujet pensant et les transhumanistes resteront cois car dépourvus et les éthologues façon F. de Waal devront remiser leur thèse.  

 

           

 

Partager cet article
Repost0
15 octobre 2016 6 15 /10 /octobre /2016 07:03

Physique théorique : La nouvelle physique de l’empereur.

            Tel est le titre du nouveau livre que vient de publier Roger Penrose et qui est le sujet d’un article critique du 6/10, dans la revue ‘Nature’, signé Richard Dawid. Cet article se concentre sur la critique de Penrose pour ce qui est de : la mécanique quantique, la théorie des cordes et l’inflation en cosmologie. Le sous-titre précise la triade de qualificatifs que son jugement attribue à ces domaines de la connaissance en physique : Mode, Foi, et Fantaisie dans la Nouvelle physique de l’Univers. Comparativement aux nombreux livres publiés par R. Penrose (toujours passionnants) on peut donc considérer a priori qu’il n’y a pas vraiment des idées nouvelles dans celui-ci, si ce n’est des accents plus prononcés dans un sens ou dans un autre qui justifieraient la publication d’un nouveau livre.

            R. Penrose affirme que des théories même bien confirmées comme la mécanique quantique, sont ‘surestimées’ au regard de leur stabilité conceptuelle présumée. La physique quantique connaît un impressionnant record de succès prédictif, de la chimie quantique à la physique des particules élémentaires. Mais selon l’auteur elle est confrontée à un profond problème conceptuel. Tandis que la mécanique quantique a une consistance interne parfaite quand elle décrit un système qui évolue sans qu’il soit mesuré, la façon par laquelle elle rend compte de l’action de la mesure n’est pas justifiée d’une façon cohérente dans la description. Pour Penrose, ceci indique que les principes fondamentaux de la mécanique quantique n’ont pas été mis correctement en évidence et ceci est à relier avec l’impossible intégration de la théorie de la gravité au cœur du corpus la physique quantique. Il prétend que les succès de la mécanique quantique tendent à rendre les physiciens insensibles aux problèmes conceptuels de la théorie et génèrent un degré de confiance injustifié en ses principes basiques comme si les fondations étaient solides.

            Rien de nouveau avec cette critique, qui est en partie justifiée, c’est ce qu’on appelle le problème de la mesure ou le problème de la réduction de fonction d’onde. Ce qui est insupportable pour l’auteur ce sont les postulats ou les principes énoncés par l’école de Copenhague qui interdisent de fait une conception réaliste de la Nature à l’échelle quantique. En effet N. Bohr, W. Heisenberg et les autres nous disent in fine : …telle que les lois, les propriétés de la Nature nous apparaissent. Il est un fait que depuis un peu plus d’un siècle nous n’avons pas pu franchir une barrière de compréhension et d’explication causale ce qui nous oblige à nous référer à des principes voire des postulats. On peut comprendre que des réalistes comme Penrose n’acceptent pas de ne pas pouvoir remonter plus en amont de la chaîne de causalité qui lui semble donc tronquée. Pour lui, il doit y avoir une cause fondamentale qui soit à l’œuvre et qui une fois débusquée, le recours au principe, au postulat, n’auront plus de raison d’être et la mécanique quantique sera explicable dans le paysage d’un monde réel.

            Cette frustration tenace qu’exprime Penrose et qui était celle d’Einstein en son temps, est due pour l’essentiel au refus d’entendre, d’accepter, dans les énoncés de l’école de Copenhague le verbe : apparaître.

Etant donnée cette frustration, je propose : patience ! Tant que nous ne saurons pas penser quantique, nous ne progresserons pas. Or, cette situation n’est pas définitive ! Déjà on peut mesurer que la physique quantique est moins absconse qu’elle le fut dans ses débuts et dans les années 1950. Son enseignement de plus grande qualité et la manipulation d’objet exploitant les propriétés de la M. Q. rendent celle-ci plus familière, notre cerveau engrange des données qui deviennent de moins en moins étranges, parce que de plus en plus communes. Cela n’est pas suffisant, j’en conviens. Le saut le plus déterminant aura lieu quand nous comprendrons que les bizarreries de la M.Q. que nous jugeons ainsi : puisque nous avons une conception classique de la mesure de la Nature, sont dues à notre part, à notre contribution de ‘sujet pensant’ : observateur. Lorsque nous découvrirons que c’est à cause d’une détermination de notre fonctionnement cérébral que les lois de la mécanique quantique nous apparaissent bizarres, alors on sera en mesure de répondre, en partie d’une façon satisfaisante à R. Penrose, car effectivement les bizarreries de la M.Q., selon mon hypothèse, auraient une cause bien qu’elle ne soit pas celle dont il a l’intuition. La proposition d’expérience que j’ai détaillée dans l’article précédent du 21/09 : ‘P. Picq l’annonce, S. Dehaene l’illustre’ devrait fournir une réponse.

Ce résultat, ne changera pas notre fonctionnement cérébral, il apportera une explication qui nous aidera sérieusement à ‘penser quantique’ car nous pourrons connaître la contribution de l’observateur dans les lois de la mécanique quantique. Quoi que ! il est possible que Penrose y trouve son compte car dans les ouvrages précédents il avait avec force détail voulu démontrer que le caractère quantique de la gravité puisait une cause dans des structures élémentaires de notre cerveau (synapse, dendrite, axone, neurotransmetteur…). Ce chantier est resté 30 ans après inabouti (heureusement car si ses hypothèses avaient été confirmées, cela nous conduisait tout droit à la validation de la thèse du physicalisme).

Comme je l’indique dans ma proposition d’expérience, puisqu’il y aurait eu un processus archétypal de l’intellectualisation du temps voire de l’espace-temps chez les ancêtres de l’être humain, la zone du cerveau, qui est activée lorsque l’espace-temps parcouru par un objet quantique est un donné connu, ne peut être que distincte de celle qui est activée lorsqu’il est inconnu. Lorsque l’espace-temps est un donné connu, la zone archaïque du cerveau activée nous conduit à inférer qu’un objet ponctuel se déplace dans l’interféromètre. Lorsque l’espace-temps n’est pas un donné, c’est une autre zone du cerveau qui est activée, qui ne peut pas être qualifiée d’archaïque, et qui privilégie l’inférence d’une dispersion spatio-temporelle[1]. Si on arrive à distinguer qu’effectivement ce sont des zones différentes du cerveau qui sont sollicitées, dans ce cas, on mettra en évidence la contribution du ‘sujet pensant’ dans les bizarreries de la mécanique quantique, et le terme ‘apparaître’ utilisé par les fondateurs de l’Ecole de Copenhague sera justifié. 

La pensée scientifique de R. Penrose est guidée par l’Idéalité platonicienne. Il considère donc que la loi de la relativité générale est une magnifique illustration de sa conception platonicienne de l’Univers et une belle illustration de la voie par laquelle le scientifique peut accéder à la bonne connaissance. Cette voie étant essentiellement celle des mathématiques, bien évidemment, (qui sont préinscrites sur les pages de l’Univers Platonicien). Pour cette raison, il est convaincu que toute recherche théorique visant à rendre compte de la gravité quantique ne peut s’engager qu’à partir de la loi de la relativité générale et de ses propriétés fondamentales pour aller vers une quantification. La théorie des cordes emprunte exactement le chemin inverse, puisque c’est à partir de la M.Q. que l’on vise à formuler une théorie de la gravitation quantique satisfaisante. Ceci a été entrepris au début des années 1970, des développements ont connu des rebonds importants et successifs mais cela n’a toujours pas abouti. Penrose a donc un regard très critique vis-à-vis de cette théorie des cordes et tout autant sur la cosmologie inflationnaire[p1]  qui fait appel aussi à la théorie quantique des champs.

Bref on peut considérer que son nouveau livre est probablement une bonne reprise de tous ses livres déjà publiés et qui ont déjà utilement nourri notre réflexion.

 

[1] A priori, je ne suis pas un adepte de la philosophie empiriste (voir : F. Bacon, J. Locke…, D. Hume) pour rendre compte de la voie d’accès à la connaissance mais je suis convaincu qu’analyser pour mieux comprendre l’évolution historique de la connaissance permet d’accéder à de la signification et partant d’emprunter une/des voie(s) nouvelle(s) de connaissances.

Partager cet article
Repost0
5 octobre 2016 3 05 /10 /octobre /2016 10:33

NOW

‘NOW’

Préambule : jusqu’en 2013, j’ai connu la solitude de celui qui proposait l’hypothèse de ‘l’instant Présent’ et ‘TpS’, puis effectivement, en 2013, solitude rompue et accueil enjoué de la toute nouvelle réflexion de L. Smolin, article : ‘Bienvenu au ‘Moment Présent’ de Lee Smolin’. Ensuite, il y eut un nouvel accueil : ‘Bienvenu au ‘Temps créatif’ de N. Gisin, le03/06/2016. Vient de sortir un nouveau livre : ‘Now’ mais je ne lui réserve aucun accueil particulier. Lire ci-dessous.

Maintenant, la physique du temps’ est le titre d’un livre qui vient de sortir aux Etats-Unis dont j’ai lu une première critique dans un article de Phys.org du 21/09/2016. A vrai dire, bien qu’il traite d’un sujet sur lequel j’investis beaucoup, je n’avais pas envie a priori de m’exprimer sur l’article du livre. Quelques jours après, le 29/09 il y eut un article dans ‘Nature’ sur le même sujet. Sans enthousiasme, je me suis senti obligé de prendre la plume. Sans enthousiasme parce qu’il est navrant de mesurer combien certains physiciens ont une pensée recroquevillée sur des idées et des concepts qui ne peuvent plus nous ouvrir des horizons nouveaux pour vaincre les obstacles théoriques sur lesquels nous butons. Le physicien en question, auteur du livre, Richard A. Muller, nous dit : « Le temps a été la pierre d’achoppement à notre compréhension de l’univers. » La nouvelle idée de Muller est : « Le temps connaît une expansion parce que l’espace connaît une expansion. Le nouveau principe physique qu’il énonce est que l’espace et le temps sont liés (voir relativité restreinte et générale) ; quand vous créez de l’espace nouveau, vous créerez du temps nouveau. »

Muller est un suiviste d’Einstein, et il considère que toutes les considérations sur l’univers et son expansion sont réalistes ce qui l’autorise à affirmer : « l’espace n’est pas la seule chose qui augmente ; l’espace-temps augmente. Et nous surfons sur la crête de la vague, ce que nous appelons ‘Maintenant’ », « A chaque instant, l’univers devient plus grand, et il y a un peu plus de temps, et cela fonde en permanence ce rebord en avant du temps que nous qualifions de : maintenant. », « Le futur n’existe pas encore, il est en voie d’être créé. », « Parce que le futur n’existe pas encore, nous ne pouvons voyager dans le futur. Le retour dans le temps est aussi impossible puisque l’univers ne se replie pas. »

Il est étonnant que le réalisme de Muller qui veut rester au plus près des idées Einsteinienne reste muet sur la très grande contradiction que véhicule son hypothèse. En effet Einstein exclut toute idée du ‘maintenant’ : cela s’impose évidemment dès qu’on exploite les équations de la relativité restreinte. Verbalement citons ce qu’il en pense, dixit Th. Damour : « Le fait que le passage du temps (le maintenant) ne corresponde à rien dans la réalité physique » comme le dit Einstein : « la séparation entre passé, présent et avenir, ne garde que la valeur d’une illusion, si tenace soit-elle. »

La conception aveuglément réaliste de Muller l’amène à dire : « Et nous surfons sur la crête de la vague, ce que nous appelons ‘Maintenant’ ». Ainsi, selon ce schéma, l’être humain créateur de la connaissance en cours qui fonde notre Univers n’est, ipso facto, qu’un pantin surfant sur la crête de la vague… Le propre de la croyance des réalistes est de déresponsabiliser, d’effacer l’être humain des connaissances qu’il met en relief, puisque celui-ci, au bas mot, ne peut être que le lecteur passif de ce qui est. (En ce qui le concerne, A. Einstein lucide écrivit[1] : « …j’ai fui en me vendant corps et âme à la Science : j’ai fui le JE et le NOUS pour le IL : du il y a. »)

Dans mon schéma : la compréhension des lois de la nature entretient une dynamique de réduction des déterminations de l’être de la nature qui nous habite, (cf. la théorie de l’évolution), et cette émancipation progressive enrichit les perspectives de l’horizon de l’être dans la nature. Ainsi l’être humain ne peut être in fine qu’un être en devenir, ce devenir est en perpétuel renouvellement, il y a là, avec cette perspective, matière à l’engendrement d’une irréversibilité et partant d’une flèche du temps.

Le deuxième article du 29/09 dans ‘Nature’ relate surtout le scepticisme de A. Jaffre, auteur de l’article ‘Trouver le temps’. « Parfois, je suis convaincu que ‘Now’ est un non-problème. Une fois que la mécanique quantique et la thermodynamique ont donné la direction du temps, ‘now’ n’est pas physique, mais il est une combinaison de la flèche du temps avec la psychologie et la physiologie. Le passé est ce qui est encodé dans notre mémoire. A un rocher, un électron ou une galaxie, il n’y a pas de ‘now[2]’ (sic). Mais occasionnellement, je me demande si cela est suffisant (sic). »

Enfin il conclut : « Désolé, je n’adhère pas aux arguments : que ‘now’ ne soit pas ou soit un non-problème, l’idée de Muller est de mon point de vue une non-solution.(sic) »

En 1994, A. Connes et C. Rovelli ont publié un article de 17 pages de calcul qui s’attelait au problème suivant :

L’algèbre des automorphismes de Von Neumann et la relation du temps thermodynamique avec les théories quantiques généralement covariantes.

Abstract. Nous considérons l’ensemble des problèmes soulevés par les relations entre la notion de temps, la théorie de la gravitation, la théorie quantique et la thermodynamique ; en particulier nous nous adressons au problème de relier ‘l’intemporalité’ à l’hypothétique, fondamentale, ‘ théorie quantique des champs généralement covariante’ avec ‘l’évidence’ du flux du temps. En utilisant la formulation algébrique de la théorie quantique, nous nous donnons une perspective d’unification de ces problèmes en nous basant sur l’hypothèse que dans une théorie quantique généralement covariante, la flèche du temps physique n’est pas une propriété universelle de la théorie mécanique, mais plutôt qu’elle est déterminée par l’état thermodynamique du système (‘hypothèse du temps thermique’). Nous intégrons cette hypothèse en utilisant une propriété structurelle clé des algèbres de Von Newmann : le théorème de Tomita-Takesasi, qui permet de dériver un flux du temps, nommément un groupe d’automorphismes à un-paramètre de l’algèbre des observables, à partir d’un état physique thermal générique…

Conclusion, après 17 pages de calcul :

Les difficultés de trouver une interprétation consistante d’une covariance générale de la théorie quantique des champs sont multiples. Dans ce travail nous avons pointé une de ces difficultés : le problème de relier l’intemporalité de la théorie fondamentale avec l’évidence du flux du temps. Nous avons tenté d’introduire un ingrédient pour solutionner ce problème, sous la forme d’une relation générale entre l’état thermique d’un système et le groupe à un-paramètre d’automorphismes de l’algèbre des observables, interprété comme le flux du temps. Du fait que nous n’avons pas proposé une définition précise du ‘temps physique’, si ce n’est son identification avec un temps non relativiste et avec les temps de Lorentz dans la limite relativiste non-(générale), nous avons délibérément laissé une dose d’indéfinition dans la formulation de l’hypothèse du temps thermique… En dépit de cette incomplétude, nous avons trouvé que le nombre de faits indépendants qui sont connectés à l’hypothèse du temps thermique suggère que cette hypothèse pourrait constituer un ingrédient à la fondamentale théorie quantique généralement covariante : toujours pas découverte. »

Depuis 1994, rien de nouveau. Je n’ai pas eu l’occasion de constater des citations de cette publication, qui n’aurait donc pas fructifié. Je n’ai pas eu, non plus, l’occasion de lire une suite à ce travail.

Dans l’abstract les auteurs nous disent qu’ils cherchaient une voie d’unification entre le flux du temps qui n’est pas une propriété universelle puisque asymétrique (irréversible) avec une théorie quantique généralement covariante donc obéissant à des propriétés de symétries. Dans leurs conclusions, ils nous disent qu’ils ont rencontré une difficulté majeure : comment relier l’intemporalité de la théorie fondamentale avec l’évidence du flux du temps ?

Il faut rappeler que l’intemporalité est un préalable à la pensée d’Einstein lorsqu’il conçoit la théorie de la Relativité Générale : ‘Dans un Univers immuable les bonnes lois de la physique sont celles qui sont invariantes étant donnés les points de vue des différents observateurs’. Sauf que ce raisonnement n’élimine pas l’observateur, mais relativise son point de vue et la valeur de la covariance générale n’a sa consistance qu’avec la présence d’observateurs dans le dispositif. Ici donc, s’impose une source inaliénable d’un flux du temps. Ainsi vouloir relier mathématiquement l’intemporalité de la théorie fondamentale avec l’évidence du flux du temps est condamné à l’échec. Il y a une hétérogénéité radicale entre ce qui est de l’ordre de la nature et ce qui est de l’ordre de l’observateur : le sujet pensant. L. Smolin a intuité ce problème sans penser plus loin, c’est-à-dire sans franchir le Rubicond, et c’est dommage, pourtant il a considéré que la mathématisation de la physique pouvait avoir des limites. Voir article du 02/05/2013.

A ce niveau de la réflexion, on doit se préoccuper d’une forme de stérilité dans laquelle s’enferre les physiciens qui est dû à une croyance que les bonnes connaissances sont celles qui satisfont uniquement aux contraintes de la logique mathématique, c’est-à-dire les leurs. Cette conception étriquée et bornée est une source de réduction et d’aveuglement et le reflet de beaucoup de mépris à l’égard d’autres domaines de connaissances comme il m’est arrivé en maintes occasions de le regretter. Ainsi, on peut s’interroger, pourquoi Connes et Rovelli ignorent cette pensée remarquable, rigoureuse, vivante, et in fine objective, qui nous parle tant, du linguiste E. Benveniste (natif d’Alep) : « On pourrait croire que la temporalité est un cadre inné de la pensée. Elle est produite, en réalité, dans et par l’énonciation. De l’énonciation procède l’instauration de la catégorie du présent, et de la catégorie du présent naît la catégorie du temps. Le présent est proprement la source du temps. Il est cette présence au monde que l’acte d’énonciation rend seul possible, car, qu’on veuille bien y réfléchir, l’homme ne dispose d’aucun autre moyen de vivre le ‘maintenant’ et de le faire actuel que de le réaliser par l’insertion du discours dans le monde. » E. Benveniste : Problèmes de linguistique générale, vol 2, Paris 1974.

Le propos de Benveniste, qui pour moi a la valeur d’une démonstration, confirme que nous devons considérer qu’il y a un temps de la physique c’est celui que nous plaçons dans les équations, il peut être rapporté au temps du discours du physicien générique mais en conséquence il n’y a pas de temps physique à proprement parler contrairement à ce qu’ont à nouveau affirmé A. Connes et C. Rovelli : « l’hypothèse que nous avons mis en avant dans cette publication est que le temps physique a une origine thermodynamique. »

A cause de l’échec de la tentative d’A Connes et de C. Rovelli, je considère que ma conception métaphysique de la dynamique des avancées de la connaissance en science physique : « Au sein d’une éternité, parmi tous les possibles, l’anthrôpos creuse sans fin sa conception de l’univers. » est confortée. Vers l’éternité qui est la somme de tous les possibles, et qui n’est qu’un horizon, il est normal que nous y projetions une perspective (cela fait de nous des êtres humains qui se différencient de tous les êtres vivants) ; ceci explique en quoi, la pensée einsteinienne est particulièrement originale et puissante. Mais l’anthrôpos creuse sans fin, et cette activité du creusement détermine la direction d’une flèche du temps. La flèche du temps thermique, en fait le processus de l’intangible irréversibilité est une conséquence, une apparence, un ersatz, de celle-ci.

Enfin, je reviens sur l’article de ‘Nature’ du 29/09 car il y a un commentaire pertinent qui nous signale que R. Muller dans son livre ‘Now’ renie la Relativité d’Einstein par inadvertance. En effet Muller affirme : « Parce que le futur n’existe pas encore, nous ne pouvons pas voyager dans le futur. » Pour contredire et s’opposer à cette assertion, le commentateur fait référence à un article de Th. Damour dans http://www.bourbaphy.fr/damourtemps.pdf : « Le paradigme de la R.R. bouleverse la conception usuelle du temps avec le paradoxe des jumeaux. Faisons la remarque frappante que la possibilité de la dilatation du temps prouve que le voyage dans le temps (vers le futur) est concevable. En tant qu’expérience de pensée (si on néglige quelques détails tels que les technologies nécessaires pour atteindre des vitesses comparables à celle de la lumière, le coût du fuel et la capacité du voyageur de supporter des accélérations très élevées), il montre qu’un être conscient peut sauter, ‘en une minute’ (de son temps ressenti) arbitrairement loin dans le futur, disons 60 millions d’années en avant, et voir, et être partie de, ce qui (adviendra) se produit sur la planète terre. Ceci est une voie claire pour comprendre que le futur ‘existe déjà’ (que nous pouvons expérimenter en une minute). »

Il est clair pour moi que cette proposition d’expérience de pensée énoncée par Th. Damour n’a pas de valeur car dans mon schéma le ‘TpS’ est un invariant absolu, quel que soit le référentiel auquel le sujet pensant est attaché, par rapport à un autre sujet pensant en mouvement dans un autre référentiel. La loi de la dilatation d’un intervalle du temps ne s’applique effectivement que pour des opérations techniques et des mécanismes. Par ex : l’intrication, si dans un référentiel O, ∆ti<TpS, l’observateur considère que les deux objets sont intriqués et si dans un autre référentiel O’ relativiste, ∆t’i = ϒ∆ti>TpS, en conséquence l’intrication n’est plus effective pour l’observateur dans O’. Cela peut être plus qu’une expérience de pensée car matériellement on peut (on pourra) probablement envisager une vérification expérimentale de mon hypothèse de ‘Temps propre du Sujet’ : TpS.

[1] « Je crois, avec Schopenhauer, écrit-il, que l’un des motifs les plus impérieux qui conduit les hommes aux arts et à la science est la fuite de la vie quotidienne avec sa douloureuse cruauté et sa sécheresse sans espoir. » Mais aussi, si je peux me permettre, leitmotiv pour la personne intime, quand Einstein écrit à son ami H. Broch : « Ce livre me montre clairement ce que j’ai fui en me vendant corps et âme à la Science : j’ai fui le JE et le NOUS pour le IL du il y a. » Le livre en question était la ‘La Mort de Virgile’, cadeau offert par cet ami, H. Broch, et Einstein exprimait à la fois, dans une lettre de remerciement, la fascination et la résistance acharnée suscitées par la lecture de l’œuvre. On pourrait rappeler avec une dose raisonnable d’ironie qu’un individu, un sujet, qui fuit, résiste, est toujours extrêmement là, présent,… à son insu, à son corps défendant… Marie-Antoinette Tonnelat : scientifique et femme de lettres, avait qualifié avec indulgence et poésie, « ce troc de l’irisation du ‘je’ et du ‘nous’ par le dépouillement du ‘il y a’, Einstein a conscience du choix inhérent à cette éthique », mais selon elle, il fallait aussi en payer le prix. D’après son expérience, en guise de conclusion, elle n’hésite pas à affirmer : « Cette propulsion négative est, néanmoins, certainement beaucoup plus fréquente qu’on ne le dit. »

[2] Cet argument signifie que la ‘Présence’ du sujet connaissant est un non-problème, est dérisoire pour ce physicien, c’est à égalité d’intérêt avec l’existence d’un caillou, d’un électron…

Partager cet article
Repost0
21 septembre 2016 3 21 /09 /septembre /2016 09:14

P. Picq l’annonce, S. Dehaene l’illustre.

Lorsque nous découvrons des nouvelles lois et propriétés dictées par la Nature, c’est autant de connaissances qui provoquent une distinction entre ce qui est de l’ordre de notre ‘être de la Nature’ et ce qui est notre ‘être dans la Nature’. Exemple, avec Newton, l’humanité accède à la connaissance que nous sommes physiquement constitués de matière et le poids de cette matière naturelle que nous mesurons résulte de l’effet de l’interaction avec la matière de notre planète Terre, identiquement naturelle. Ainsi sur ce plan, notre matière constitutive fait de l’humanité des êtres de la nature et le fait de connaître notre interaction matérielle avec la Terre et hiérarchiquement avec celle du reste du monde, nous place sur un promontoire qui nous autorise à nous distinguer partiellement de la nature et donc d’avoir un regard extérieur, intelligent, et in fine d’accroitre notre statut d’être dans la nature.

A la fin de ce processus qui accroît ce qui nous est extérieur et affine ce qui nous est intrinsèque il est évident de considérer que le sujet pensant de l’après ce processus n’est plus le même que celui de l’avant ce processus. Ce processus est sans fin et c’est un propre de l’homme. Pour s’en convaincre, il suffit de se rappeler qu’il y a un peu plus d’un siècle, pour projeter sa conception basique de la loi de la Relativité Générale, Albert Einstein avait (comme tous les physiciens de l’époque) une compréhension de l’Univers, étriquée, concentrée, qui s’appuyait sur une connaissance très imparfaite de la Voie Lactée. Nous pouvons mesurer le chemin parcouru depuis (grâce, essentiellement, au développement des outils d’observation de plus en plus sophistiqués) et éprouver une sorte de vertige quand on se rend compte de la vitesse exponentielle avec laquelle on éclaire ce chemin. Nous devons intégrer aussi l’idée que depuis une bonne trentaine d’années nous émettons l’hypothèse que la matière qui physiquement nous constitue n’est pas universelle. Elle ne représenterait que 16% de la matière composant notre univers. Y a-t-il un tropisme qui s’ensuit ? Pouvons-nous disposer naturellement d’une capacité d’identification de cette autre matière dite : noire ? Personnellement j’en doute ! Un résultat (positif ou négatif, mais scientifique), ne pourra être obtenu que par un dépassement conceptuel qui de fait sera un véritable saut conceptuel et probablement mettra en évidence ce tropisme aujourd’hui imperceptible.

Dans le dossier ‘Pour la Science’, juillet-septembre 2016, ‘INTELLIGENCE. Notre cerveau a-t-il atteint ses limites ?’, Pascal Picq écrit dans son avant-propos : ‘Le roman des intelligences’ : « Pour appréhender toute la diversité et la richesse des intelligences dans leur dynamique (évolutive ou individuelle), nous devons nous défaire d’une conception dualiste qui oppose humain et animal. C’est aussi essentiel pour que demain nous puissions cohabiter au mieux avec les nouvelles formes d’intelligence. »

Nous défaire d’une conception dualiste qui oppose humain et animal est une condition essentielle pour entendre ce que je propose avec la dynamique évolutive : être de la nature/être dans la nature. Il est possible que sur la base de ce que nous dit P. Picq, d’autres cheminements de réflexions soient proposés mais, selon moi, se défaire de la conception dualiste est une condition première. La partie être de la nature de l’être humain sera toujours réductible mais ne sera jamais déracinable sinon ce n’est plus de l’être humain dont il s’agira. C’est la conquête de l’intelligence des lois physiques gouvernant la Nature qui contribue à l’épanouissement de l’être dans la nature en réduisant les déterminations héritées de l’être de la nature. A ce point de la réflexion il est évident que nous avons envie de nous poser la question : « Quand situer l’origine de ce processus de l’évolution du rapport être de la nature/être dans la nature ? sachant que dès que cette hypothèse est affirmée, il y a le corolaire induit : au tout début il n’y aurait que de l’être de la nature. »

Est-ce que les prémices du processus d’émancipation des lois de la nature s’est engagé, il y a 12 millions d’années, avec le premier des hominoïdes, ou il y a environ 7-8 millions d’années lorsqu’il y a eu divergence avec, entre autres, les gorilles, les chimpanzés, et que la lignée humaine (hominines) apparaît dans la nature ? Faut-il situer les débuts de cet avènement avec le surgissement des premiers Homo, (Homo habilis, Homo erectus, Homo ergaster, …), il y a quelques 2 millions d’années ? Enregistrons avec un grand intérêt que les paléoanthropologues ont acquis ces derniers temps des connaissances suffisantes pour affirmer : « La taille du cerveau a triplé entre 2,6 millions d’années et 200 000 ans, pendant une période charnière pour l’évolution de l’espèce humaine. » Ajoutons à ce constat, celui énoncé par Yves Coppens et qui nous concerne directement : « L’homme est né d’un changement climatique. » Voir ‘La Recherche’, hors-série : mars-avril 2016.

Dans la citation de P. Picq que je privilégie, il est écrit : « … C’est aussi essentiel pour que demain nous puissions cohabiter au mieux avec les nouvelles formes d’intelligence. » Selon l’auteur, nous ne sommes pas à une quelconque apogée et l’être dans la nature va continuer de dépasser les déterminations héritées de l’être de la nature et ainsi continuera de conforter et d’élever le promontoire sur lequel l’intelligence humaine sur la nature gagnera en acuité.

A la fin de son avant-propos, P. Picq analyse : « La première coévolution concerne tous les organismes vivants et leurs interactions. La deuxième se met en place avec les premiers hommes (Homo erectus) avec des innovations techniques et culturelles comme la cuisson et la taille des outils qui modifient et sélectionnent nos organismes, des gènes aux capacités cognitives. La troisième se manifeste depuis le début du XXIe siècle (sic) avec l’impact des NBIC (nanotechnologies, biologie naturelle et de synthèse, sciences informatiques et cognitives).

Mais contrairement aux sirènes du transhumanisme qui postulent que l’évolution est arrivée à son terme et que nos technologies doivent prendre le relais, il faut penser notre avenir en fonction des interactions de ces trois coévolutions ; l’émergence, en quelque sorte, d’une nouvelle intelligence. Car, fondamentalement, c’est quoi l’intelligence ? Essentiellement des interactions. »

Aujourd’hui grâce à l’imagerie cérébrale on commence à acquérir des compréhensions significatives à propos du fonctionnement de notre cerveau. Empiriquement nous découvrons des mécanismes et des organisations physiques propres à notre cerveau qui sont en jeux lorsque nous cogitons (état permanent, que nous soyons éveillés ou pas). A partir de ces observations on peut mieux comprendre ce qui est de l’ordre de l’apprentissage et comment celui-ci, lorsqu’il a correctement abouti, devient un donné permanent libérateur qui favorise l’émergence de nouvelles tâches et de nouvelles inférences

Récemment des travaux de Stanislas Dehaene ont permis d’imager ce qui se passe, dans le cerveau de mathématiciens professionnels comparativement avec celui de non-mathématiciens mais ayant un niveau général académique identique, lorsqu’on pose des questions à propos du vrai ou du faux concernant des déclarations mathématiques et non-mathématiques. Chez les mathématiciens professionnels, l’imagerie cérébrale montre clairement que les zones du cerveau activées sont les mêmes que celles correspondantes aux nombres, aux calculs et aux représentations dans l’espace, tout autant pour des questions en algèbre, en analyse, en topologie, en géométrie. Aucune zone identifiée à celle du langage n’est active pendant cet interrogatoire. Ceci laisse voir que les professionnelles cogitent les mathématiques abstraites en utilisant les mêmes zones que celles de l’apprentissage basiques des mathématiques (après automatisation des tâches mathématiques les plus simples). Les mathématiques de haut niveau recyclent des fonctions cérébrales anciennes du point de vue de l’évolution de la personne.

A partir de ces constatations, sur le plan scolaire, il est légitime de considérer que si l’apprentissage élémentaire des mathématiques est correctement fait cela permet aux enfants de comprendre les mathématiques au-delà du simple calcul algébrique. Dans ce domaine, et dans d’autres, ces observations donnent de l’espoir aux enseignants d’exercer leur métier avec un taux de réussite plus élevé, cela s’appelle la neuro-éducation.

Etant donné la valeur des résultats récents publiés par M. Almaric et S. Dehaene, in PNAS en ligne le 11 avril 2016 : ‘les origines des réseaux cérébraux pour les mathématiques avancées chez les mathématiciens experts.’, on peut considérer que l’imagerie cérébrale a atteint un niveau de maturité tel, que ce domaine d’observation et d’interprétation fait maintenant autorité. Aussi, je réitère ma proposition d’expérience qui pourrait lever un coin du voile en mécanique quantique à propos du principe de superposition qui est un principe général en M.Q. mais que je propose de traiter en particulier en ce qui concerne la complémentarité onde/particule. Comme dans l’exemple précédent, il faut choisir deux catégories d’observateurs. Des observateurs physiciens professionnelles et des observateurs non-professionnelles de la physique, ceux-là surtout ignorant de ce qui constitue le domaine de la physique des ondes. Ensuite l’expérience consiste à placer, ces deux groupes de personnes équipées des moyens d’observation d’IRM fonctionnelle, successivement devant le même interféromètre. La 1e expérience consiste à observer les régions cérébrales qui sont activées lorsqu’un objet quantique parcourt l’interféromètre avec une information spatio-temporelle à propos de sa trajectoire. La 2e expérience est identique à la 1e sans information spatio-temporelle.

Quelles seraient les résultats possibles ?

a) Avec une information spatio-temporelle sur la trajectoire, je fais l’hypothèse que les images cérébrales seraient semblables pour les 2 catégories de personnes. Et l’apparaître de l’objet quantique serait ponctuel.

b) Sans information spatio-temporelle sur la trajectoire, je fais l’hypothèse que chacune des catégories laisserait voir des images cérébrales différentes.

Dans le cas a) je considère que le repérage spatio-temporel correspond à un apprentissage qui est acquis par tous les hommes. Les paléoanthropologues conjecturent que l’intellectualisation de l’espace et du temps s’est engagé il y au moins 2 millions d’années et elle aurait pu contribuer à la sélection naturelle. Le repérage spatio-temporel est donc une vieille histoire, il est acquis depuis longtemps (avec l’évolution, il s’est évidemment affiné) et il se pourrait que la région cérébrale active, dans ce cas, soit située dans une zone archaïque du cerveau.

Dans le cas b) les physiciens professionnels intellectuellement outillés pour pallier à l’absence d’information spatio-temporelle mettront en jeu une zone du cerveau récemment éduquée à la représentation ondulatoire. Je fais cette hypothèse parce que la représentation ondulatoire ne relève pas de la même histoire, elle est une représentation abstraite, formelle qui ne peut être spontanée. La conception ondulatoire n’est pas naturelle, c’est par l’étude qu’elle est acceptée. Historiquement, c’est une conception proposée à l’origine par Ch. Huygens (1629-1695), puis contrée par I. Newton (1647-1727), enfin devenue acceptable grâce à A. Fresnel (1788-1827).

Dans le cas b) les non-professionnelles physiciens n’auront pas d’alternative à la représentation de l’objet qui ne se laisse pas voir dans l’espace ni dans le temps de son trajet dans l’interféromètre. En conséquence, toujours selon l’hypothèse que je propose en partage, les images cérébrales qu’ils livreront seront très différentes.

Si ce que je conjecture précédemment est validé, il serait alors intéressant subdiviser le groupe de physiciens professionnelles avec d’un côté ceux qui ont été formés à la mécanique quantique et d’un autre côté ceux qui n’ont pas du tout été formés à cette discipline. Là encore on pourrait conjecturer des images cérébrales distinctes.

L’expérience que je propose peut être à juste raison controversée, elle ne résoudra pas toutes les énigmes que posent la mécanique quantique surtout celles postulées par l’Ecole de Copenhague. Les résultats de cette expérience permettront de mieux situer à partir de quel niveau se situe ou ne se situe pas notre participation à la révélation du monde des physiciens, problématique effective comme nous le rappelle Anton Zeilinger ci-après :

« Je ne suis pas un adepte du constructivisme, mais justement un adepte de l'interprétation de Copenhague. D'après cette théorie, l'état quantique est l'information que l'on a sur le monde. [...] Il s'avère finalement que l'information est la base fondamentale et essentielle du monde. Nous devons bien nous démarquer du réalisme naïf, selon lequel le monde existe seul sans notre participation et indépendamment de notre observation. »

Partager cet article
Repost0
26 août 2016 5 26 /08 /août /2016 12:02

Mécanique quantique et principe de causalité font mauvais ménage.

Après l’article définitif et historique d’A. Aspect, le 16/12/2015, validant d’une façon complète les propriétés de l’intrication sans qu’il n’y ait la moindre faille qui permettrait de remettre en cause la théorie de la mécanique quantique selon la version de l’école de Copenhague, malgré cet article approuvé par une très large majorité de la communauté scientifique on constate qu’il y a toujours une grande inertie intellectuelle ou une incapacité à en tirer des conséquences qui devraient s’imposer.

D’après l’article du 18 Août sur le site de physicsworld.com :

« La mécanique quantique fait encore plus de ravages avec les idées conventionnelles de la causalité. Une équipe de chercheurs a montré que même en autorisant que la causalité puisse être non locale – c’est-à-dire qu’un évènement à une place puisse avoir une influence sur un autre placé à distance – cela n’est pas suffisant pour expliquer comment les objets quantiques se comportent.

Sans cause et effet, la science serait impossible (sic). On ne pourra jamais utiliser une observation pour déduire quelque chose à propos du mécanisme sous-jacent qui le cause. Mais la mécanique quantique défie notre sens commun de la causalité – par exemple en impliquant que quelque chose se produise au hasard, sans cause apparente, ou bien qu’une action en un lieu puisse sembler avoir un effet quelque part ailleurs, même si les deux lieux ne peuvent pas interagir.

Ce type de non localité est devenu largement accepté en théorie quantique, grâce aux expériences réalisées sur les états intriqués. Dans ce cas, deux ou plus d’entités quantiques, telles que des photons, acquièrent des propriétés interdépendantes qui sont révélées par des corrélations constatées sur les valeurs mesurées.

Action à distance ?

Parce que les propriétés quantiques sont inhérentes à des résultats qui sont le fruit du hasard, ces corrélations sont typiquement le résultat de la moyenne de plusieurs mesures. La surprise supplémentaire c’est que la mécanique quantique semble insister que ces propriétés ne sont pas fixées tant que la mesure n’est pas effectuée. Cela semble impliquer qu’une mesure sur un photon intriqué affecte instantanément l’autre photon à travers l’espace (sic). »

Ces lignes sont extraites de l’article, cité ci-dessus, de présentation d’expériences récentes qui visaient à sauver certains aspects du réalisme, façons Einstein et Bell. La thèse de la causalité non locale ne se vérifie pas, en tous les cas une large classe de cette thèse est exclue. Un autre article sur le même sujet sur le site phys.org avec le titre : « Des corrélations quantiques n’implique pas une causalité instantanée. »

Il faut se rappeler que selon la conception traditionnelle et suivant la relativité restreinte, la chaîne de causalité ne peut pas se propager à une vitesse qui soit au-delà de la vitesse de la lumière. Il est à mon avis impropre de faire perdurer le concept de causalité à propos des propriétés de l’intrication, pas plus de causalité non locale. Quand un des auteurs de l’article écrit d’une façon définitive : « Sans cause et effet, la science serait impossible. », il met en évidence une véritable angoisse de physicien mais il ne faut pas s’arrêter à celle-ci. Par contre si l’auteur avait écrit: « Sans cause et effet notre capacité de raisonnement scientifique actuelle serait impossible. », alors il est substitué au sentiment d’angoisse, à l’idée d’une impossibilité définitive, une perspective ouverte, historique. Le principe de causalité constitue pour nous humain un support qui valide la qualité d’un raisonnement, mais nous devons le considérer comme étant un substrat de la pensée humaine et non pas le considérer comme un paradigme qui régit effectivement les propriétés de la nature, en effet il doit être considéré comme une projection. Pour nous rapprocher des propriétés observées dans la nature il nous faut donc nous émanciper de ce substrat spécifique de la pensée humaine. Comme précisé ci-dessus, le développement du principe de causalité est limité à celui de la limite de C, vitesse finie, donc à l’existence de l’espace et du temps.

Si comme je l’ai déjà conjecturé : avec la phénoménologie de l’intrication, il ne peut pas y avoir de référence ni au temps, ni à l’espace, donc il ne peut y avoir de vitesse de propagation, et en conséquence aucune référence à une telle limite. Voir article du 29/10/2015 : « L’univers n’est pas si bizarre si… », ainsi que du 9/12/2015 : « L’espace-temps a une source mais pas quantique. ». Puisque la fondation de l’espace –temps relève de sujet pensant, quand les conditions de cette fondation sur un phénomène ne sont pas réunies, dans ce cas-ci à cause de TpS, ce phénomène ne peut être décrit en termes d’espace-temps, ni en termes de grandeurs qui en dépendent.

Avec l’intrication nous sommes donc confrontés à un phénomène qui nous suggère que dans la nature toutes les propriétés ne sont pas régulées par des critères et des contraintes habituelles qui sont de fait les conséquences de déterminations du sujet pensant. En cela nous pouvons comprendre les raisons de l’inertie intellectuelle déployée puisqu‘il est particulièrement déroutant de se trouver confronté à une rupture conceptuelle qui avant tout remet en cause nos déterminations ancrées, jusqu’à présent totalement ignorées. L’espace et le temps sont des propres de l’homme, C définit notre présent horizon limite de vitesse, mais il n’est pas celui de la nature.

Il y a peut-être une autre approche semblable à celle que je préconise et qui résulte aussi d’une conjecture formulée par Maldacena et Susskind : E.R. = E.P.R, en 2013. Cette égalité dit qu’en cas d’intrication on pourrait considérer que les particules se joignent par un ‘trou de ver’. Un trou de ver permettrait de passer d’une région d’espace-temps à une autre instantanément. Ce concept a pour origine un article publié par Einstein Rosen(1935). Donc un trou de ver affranchirait la relation entre des particules de toute contrainte spatio-temporelle. Cela est une spéculation et les physiciens tournent en rond sur ce sujet parce qu’ils pensent que l’espace-temps est réel et donné, alors qu’avec ce concept, de trou de ver, l’espace-temps n’a plus de réalité et il est cout circuité.

Un autre article dans NewScientist, du 20/08, rend compte d’une expérience qui met en œuvre une ingénierie qui vise à essayer de pousser jusque dans ses ultimes retranchements les propriétés dites bizarres de la mécanique quantique. Dans cette expérience on réalise de mettre en état de superposition un événement A qui semble précéder B avec celui de B qui pourrait anticiper A. On arrive à conserver le fil d’une compréhension du résultat des occurrences après mesure, si et seulement si on se réfère au concept basique du principe de superposition des états avant la mesure tel qu’il fut postulé par N. Bohr.

By the way : ce sondage, ci-dessous, datant de 2011 présente un intérêt :

« In 2011, 33 physicists and philosophers at a conference in Austria on “Quantum physics and the nature of reality” were asked to nominate their favorites, listed below. The percentages of the delegates backing the various options do not add up to 100 – in keeping with the spirit of quantum theory, the poll allowed multiple answers.

The Copenhagen interpretation – 14 votes, 42 per cent

The information interpretation – 8 votes, 24 per cent

Many worlds – 6 votes, 18 per cent

Objective collapse – 3 votes, 9 per cent

Quantum Bayesianism – 2 votes, 6 per cent

Relational quantum mechanics – 2 votes, 6 per cent

The de Broglie-Bohm interpretation – no votes, 0 per cent

Partager cet article
Repost0
23 août 2016 2 23 /08 /août /2016 07:53

Décrire comment les humains interagissent avec la nature ? Comment ils évoluent grâce à cette interaction ?

J’ai effectivement signalé mon très grand intérêt, dans l’article du 21/06, à l’égard de la proposition de N. Gisin : « Finalement, la physique – et la science en générale – est l’activité humaine qui a comme but de décrire et de comprendre comment la Nature fonctionne. Pour cette raison on a besoin de décrire comment les humains interagissent avec la nature, comment on questionne la nature. » Selon ma thèse (voir articles du 2/11/2012 ‘Synthèse, un monde en Présence’ et ‘Un monde en Présence II’ du 1/01/2013) cette interaction entre les humains et la nature va de soi car chez l’être humain, il y a (aura) toujours une composante d’être de la nature bien que celle-ci puisse être de plus en plus réduite à cause des conquêtes intellectuelles sans fins de l’être humain qui contribuent à l’accroissement du socle de l’être dans la nature. Au questionnement original de N. Gisin, j’ajoute celui de la dynamique de l’évolution de l’être humain grâce à cette interaction. En effet lorsque l’être humain obtient une réponse (ou ce qui y ressemble) significative à la question : « comment la Nature fonctionne ? », il franchit un nouveau cap qui prend appui sur la réponse obtenue, c’est-à-dire l’être humain est un autre puisque riche d’un nouveau savoir.

A mon avis cette interaction ne peut pas évidemment être décryptée en temps réel, ni pendant des temps courts. C’est en puisant dans la profondeur des temps très longs qui correspondent à des durées significatives d’évolution jusqu’à l’émergence de l’homme moderne que nous pouvons repérer des évolutions de cette interaction avec la Nature. Aujourd’hui, la paléoanthropologie est une science suffisamment développée pour nous fournir des supports de données tangibles qui permettent de mettre en relief les différentes formes d’interaction avec la Nature. La tâche à accomplir, suggérée par Gisin, doit être menée en étroite coopération avec les paléoanthropologues. Accomplir cette tâche est maintenant nécessaire (impérative) car on ne peut plus se satisfaire de déclarations justes, mais déjà exprimées il y a 1 siècle, et sans lendemain comme je les ai pointées dans l’article du 23/04/2016 : « ‘De la vérité dans les sciences’, et après ! », à propos d’un livre d’Aurélien Barrau qui nous dit entre autres : « Nous choisissons et inventons les rapports au(x) monde(s) que nous jugeons pertinents, ils ne sont pas donnés, ils sont construits. »

A quand, un manifeste réunissant physiciens et paléoanthropologues qui proposerait de mettre en commun des résultats de recherche et des perspectives de recherches. Pour valider la justesse de cette proposition je retiens un seul exemple, celui sélectionné dans le livre de J. Guilaine : « Une seconde naissance de l’homme », page 57, titre du chapitre : « Origines : Le temps déduit de l’espace ? », je cite : « Sans doute la notion d’espace devait-elle être plus ou moins reliée à celle du temps (sic). », « Au paléolithique archaïque, aux alentours de 1.9 million d’années, l’analyse de la documentation fournie par plusieurs sites africains montre une gestion des matières premières fondée sur un certain rapport à l’espace (et donc au temps). » S’il se trouvait avérer que l’espace et le temps n’était qu’un propre de l’homme, les fruits d’un tropisme, cela modifierait sérieusement la valeur universelle que l’on prête à l’espace et au temps, à l’espace-temps. Pour mémoire je cite aussi les remarquables travaux de recherche qui viserait à montrer une très forte corrélation entre le développement (physique) du cerveau, le façonnage de la matière immédiate (le silex), la naissance de la volonté et de la nécessité du langage. Ce processus se serait engagé il y a environ 2 millions d’années.

Depuis deux décennies au moins, à la demande des physiciens, il y eut de nombreuses réunions voire des colloques entre physiciens et philosophes ainsi que des théologiens sur des sujets tels que : « A propos de l’espace et du temps. », mais je n’ai jamais constaté un éclairage significatif, original, chacun des orateurs ou des rédacteurs déployé sa conception, sa logique conceptuelle. Il n’y avait donc que des discours parallèles sans, aucun pont, aucune soudure, possibles. A mon avis ce ne serait pas le cas avec la paléoanthropologie et des points de soudure sont envisageables, ces deux corpus scientifiques peuvent développer des échanges fructueux à condition de les mettre en perspective par exemple dans un manifeste pour qu’il y ait des compétences qui interagissent de concert.

Ce que je veux croire avec la proposition de N. Gisin, c’est qu’il a une intuition qu’il me plait de cueillir parce qu’elle rejoint une idée que je laboure depuis quelques années : par exemple voir article du 21/07/2015 : ‘La seconde naissance de l’homme’, du 26/08/2014 : ‘Un authentique Big-Bang’. Je suis convaincu que ce type d’intuition, une fois qu’elle a été formulée dans un article, ne peut pas être considéré comme banal, ni marginal par l’auteur de ces lignes. Cette intuition laisse entendre qu’il ne faudrait plus considérer la physique comme une science qui fondamentalement exclurait toutes références à l’intelligence qui la pratique et la révèle. Cette intuition laisse entendre que dans toute nouvelle compréhension fondamentale de la Nature il s’y inclut aussi une nouvelle compréhension fondamentale du ‘sujet pensant’. Et dans la chaire de l’une il y a de la chaire de l’autre, bien qu’on puisse estimer qu’il n’y ait pas un rapport d’équilibre puisque la science physique est la science des lois physiques qui régirait la Nature. J’ai l’intuition que nous sommes à l’aube de l’évidence (ou de la nécessité) de la découverte d’une telle théorie inclusive et non pas exclusive et c’est pour cette raison que depuis toujours j’accepte l’idée que la physique est la première de toutes les sciences comme l’a proclamé R. Descartes en son temps. In fine, cette théorie inclusive intègrera le paradigme de la ‘Présence’ de l’être réflexif qui met en évidence les lois de la physique et qui est en conséquence inexpugnable du contenu et du formalisme de ces lois. Le ‘Sujet pensant’ avec ses déterminations relatives à l’état de son évolution physique, intellectuelle, existentielle, devra être considéré comme étant partie intégrante de la réalité de ces lois.

Nous sommes à l’aube d’une théorie inclusive parce que nous sommes de plus en plus confrontés aux conséquences du crépuscule d’un savoir physique exclusif. Il y a deux semaines nous avons été abasourdis par l’onde d’un silence abyssale qui s’est implacablement imposée à l’occasion de l’ICHEP (International Conference of High Energy Physics) de Chicago, il y aussi LUX qui fait chou blanc sur la matière noire pour la deuxième fois en deux ans malgré de notables améliorations de la sensibilité du détecteur et le très haut niveau de compétences de l’équipe de physiciens qui l’ausculte, il en est de même avec le télescope spatiale FERMI, idem pour AMS2. Alors la nécessité d’une rupture pour rebondir finira bien par s’imposer.

Dès le début des années 1930, Paul Dirac (1902-1984), en tant que disciple de Platon, affirmait que ce qui le guidait, au cours de ses cogitations de physicien, c’était la belle harmonie, la belle mélodie des propriétés de symétrie que faisaient entendre et voir ses équations théoriques. Quand, durant ses cogitations, il rencontrait cet état de grâce, il se disait assuré de dévoiler une vérité de la Nature. Ainsi, il mit en évidence l’antiélectron, et plus généralement l’antimatière, effectivement découvert dans une expérience par Anderson (1932) quelques années plus tard. Alors les physiciens de la physique des particules élémentaires se ruèrent sur ce paradigme des propriétés de symétrie dévoilée. Ce paradigme généra malencontreusement de la paresse intellectuelle puisqu’il fut considéré d’une façon définitive que là où il y a de la symétrie il y a du prix Nobel dans l’air. A force de tirer sur cette ficelle celle-ci finira par se rompre, peut-être que la rupture est déjà acquise dans la mesure où la Supersymétrie pourrait être une construction théorique de trop car toutes les tentatives d’observer la trace de son existence sont infructueuses avec comme conséquence, entre autres, de ne pas détecter la moindre trace de matière noire.

Lorsque nous serons en mesure d’entendre une nouvelle mélodie harmonieuse, elle ne sera pas de même nature que celle perçue par P. Dirac, elle proviendra du présent silence abyssale c’est-à-dire qu’il faut dès maintenant que les physiciens prêtent l’oreille, apprêtent leur cerveau, pour devenir disponibles à un nouvel entendement. Harmonie de l’interaction entre la Nature et l’être humain, qui validera que dans les lois de la Nature que nous dévoilons il y a de l’humain (contrairement à ce qu’a postulé Einstein, tandis que comme je le préconise, il y a de l’humain, certes dans une tranche de temps infiniment petite 10-25s, mais définitivement marquante parce qu’il en résulte une densité de ‘Présence’ ineffable.) et chez l’humain il y a toujours de la Nature qui projette ses déterminations (contrairement à ce que postule les dualistes). Quand cette interdépendance sera comprise, cela conduira tout autant à une découverte anthropologique majeure qu’à un nouvel envol de découvertes pour la physique. A cause de cette interdépendance cela mettra aussi en évidence la ténuité de notre existence telle qu’elle se manifeste, cela devrait aussi nous faire prendre conscience de notre responsabilité à l’égard de la Nature dont nous sommes issus et dépendant et cela ne se limite pas à l’échelle de notre planète. N’oublions pas que les acides aminés lévogyres qui sont les briques élémentaires des protéines sont forgés par la lumière dans l’espace interstellaire.

Partager cet article
Repost0
10 août 2016 3 10 /08 /août /2016 07:55

ICHEP 2016 à Chicago

Dès le premier jour des conférences ICHEP (International Conferences of High Energie Physics) du 5 au 10 Août à Chicago, il a été communiqué que le possible boson de 750 Gev peut-être entr’aperçu dans une annonce mi-décembre 2015, définitivement n’est pas. Les observations précaires de l’an passé, n’étaient que des fluctuations statistiques. Les physiciens du Cern n’avaient pas exclu cette situation à cause de la faiblesse du nombre d’événements obtenus collecté tout autant dans CMS et Atlas (mais effectivement cette conjonction pouvait faire sens).

Cela n’avait pas empêché, depuis, que plus de 500 publications soient proposées sur arXiv, publications empressées de valider théoriquement ce nouveau boson ou pour exposer quels étaient les nouveaux modèles théoriques que cela mettaient en évidence. On ne peut pas s’empêcher de penser, légitimement, que les physiciens théoriciens ont, depuis un certain temps, peu ou plus de grain à moudre. Déjà avec la découverte du boson de Higgs, il y avait eu une déconvenue très importante car cette découverte, avec les paramètres de cet objet identifiés, n’offrait aucune ouverture vers des sentiers nouveaux de recherche ou de conjectures, bien au contraire, le boson de Higgs observé, est tellement conforme au modèle standard qu’il scelle celui-ci.

Le 8/11/2011, j’ai proposé un article : « Qui se permettra de le dire ? », j’invite à le relire. En effet, j’exprime un point de vue très critique à l’égard de la théorie quantique des champs (TQC) car la boite à outils théorique qui a contribué à la fondation du modèle standard des particules élémentaires n’est qu’un mille feuilles de couches d’hypothèses empiriques. Cet empirisme, ce pragmatisme, peut se justifier mais il devient un inconvénient lorsque ce processus est oublié. Il me semble que nous sommes pris dans le marasme provoqué par cet oubli. Les 500 publications et plus, qui en quelques semaines ont proposé d’expliquer cet événement chimère est symptomatique de l’impasse dans laquelle se trouve la physique théorique des particules élémentaires.

A l’ICHEP, il a aussi été confirmé, une fois de plus, qu’il n’y a aucun indice de détection de particules supersymétriques. La supersymétrie (SUSY) est une hypothèse, qui date, et qui doit être comprise comme une extension du Modèle Standard, et l’absence d’indice non seulement cela fragilise l’hypothèse de la matière noire (voir article du 29/07), mais cela met en évidence que ce modèle standard n’a plus de valeur prédictive si ce n’est vers des voies erronées.

J’ai, aussi, toujours considéré qu’il était erroné de vouloir insérer les propriétés physiques apparentes des neutrinos dans le cadre de la physique propre au Modèle Standard alors que celles-ci bien interprétées pourraient nous ouvrir des voies d’analyses en dehors de ce carcan. Déjà commencer à considérer que leur masse pourrait être d’une autre nature que la masse d’inertie habituellement attribuée, constitue à mes yeux un début. Il faut penser avec insistance que la physique des neutrinos analysée sans a priori puisse offrir la possibilité de découvrir de nouveaux paradigmes.

Dès l’obligation de la renormalisation proposée par la TQC pour résoudre les termes divergents en électrodynamique quantique, il aurait fallu considérer que cette TQC n’était qu’une théorie effective et pas plus. C’est une autre logique qui s’est imposée caractérisée par une dynamique de la production du résultat, peut-être qu’aussi à cette époque s’est imposé le fameux : ‘Ne pense pas et calcule’, mais ce qui est certain c’est que le critère de la production de publications en nombre est devenu ‘Le’ critère de la reconnaissance d’une carrière scientifique au détriment de toutes autres considérations.

Dans ce contexte, on doit considérer que les excès constatés et provoqués par un évènement parfaitement chimère sont une illustration de dérives qui doivent impérativement refluer. Il y aussi une autre conception de la démarche scientifique qui est à l’œuvre et qu’il faudrait réfréner, c’est celle qui s’appuie sur l’idée que ce que l’on ne pense pas, finira toujours par se faire voir. En effet cette croyance est à l’œuvre car il est vrai que l’on est à même de fabriquer des instruments d’observation de plus en plus pointus, de plus en plus sophistiqués, et cela induit une forme de paresse intellectuelle collective sinon une erreur épistémologique fondamentale car il est dans ce cas a priori supposé que d’une manière ou d’une autre la Nature se laissera voir. C’est donc avec beaucoup d’inquiétude et de déception que j’ai découvert l’article du début janvier de cette année de Fabiola Gianetti Directrice générale du CERN : « Si une nouvelle physique est là, nous pouvons la découvrir, mais c’est entre les mains de la nature. » ; « If new physisics is there we can discover it, but it is in the hands of nature. » J’ai réagi a une telle affirmation, de mon point de vue, absurde et erronée en un article le 16/01 : « Et si notre pensée était mal placée ! » et j’avais indiqué que l’avenir de la compréhension de nouvelles lois régissant la nature, telles qu’elles nous apparaissent, n’est pas évidemment dans les mains de la nature mais dans le cerveau des physiciens.

Sur le site de Futura-Sciences, le 09/08/2016, Laurent Sacco a publié un article que je vous conseille de lire, intitulé : « Le LHC est triste : il n'y a pas de nouveau boson, mais y a-t-il un multivers ? ». Je pourrais partager cette interrogation si elle nous conduit à considérer d’une façon équivalente : « C’est l’univers de notre pensée scientifique qui est limité et un déploiement de celle-ci conduira à une extension de la compréhension de notre univers actuel qui intègrera ce que L. Sacco identifie comme le multivers. Ce processus d’intégration ne s’arrêtera pas pour autant à ce niveau et d’autres évidences de multivers viendront enrichir notre univers. »

Je vous joins quelques citations de l’article en question qui retiennent mon attention :

« Cependant, je reste optimiste devant les possibilités de découverte dans la physique des neutrinos (sic), bien que peut-être pas en premier au LHC. Nous ne savons toujours pas quelle est leur nature réelle, de Majorana ou de Dirac ? Comment expliquer de façon satisfaisante leur masse (sic), sachant que le mécanisme de Brout-Englert-Higgs, qui est possible pour les autres particules du modèle standard, est plus difficile à mettre en œuvre de façon satisfaisante pour les neutrinos ? Et même au LHC, nous ne sommes pas à l’abri de surprises, cette fois positives ! »

« Avant, les théoriciens avaient de bonnes raisons de prendre les signaux détectés au sérieux et on peut comprendre leur impatience à exorciser le cauchemar de l’hypothèse du désert. Mais après Moriond (en février 2016), ils auraient dû se modérer fortement alors que près de 400 articles ont été publiés. Même si un certain nombre avaient une réelle valeur ajoutée scientifiquement parlant, beaucoup étaient finalement assez artificiels. Sociologiquement, il semble probable que certains ont cédé à la tentation de faire grimper leur nombre de publications et de citations, sous la pression de plus en plus grande de la part des organismes financeurs (sic). Malheureusement, la science en pâtit (sic). »

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens