Overblog
Suivre ce blog Administration + Créer mon blog
1 janvier 2013 2 01 /01 /janvier /2013 14:54

Un Monde en ‘Présence’ II

Dans le présent article, je propose de consolider la validité du titre de celui que j’ai posté le 2/11/2012 : ‘Synthèse, un Monde en ‘Présence’’. A cette occasion, j’ai évoqué le caractère inexpugnable de la présence du ‘sujet pensant’ qui, en conséquence, marquerait les lois et/ou les propriétés rendant compte de notre compréhension de la Nature. C’est aux très petites échelles de la mécanique quantique que ces conséquences devraient être décelables. Avec l’hypothèse τs, je propose un indicateur de cette ‘Présence’ inexpugnable. J’attribue à ce ‘Temps propre du Sujet’ une valeur quantitative (présentement, je propose une estimation d’une valeur seuil) et aussi des valeurs qualitatives que j’ai tenté de répertorier[1].

Je conçois qu’un lecteur de ‘Un Monde en ‘Présence’’ comprenne toutes ces propositions comme s’inscrivant dans le corpus d’une métaphysique qui me serait propre, et donc ce ne sera pas de sitôt que le cap de la véracité scientifique sera atteint. Toutefois cela fait plus de cinq ans que je développe ce sujet et j’ai eu l’occasion de constater des convergences très significatives avec des travaux fondés sur des bases et des hypothèses très différentes. Les convergences sont là, encourageantes, elles ont déjà été citées. De même j’ai proposé des expériences qui pourraient valider (ou invalider) l’hypothèse de la ‘Présence’[2].

Dans le présent article, mon propos est de mettre en évidence des nouvelles convergences qui vont réduire – j’ose l’espérer – d’une façon significative, tout ‘reproche’ d’un a priori métaphysique. Il s’agit de convergences avec les travaux de Stanislas Dehaene[3]exposés dans son cours de l’année 2012[4]au Collège de France dans le domaine des sciences cognitives. (La page 5 de ce cours contient une remarquable synthèse rigoureusement ciselée des idées maîtresses de S. D.)

Premièrement, il considère que la confrontation oscillante de ‘l’être de la nature’ et ‘l’être dans la nature’ qui caractérise l’être humain, joue un rôle primordial dans le processus de l’évolution humaine. Citons : « L’architecture du cortex pourrait avoir évolué pour réaliser, à très grande vitesse et de façon massivement parallèle, des inférences Bayésiennes. L’algorithme utilisé pourrait expliquer la manière dont notre cerveau anticipe le monde extérieur. » « Le bébé semble doté, dès la naissance, de compétences pour le raisonnement plausible et l’apprentissage Bayésien, combinant de façon quasi optimale les a priori issus de notre évolution et les données reçues du monde extérieur. »

Donc selon S. D. :

1 – Au niveau le plus spécifique qui fait que nous sommes des êtres vivants dotés de la faculté de penser et de la faculté de langage nous sommes le fruit de l’évolution, c’est-à-dire le fruit de la confrontation entre les lois de la nature qui nous ont originairement déterminés et les lois qui nous deviennent propres et assurent la dynamique de notre survivance et de notre développement.  En ce sens nous sommes pleinement des êtres de la nature. 

2 – Dès la naissance nous sommes des êtres dans la nature et à ce titre nous recevons des données du monde extérieur. Nous cogitons ces données, et se met en place un processus d’anticipation qui sans cesse contribue à la consolidation et au développement de la position de surplomb de l’être dans la nature. A ce titre nous sommes pleinement des êtres dans la nature.

Deuxièmement, S.D. nous dit que, selon ses observations : « Nos décisions combinent un calcul Bayésien des probabilités avec une estimation de la valeur probable et des conséquences de notre choix. » « Le cortex réaliserait à très grande vitesse… des inférences[5] Bayésiennes.[6] » A très grande vitesse certes ! Mais pas instantanément. Tout processus d’estimation et de décision de la part du sujet pensant requière une durée. Le sujet pensant est toujours pris par un processus par lequel il infère, qu’il en soit conscient ou pas ; il ne peut pas se satisfaire de l’immobilité qu’engendrerait la certitude absolue, définitive, atteinte une bonne fois pour toutes. La mobilité de sa pensée est la condition de son existence. C’est à partir de ces considérations que j’ai été amené, depuis plusieurs années, à formuler l’hypothèse de τs.

C’est pour ces raisons que je l’ai qualifié d’existential et que je lui ai attribué une durée temporelle insécable.    

Il correspond aussi à un point aveugle de notre intelligence car pendant cette durée l’être humain n’est pas disponible.

Je me réjouis de cette rencontre avec les travaux de S. Dehaene car, depuis longtemps, j’ai la conviction que le cloisonnement des connaissances révélé par celui des différentes sciences est particulièrement stérilisant. (« Sommes-nous des scientifiques dès le berceau ? » est l’intitulé de son récent  cours du : 08/01/2013. La réponse est oui, d’une certaine façon. Donc immédiatement la question suivante est : « Est-ce que le scientifique adulte est un scientifique de la même façon ? Est-il capable d’échapper, de transcender, cette certaine façon après avoir suivi un cursus d’éducation en physique conséquent ? » Si la réponse est ‘Non’, cela veut dire que nos connaissances scientifiques sont déterminées par ce que nous sommes dès la naissance, et celles-ci ne peuvent pas être considérées comme universelles.)

Cela n’est pas simple d’établir des passerelles appropriées entre des domaines de connaissances qui se sont constitués avec des méthodes et des critères de validité distincts. Nos grands ancêtres y sont pour quelque chose. Rappelons-nous que pour Descartes les mathématiques ne livrent la vérité sur le monde qu’en tant qu’elles traduisent une certitude de l’entendement et pour Kant « On ne peut trouver de science à proprement parler que dans l’exacte mesure où il peut s’y trouver de la mathématique. »  

Dans l’article du 11 /9/2012 : « Faire alliance avec les linguistes pour avancer », j’ai indiqué qu’il y avait des rencontres très fertiles qui pouvaient se produire entre des concepts, des résultats, des analyses, des observations, provenant de domaines scientifiques distincts. Il y a aussi des préconisations qui ne devraient jamais rester silencieuses aussi longtemps. Je pense notamment à celle énoncée par Maurice Merleau-Ponty : « Au ‘je pense’ universel de la philosophie transcendantale doit succéder l’aspect situé et incarné du physicien[7] ».

Régulièrement on me reproche de prendre le risque de vouloir rapprocher des domaines de connaissances qui jouissent de degrés de liberté d’interprétation très différents et à ce titre il y aurait une incompatibilité fondamentale à vouloir les juxtaposer et de puiser dans l’un pour enrichir l’autre. Ce reproche est acceptable et il faut intellectuellement rester vigilant pour en minimiser les  inconvénients. En plus, il me semble que c’est en soumettant à la critique des autres ces rapprochements que l’on peut mieux border cet inconvénient potentiel. C’est exactement ce que je fais en éditant l’article aujourd’hui.   

 



[1] Article du 2/11/2012 : Synthèse : un Monde en ‘Présence’

[2] Idem.

[3] Titulaire de la ‘Chaire de Psychologie cognitive Expérimentale’

[4] Cours accessible sur le site du Collège de France. 

[5] Inférence : opération logique par laquelle on admet une proposition en vertu de sa liaison avec d’autres propositions déjà tenues pour vraies.

[6] Voir mon article posté le 2/11/2012 :’Thomas Bayes dans le cerveau.

[7] Relevé de notes de cours au Collège de France.

Partager cet article
Repost0
2 novembre 2012 5 02 /11 /novembre /2012 14:33

                                               Thomas Bayes dans le cerveau ?

 

De Stanislas Dehaene[1] : « Nous avons un petit Thomas Bayes[2] dans le cerveau ! ». Toujours de S. Dehaene « Je parle de révolution, car il n’est pas courant de voir apparaître aussi soudainement un cadre théorique qui s’infiltre dans tous les plans d’une science. Nous étions nombreux à penser qu’il ne pouvait y avoir de théorie générale de la cognition, le cerveau étant le résultat du bricolage de l’évolution… mais cette idée est en train d’être battue en brèche par la statistique bayésienne tant ses application sont extraordinaires[3] ».

Dans la formule de Bayes : P(A/B) = P(B/A)∙P(A)/P(B) Le terme P(A) est la probabilité a priori de A. Elle est « antérieure » au sens qu’elle précède toute information sur B. P(A) est aussi appelée la probabilité marginale de A. Le terme P(A|B) est appelée la probabilité a posteriori de A sachant B (ou encore de A sous condition de B). Elle est « postérieure », au sens qu’elle dépend directement de B. Le terme P(B|A), pour un B connu, est appelé la fonction de vraisemblance de A. De même, le terme P(B) est appelé la probabilité marginale ou a priori de B. Ainsi confrontant deux évènements l’un à l’autre, la formule quantifie donc la probabilité pour l’un d’induire l’autre, remontant ainsi des conséquences vers les causes pour comprendre les phénomènes de la nature. Nous avons donc à faire avec une mathématisation de la chaîne de causalité, en tous les cas elle sert de référence.

Voici maintenant l’interprétation qui est attribuée à cette formule surtout depuis les années 80 quand on a compris qu’il était possible de mettre la formule en réseau c'est-à-dire comme l’a fait le mathématicien Judea Pearl (spécialiste en intelligence artificielle, prix Turing en 2011) en montrant qu’en alignant des centaines de formules de Bayes, il devait être possible de rendre compte des multiples causes d’un phénomène complexe. Grâce à l’informatique on a établi, dans de nombreux domaines, des réseaux bayésiens où chaque nœud est relié à un autre via la formule de Bayes. C’est ainsi que l’on construit des modèles de phénomènes complexes, même lorsque les observations sont insuffisantes ou noyées dans le bruit parasite.

L’exploitation de plus en plus importante de ces réseaux bayésiens amène à considérer qu’ils modélisent au plus près la façon dont les savoirs, chez l’être humain, s’actualisent ou plus précisément rendent compte des mouvements incessants de pensée entre les phénomènes observés et la dynamique du savoir emmagasiné.

Dans l’article de ‘Science et Vie’, il est annoncé pas moins qu’une : Révolution Conceptuelle, « Alors que la science a toujours prôné une vision objective du monde, cette formule bayésienne réintègre une dimension subjective : elle ne nous parle pas du monde, mais de ce que nous en savons» D’ailleurs c’est exactement ce qu’ont postulé les fondateurs de la mécanique quantique, en l’occurrence : Bohr et Heisenberg. Toujours dans ‘S. et V.’ « Cette petite formule nous oblige à penser que les théories et modèles scientifiques reflètent notre représentation (sic) de la réalité plutôt que le réalité elle-même. Cette dernière se chargeant de nous fournir des données qui garantissent que notre représentation n’est pas trop éloignée de la réalité. L’effet est vertigineux : en décryptant le monde elle parle de nous. »

Je rappelle ce que j’ai proposé d’emblée dans l’article du blog du 27/08/2012 ‘D’infinis précautions’ « … alors la science physique nous informerait plus sur nous même – sujet pensant doué de capacités singulières – que sur un soi- disant monde extérieur. Les lois physiques que nous mettons en avant nous informeraient donc plus sur nos aptitudes à cogiter et les conditions de cette cogitation. C'est-à-dire qu’à travers le développement de la connaissance en physique nous concevons en fait une extension de ce que nous sommes, en décryptant au fur et à mesure, parmi tous les possibles, au sein d’une éternité, ce qui nous correspondrait en tant que sujet pensant et pourvu des sens qui sont les nôtres. » Je propose ce parallèle parce que c’est par un chemin très différent que je suis amené à formuler cette hypothèse. Ce chemin consistant à revisiter avec un regard critique l’état de la physique théorique aujourd’hui, ses apories, et les transcender en mettant en avant l’idée que l’être humain n’est pas nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la nature, pensée que j’ai interrogée dans l’article du 21/12/2011. Article que j’ai conclu sous la forme affirmative par : « La relation de l’être humain avec la Nature est une relation exceptionnelle, primordiale, elle n’a pas d’origine : elle a toujours été. Elle est la source du développement d’une connaissance réciproque, sans fin, de l’un et de l’autre. » A voir avec le principe d’optimalité évoqué par Sophie Denève, p.63, (ENS Paris)

L’article de Science et Avenir comprend un article composant qui s’intitule : ‘Elle est aussi la clé de la pensée. Si elle décrypte le monde, la formule de Bayes décrit aussi les mécanismes du cerveau. Au point d’ouvrir sur une théorie de la pensée ! » Lisez-le il est intéressant.

Page 65, vous trouverez un article à part : ‘La physique quantique remise sur les bons rails’. Dans celui-ci on peut lire : « …certains proposent une solution radicale : considérer que la mécanique quantique ne parle pas de la matière elle-même, mais seulement… de ce que l’on en sait. » ou encore : « Elle révèle que notre compréhension de la matière qui nous entoure se fonde, in fine, sur du virtuel et du subjectif. » Sans partager totalement ce qui est dit dans cet article qui me paraît trop succinct je retiens la reconnaissance de la part du subjectif dans la construction du savoir à propos des propriétés de la nature. Si vous vous souvenez, j’avais terminé l’article du 27/08/2012, ‘D’infinis précautions’ en ces termes : « J’ai dû, pour formuler cette hypothèse, vaincre mes propres réticences dont l’héritage est évidemment bien connu. Je ne doute pas que les lecteurs de cet article vont éprouver la même réluctance. Sans vouloir provoquer qui que ce soit, j’ai la profonde conviction qu’il faudra dans un temps proche passer par ce stade expérimental. » J’exprimai cette inhibition de ma propre pensée qui m’avait réellement paralysé pendant un certain temps, après avoir proposé une expérience qui met en jeu effectivement la subjectivité de l’observateur. Je ne pensai pas alors que cette inhibition pourrait, en si peu de mois, devenir superflue. 

 



[1] Professeur en psychologie expérimentale du Collège de France qui vient de consacrer un cours entier à ‘La révolution bayésienne en sciences cognitives.’ Cours 2011-2012 : « Le cerveau statisticien : la révolution Bayésienne en sciences cognitives » ; cours 2012-2013 : « Le bébé statisticien : les théories Bayésiennes de l’apprentissage. »

[2] Thomas Bayes : 1702-1761, est un mathématicien britannique et pasteur de l'Église presbytérienne, connu pour avoir formulé le théorème de Bayes

[3] Voir ‘Science et Vie’ de novembre 2012, l’article : ‘La formule qui décrypte le monde’.

Partager cet article
Repost0
2 novembre 2012 5 02 /11 /novembre /2012 14:24

Synthèse :  un Monde en ‘Présence’

 

La réponse à la question de l’instantanéité, de la simultanéité, ne nous est pas accessible car le ‘sujet pensant’ est toujours là, sa présence implique qu’il y ait toujours un avant et un après qui ne peuvent se superposer. En conséquence la relativité de l’instant, du maintenant, ne peut être pris en considération par l’observateur. Cela n’a pas de sens d’intégrer et de traiter l’instant absolu au moyen des équations de la relativité restreinte dans leur forme usuelle actuelle. L’affirmation d’Einstein sur les coïncidences spatio-temporelles est hors de portée du ‘sujet pensant’, du physicien : « Ce qui du point de vue physique est réel… est constitué de coïncidences spatio-temporelles. Et rien d’autre[1]. »

La présence inexpugnable du sujet se caractérise par le temps propre du sujet τs qui est tout au plus de l’ordre de 10-23 à 10-25s et peut-être plus petit encore, mais il ne peut jamais, évidemment, se confondre avec ce que l’on appelle le temps de Planck sur le plan quantitatif et encore moins sur le plan qualitatif. Je retiens cet ordre de grandeur maximum pour τs car, par exemple, c’est à l’échelle de cet intervalle de temps que se situe la problématique de l’ambivalence du monde réel et du monde virtuel. Certains physiciens considèrent que les particules virtuelles sont pures constructions de l’esprit, assurant le lien entre l’avant et l’après d’une interaction, d’autres physiciens considèrent, étant donné leur légitimité théorique, qu’elles font partie d’une réalité et il n’y a là aucun artéfact conçu à l’égard de ces particules intermédiaires.

Qualitativement, le temps propre du sujet : τs, est :

               1- une durée définitivement insécable ;

               2- un existential ;

               3- la condition de la mobilité de la pensée humaine et partant, concomitamment, la condition de la faculté de langage ;

               4- le foyer, le siège, de la temporalisation du temps ;

               5- une durée irrémédiable et aveugle de l’intelligence humaine ;

6- au cours de cette durée – qui a la valeur d’une ‘faille’ – se joue la compatibilité de l’être de la nature et de l’être dans la nature qui caractérise l’être humain ;

Bref aucune opération de mesure physique ne peut être instantanée, elle implique obligatoirement une durée.

τs est une détermination irrémédiable (atavisme), fondamentale, première, de l’être humain qui en conséquence détermine l’émergence du savoir de l’être humain à propos des lois physiques supposées inscrites dans la Nature. Plus prosaïquement c’est ce que nous nommons dans le corpus de la mécanique quantique : la problématique du rapport Sujet/Objet. A l’intérieur de τs le temps n’existe pas car il n’a aucun support (τs est plus petit ou égal à la scansion primordiale), il en est de même évidemment pour la dimension spatiale. Mon hypothèse est qu’en revisitant un certain nombre de concepts voire de résultats intangibles de la physique fondamentale, il est possible de mettre en évidence des occurrences qui soient en accord avec l’hypothèse de τs, jusqu’à considérer qu’on y trouverait là sa légitimité. Un premier résultat significatif pourrait être considéré comme tel avec l’effet Zénon quantique autrement appelé encore : ‘effet chien de garde’.

Deux convergences identifiées sont particulièrement intéressantes :

   Premièrement avec A. Connes quand il affirme : « L’espace-temps est très légèrement non commutatif, en fait le point lui-même dans l’espace-temps n’est pas commutatif. Il a une toute petite structure interne qui est comme une petite clé. Le point a une dimension 0 au niveau de la métrique mais avec ma géométrie (non commutative) il a une structure interne et j’ai un espace de dimension 6 non commutatif. » Selon la conception que j’ai développée le point de dimension temporelle τs est structuré par la présence du sujet.

La deuxième convergence identifiée concerne l’effet Zénon quantique. Cette convergence est discutée plus loin avec l’expérience : 2, que je propose.

En considérant la première convergence, nous pouvons inférer que les extrémités des cônes de lumière ne sont pas constituées d’une pointe mais d’une sphère de diamètre Cτs. Les lignes d’univers des objets quantiques émergent de cette sphère d’indétermination, à la limite elles la tangentent. Les lignes d’univers des objets intriqués sont donc superposées. Dans ce schéma on peut expliquer l’indiscernabilité des objets intriqués qui interagissent durant cette période τs. Les lois représentatives de la relativité spéciale doivent être modifiées en conséquence notamment lorsqu’elles impliquent et traitent les domaines de l’infiniment petit.

Avec τs nous avons une indication que le sujet pensant (le physicien) n’est pas nu de sa propre contribution quand il met en évidence les lois de la nature. Contribution qui ne peut en aucun cas être gommée. Le monde tel qu’il est, ne nous est pas accessible. Les croyants réalistes devraient réviser leur position. La croyance que les lois de la physique sont des lois qui décrivent le monde réel tel qu’il est en dehors de notre présence est erronée. L’être humain est dans sa permanence un être de la nature et un être dans la nature, confer les travaux de Giulio Tononi : « Les facultés conscientes sont apparues au cours de l’évolution des espèces, sous la forme d’une propriété évolutionnaire, constamment en développement et grâce à laquelle les humains peuvent se percevoir comme entités spécifiques dans la nature. »    

Deux expériences pourraient aujourd’hui être réalisées en vue de confirmer ou infirmer l’hypothèse d’une contribution indélébile du sujet pensant dans le décryptage des lois de la nature :

1- Nous accumulons les expériences où les objets quantiques font apparaître un comportement ondulatoire quand ils circulent dans des interféromètres (cela vaut aussi pour des objets de tailles macroscopiques comme des molécules de fullerènes : C60). La condition absolue pour que soit observé des franges d’interférences c’est que l’observateur n’ait aucune information spatio-temporelle sur le trajet suivi par l’objet quantique. L’observateur sait qu’il y a quelque chose dans l’interféromètre mais tout est fait pour qu’il ne puisse pas le localiser, alors c’est l’aspect ondulatoire (étendue spatiale) qui s’impose. Je propose de considérer que cette part d’ignorance de l’observateur joue un rôle essentiel. Ce serait donc à cause d’un cheminement archaïque cérébral que l’ignorance spatio-temporelle se trouverait être comblée par une représentation ondulatoire. Je propose de mettre à profit les performances maintenant atteintes de l’imagerie cérébrale et des neurosciences cognitives pour ‘voir’ s’il y a une relation de cause à effet chez l’observateur. Archaïque parce que pour un observateur compétent (formé) la partie du cerveau qui travaillerait serait différente de celle qui est à l’œuvre lorsqu’il pense l’onde résultant d’un savoir acquis.

2- L’autre expérience concerne l’effet Zénon quantique. Tout récemment Henry Stapp a proposé une explication mettant en jeu les spécificités, selon lui, du fonctionnement cérébral pour rendre compte de l’effet Zénon quantique (in ‘Mindfull Univers, Quantum Mechanics and the participating Observer’, édit. Springer). Je suis en désaccord avec sa démarche car notre ignorance du cerveau et partant de son fonctionnement est très importante et nous ne pouvons pas à partir de ce que nous croyons savoir sur lui, rendre compte de l’effet Zénon quantique. Par contre, il est certainement possible de mieux comprendre ce qui se passe dans notre cerveau lorsque nous sommes un observateur actif de cet effet. Là encore, c’est avec les moyens de l’imagerie cérébrale que l’on pourrait évaluer si cet effet est la conséquence plus ou moins directe d’une contribution de l’observateur.

Dès que nous obtiendrons, aux échelles de la mécanique quantique, des indications probantes et convergentes que les propriétés de la nature que nous décryptons, le sont au regard et avec la marque de la présence inexpugnable du sujet pensant, alors, il sera plausible de considérer que cela vaut à toutes les échelles. Cela voudra dire que notre conception de l’univers est franchement déterminée par ce que nos capacités d’être humain sont à mêmes de décrypter mais pas plus.

Dans ce cas, je serais enclin à considérer que notre Univers serait comme enchâssé au sein d’une Eternité[2] où aucun de tous les autres univers possibles ne pourrait être exclu. (Il est délicat d’appeler ces autres possibles : Univers, au même titre que le nôtre car cela supposerait qu’ils seraient habités par des intelligences capables de produire une telle synthèse et que nous les aurions entendues). Parmi tous les possibles nous privilégions celui qui nous est accessible, car nous l’avons rendu intelligible parce qu’il nous correspond. Il serait donc le fruit de notre entendement. Il est intéressant de constater que probablement certains de ces autres possibles apparaissent déjà à la pointe du crayon des théoriciens qui tentent d’extraire toute la quintessence des équations de la physique théorique telle qu’elle est développée actuellement. Citons par exemple A. Barrau[3] : « Nous ne cherchons pas à tout prix à inventer des mondes multiples et des multivers. Mais les théories que nous mettons au point pour résoudre des problèmes bien terrestres conduisent à ces résultats vertigineux. » ; ou encore : « Ils ont même inventé le mot de « paysage » pour décrire l’infini des mondes. Cela laisse de la place à des lois physiques radicalement différentes des nôtres, sans forces nucléaires, sans lumière, avec une gravité plus forte…Et à l’image de la vie dans un oasis, nous serions là où les bonnes conditions sont remplies. Toutes les autres étant ailleurs. »

 Notre univers spécifique découle directement de la loi de la relativité générale. L’Univers désigne tout ce qui nous entoure. Mais la vitesse de la lumière étant finie, notre capacité d’observation est limitée. La vitesse de la lumière doit être comprise comme une détermination anthropologique qui nous habite. Elle détermine un horizon concrètement indépassable autant sur le plan physique que sur le plan intellectuel. Nous connaissons la loi de transport des objets matériels qui nous sont familiers à partir d’une situation de repos, jusqu’à des vitesses extrêmement voisines de C. Jusqu’aux confins de C nous pouvons donc nous situer concrètement. Le monde de la lumière est aussi notre horizon intellectuel et le concept de photon représente ce qui constitue effectivement l’amont absolu de la chaîne de causalité. Cela étant dit, actuellement, nous ne pouvons pas penser directement des propriétés de la nature au-delà de cette vitesse. Si je dis ‘actuellement’, cela laisse entendre que cela est provisoire. A l’échelle du temps de l’évolution de l’anthrôpos ce ‘provisoire’ peut durer encore plusieurs générations à l’échelle de la durée de notre existence. Le développement de notre capacité de penser au-delà de la vitesse de la lumière se fera indirectement et s’imposera à partir de ce qui est déjà compris et maîtrisé dans notre univers (peut-être est-ce déjà la situation actuellement !!) mais pour que cela soit consolidé il faudra engager notre pensée au-delà.

En complément de ces hypothèses citons  Weinberg : « L’Univers pourrait être beaucoup plus grand que nous ne l’avons imaginé, et englober beaucoup plus que le Big Bang observé autour de nous. Il pourrait comprendre différentes parties – par parties, je désigne diverses choses possibles – dotées de propriétés très différentes et où ce que nous nommons les principes fondamentaux de la nature pourraient être différents, et où même les dimensions d’espace et de temps seraient différentes. Il devrait y avoir un grand principe sous-jacent qui décrit l’ensemble, mais il se pourrait que nous soyons bien plus loin de le découvrir que nous ne l’imaginons aujourd’hui. »

Citons aussi S. Hawking et L. Mlodinov : « Nous modélisons la réalité physique à partir de ce que nous voyons du monde, qui dépend de nous et de notre point de vue. Dès lors, un « réalisme dépendant du modèle » semble préférable au réalisme absolu habituel en physique. »… « Dans ces doctrines, le monde que nous connaissons est construit par l’esprit humain à partir de la matière brute des données sensorielles, et il est mis en forme par le cerveau. Ce point de vue semble difficile à accepter, mais pas à comprendre. S’agissant de notre perception du monde, il n’existe aucun moyen de supprimer l’observateur – c'est-à-dire nous. »

 



[1] Lettre à Ehrenfest du 26 décembre 1915.

[2] Je propose d’attribuer à ce mot le même sens global que celui auquel se référait A. Einstein quand il affirmait que l’être humain était au cœur d’un monde immuable et éternel donc invariant vis-à-vis des points de vue multiples des observateurs.

[3] Enseignant-chercheur au  laboratoire de physique subatomique et de cosmologique de Grenoble et à l’université Joseph Fourier. Invité à l’IAS de Princeton

Partager cet article
Repost0
5 octobre 2012 5 05 /10 /octobre /2012 14:29

Que faut-il en penser ?

Henry Stapp a publié un livre : ‘Mindfull Univers, Quantum Mechanics and the participating Observer’, (Edit. Springer) ; (L’Univers de la Conscience, Mécanique Quantique et l’Observateur actif.) Ce livre a été précédé en 2009 par : ‘Mind, Matter and Quantum Mechanics. ; (Esprit, Matière et Mécanique Quantique).

Ce livre est en partie commenté dans le Blog : Philoscience, article du 18 juillet 2012. Je cite : « Le point de départ de Henry Stapp consiste à montrer que les inventeurs de la mécanique quantique (MQ), notamment ceux regroupés au sein de l'école de Copenhague, ont par cette nouvelle science obligé à l'abandon des postulats de la science classique, c'est-à-dire l'existence d'un réel indépendant des observateurs et la nécessité pour comprendre ce réel de le détacher de toute subjectivité, c'est-à-dire toute référence à l'observateur et à son esprit (mind). » ; « Heureusement la MQ a remis, selon l'expression de Stapp, la science sur ses pieds, en se donnant comme objet d'étude les processus par lesquels les humains acquièrent des connaissance et les modalités selon lesquelles ces connaissances construisent les représentations que nous nous donnons de nous-mêmes et, de l'univers. Loin d'être incompréhensible, la MQ est beaucoup plus compréhensible que les physiques traditionnelles, dans la mesure où elle fait appel à une intuition forte que nous éprouvons et utilisons tous les jours, celle selon laquelle l'attention consciente que nous portons aux choses et aux évènements de notre monde nous est indispensable pour mieux les comprendre. La MQ nous a obligé, à partir de l'affirmation du principe d'indétermination de Heisenberg, à prendre en compte la façon dont nos choix conscients orientent nos conduites, faisant appel à un grand nombre de comportements différents possibles que la science déterministe classique se refuse à évoquer. »

Pour apprécier les travaux de H. Stapp, nous allons nous concentrer sur un sujet que nous connaissons bien qui est ‘L’effet Zénon Quantique’. Ce sujet a été traité à plusieurs occasions, notamment dans le cours I (2007-2008), où j’ai présenté les travaux de Sudarshan, Misra et Chiu (datant de 1980) qui révèlent expérimentalement et théoriquement cet effet appelé aussi d’une façon explicite ‘Effet chien de garde’. Rappelons succinctement que cet effet est obtenu quand un état quantique métastable est mesuré d’une façon répétitive et réinitialisé suffisamment souvent, eh bien ! la durée de vie de cet état quantique est effectivement  modifiée, elle s’accroît.  Par exemple si une particule se désintègre très rapidement, eh bien ! si on l’observe plusieurs fois durant des intervalles de temps inférieurs à sa durée de vie moyenne, elle ne se désintègre pas, (plus), en tous les cas moins rapidement. L’effet tunnel a été soumis à l’expérimentation de l’observation tangible de l’effet Zénon. Ce sujet a été à nouveau traité durant le cours IV (2009-2010 : consulter 53PH3PP9) a été l’objet de riches exposés réalisés par Marcel Sabaton et Michel Carrese. De plus le cours de Serge Haroche au Collège de France développe largement ce sujet sur le plan théorique et formel.

J’ai souvent exprimé mon étonnement à propos de la rapide banalisation de cet effet Zénon. Ceci étant dû au fait qu’il est facilement déductible des équations fondamentales de la mécanique quantique et donc l’étonnement et le questionnement à propos de cet effet s’est rapidement estompé. Pourtant on se trouve confronté a un effet qui met en évidence la dépendance de valeurs physiques suivant les conditions de leur observation, et qui plus est : des variations de l’action concrète de l’observateur induisent immédiatement des variations significatives de leur(s) valeur(s). Nous sommes là confrontés à une phénoménologie très originale. On peut se réjouir et être satisfait que la Mécanique Quantique rende compte mathématiquement de ces contextes spécifiques de mesure. Plus que celà encore, de mon point de vue, on doit être toujours intellectuellement interpellé à l’égard de ces résultats. Est-ce que la construction de la M.Q. par l’école de Copenhague (Bohr, Heisenberg, Born…) intègre effectivement l’interdépendance sujet/objet ? La réponse explicite a cette interrogation a toujours un sens très important aujourd’hui, parce que nous savons que l’école de Copenhague a construit cette théorie d’une façon très pragmatique, au coup par coup, quelques fois dans l’urgence de réponses qu’il fallait apporter aux arguments d’opposition, de doute, que A. Einstein ne cessait de présenter. Finalement cette construction téléologique (car finalement il fallait expliquer les phénomènes, les observations, qui se présentaient au fur et à mesure de leurs identifications), pierre par pierre, a involontairement (il n’est pas possible de considérer que les promoteurs de l’école de Copenhague aient eu une idée préalable élaborée du corpus de la M.Q., c’était une révolution intellectuelle de trop grande ampleur pour qu’il en fut ainsi), conduit à la conception d’un édifice d’une très grande cohérence et qui nous dit surtout que le concepteur ne peut pas être gommé de cette construction. C'est-à-dire que le sujet pensant ne peut pas penser autrement, même quand il s’est agi, durant quatre siècles, de la conception du corpus de la physique classique.

Revenons à la thèse de H. Stapp, restons concentrés sur l’effet Zénon et voyons comment il l’explique grâce au commentaire de J.P. Baquiast auteur de l’article du blog :

 

« -Les modèles pour l'action et l'effet Zénon quantique.
Il s'agit d'ensembles organisés de neurones qui réagissent aux interactions du corps avec le milieu et qui sont utilisés par le cerveau comme guides pour des actions subséquentes susceptibles d'intervenir en réaction des stimulus d'entrée. Ils ont un rôle important pour la survie, offrant au cerveau des gammes de recettes utilisables dans les circonstances critiques. Ils doivent rester actifs pendant quelques 10 à 100 millisecondes avant d'enclencher l'action correspondante. Il s'agit d'états vibratoires qui demeurent stables sous forme d'oscillateurs harmoniques, au lieu de se dissoudre dans la masse chaotique du cerveau. Les réponses qu'ils commandent relèvent de la levée de l'indétermination quantique, en offrant à la conscience le choix entre Oui et Non. C'est seulement en ce choix que se manifeste le libre-arbitre du sujet


Si cependant il se produit une rapide séquence soit de Oui répétés, soit de Non, l'effet Zénon quantique évoqué plus haut, conduit à la persistance des états correspondants, ce qui évite leur dissolution dans le bruit provoqué par des états plus passagers du cerveau. Selon Henry Stapp, ce résultat favorable pour le sujet conscient confronté à des forces mécaniques susceptibles de détruire les capacités de son cerveau à réagir aux menaces est le résultat d'une « volonté » d'attention manifestée par ce même sujet. Ainsi ce dernier peut-il, si l'on peut dire, « conserver ses esprits » dans des circonstances qui pourraient le conduire au contraire à les perdre.

Ces quelques exemples, auxquels nous nous limiterons, permettent de mieux préciser la nature de la conscience. Il ne s'agit pas d'une propriété évanescente, venue d'on ne sait où dans le cerveau, et qui pourrait provoquer toutes les sortes d'actions imaginables. Il ne s'agit pas non plus d'éléments neuronaux matériels, ayant leur place précise dans le cerveau. Il s'agit plutôt de faisceaux d'intentions, matérialisées par des assemblées de neurones, susceptibles de provoquer des actions. Leur mode d'intervention relèvent de la simple application de l'équation d'Heisenberg, en ce sens qu'ils lèvent les indéterminations ou incertitudes se produisant au sein des neurones et ensembles de neurones qui ne peuvent être décrits ou localisés de façon mécanique, mais qui sont seulement définis par des fonctions d'onde et réduits par l'observation. »

 

On constate donc que H. Stapp tente d’expliquer l’effet Zénon à partir de la connaissance que nous aurions actuellement du fonctionnement du cerveau humain. Il semble assuré que cette connaissance, aujourd’hui, est suffisamment bien établie pour considérer qu’il est possible d’expliquer l’effet Zénon à partir des aptitudes quantiques du cerveau. Sans difficulté on peut dire que cela est extrêmement prématuré de vouloir expliquer les choses en exploitant la chaîne de causalité dans ce sens : ‘c’est à cause des propriétés connues du fonctionnement du cerveau humain que nous pouvons expliquer l’effet Zénon Quantique’ Cela n’est pas possible actuellement…et il faut prévoir encore beaucoup de temps pour inférer ce type de corrélation avec une objectivité suffisante. Soyons pragmatique et observons quand cela est possible, s’il y a des corrélations qui peuvent être détectées en étudiant les choses dans l’autre sens. C’est exactement ce que j’ai préconisé à la fin de l’article posté le 27/08/2012 :’D’infinis précautions’.

Comme je l’ai déjà indiqué, je suis toujours étonné et marri par la rapide banalisation de l’effet Zénon alors qu’il nous met au pied du mur du questionnement : ‘Y a t’il une réalité intrinsèque ? Est-elle connaissable comme telle par le sujet pensant ? ‘

Avant de terminer cet article je voudrais rappeler qu’en 2010 un groupe international de chercheurs comprenant, l’ENS Paris/UPMC/CNRS, a obtenu un résultat qui l’a étonné et l’étonne encore car il prévoit de refaire l’expérience pour infirmer ou confirmer ce résultat[1]. Ces chercheurs ont obtenu une mesure du rayon du proton de 0.8418 femtomètre au lieu des 0.877 connu et attendu avec une très grande précision quand on fait traditionnellement la mesure avec un atome d’hydrogène. Ce résultat dérangeant a été obtenu à partir d’un atome ‘d’hydrogène muonique’ quand l’électron est remplacé par un muon. Dans ce cas les mesures doivent être réalisées en moins de 10-6seconde à cause de la durée de vie très courte du muon. Attendons les résultats de la 2em campagne de mesure et si le résultat étrange est confirmé alors il faudra se demander s’il n’y a pas un effet Zénon quantique qui est en cause. En attendant, je le verse au dossier de cet effet.



[1] On trouve un très bon résumé dans le site de Techno-Science article du 2/08/2010

Partager cet article
Repost0
28 septembre 2012 5 28 /09 /septembre /2012 09:22

Prenons date

 

Première date : le 20/9/2012, un article de Lisa Grossman dans la NewScientist : ‘New maths triggers a call to iron out quantum world’, que l’on peut traduire par : ‘Des nouvelles mathématiques déclenchent la nécessité d’aplanir le monde quantique’.

Deuxième date, 2007-2008, cours I, chapitre 1, que je vous ai proposé. (sur Google : 53PH3PP6).

L’article de L. Grossman revient sur le problème de l’incompatibilité sévère entre la mécanique quantique et la relativité restreinte lorsqu’il s’agit de la reconnaissance des propriétés de l’intrication. En fait, ne tergiversons pas, dans le cadre des hypothèses et des postulats canoniques de ces deux théories, il s’agit d’une remise en cause soit de la R.R. soit de la M.Q.

De R. Penrose : « Je ne vois pas pourquoi nous devrions considérer la M.Q. comme sacro-sainte. Je pense qu’il y aura quelque chose d’autre qui la remplacera. »

« Le phénomène de l’intrication quantique semble défier la vitesse de la lumière en permettant que la mesure sur une particule influence instantanément l’autre, même quand celles-ci sont très largement séparées. (C’est la fameuse action fantôme à distance, selon l’expression d’Einstein) »

Franz Wilczek (Prix Nobel) dit : « C’est très perturbant », « Cela a troublé Einstein. Cela devrait continuer à troubler tout le monde (sic). »

Ensuite, il y a une discussion sur le problème de la simultanéité avec le même exemple de feux d’artifice que j’ai utilisé dans le chapitre 1, cours 1, avec en plus la prise en considération du cas de 3 feux d’artifice. Mais toujours en postulant que la simultanéité constituait une donnée absolument mesurable et accessible, d’où l’apparition de résultats mathématiques en désaccord avec la physique. Ensuite, il transpose au cas de 3 photons intriqués en appliquant à la fois les contraintes de la R.R. et de la mécanique quantique à ces trois photons, il y a un paradoxe mathématique, une incompatibilité qui surgit entre le traitement par la R.R. et la M.Q.

 A juste raison comme l’affirme F. Wilczek : « C’est une tension : comment pouvez-vous avoir de tels effets importants sur l’objet mathématique sans aucune conséquence physique. » et il enchaîne en considérant que des expériences quantiques qui montreront les paradoxes physiques ne sont pas aussi éloignées : « C’est mon agenda secret : je ne suis pas sûr qu’ils ne soient pas de réels paradoxes qui surviennent dans des situations plus exotiques que celles déjà considérées aujourd’hui. »

Eric Kvaalen, physicien, qui est interpellé par Wilczek à cause de son article, lui réplique : « Comme l’article le montre, l’ordre des mesures n’est pas absolu. En conséquence vous ne pouvez pas dire : « celle qui est réalisée en premier instantanément affecte l’autre. » Dans le référentiel de quelqu’un d’autre, la deuxième mesure était première. En fait, c’est cette idée qu’il y aurait une influence instantanée qui engendre le paradoxe mentionné dans l’article. »

Mark Bridger, troisième intervenant, apporte le commentaire suivant : « Tu dis que dans un autre référentiel les deux particules pourraient ne pas apparaître instantanément intriquées. Mais ce point est crucial et est discutable, parce que aucun autre référentiel ne peut mesurer les mêmes deux particules intriquées. Autrement dit, tu ne peux pas esquiver l’implication de l’instantanéité… »

Toute cette discussion tourne autour du fait qu’il est considéré que la simultanéité, absolue, parfaite, peut être isolée, et ainsi décelée par le physicien, elle peut être traitée comme une réalité tout autant d’un point de vue mathématique que physique.

Dès le chapitre 1 du cours I, j’ai contesté cette pensée que toute simultanéité serait absolument mesurable et j’ai introduit le temps propre du sujet (TpS) marquant cet intervalle de temps, de l’ordre de 10-25s en deçà duquel notre intelligence est aveugle, au sein de cette durée le sujet pensant ne peut rien inférer. Alors il faut évidemment intégrer cette donnée : TpS, dans les lois mathématiques tout autant exploitées pour rendre compte de la mécanique quantique que de la relativité restreinte. J’ai aussi considéré que certains résultats de A. Connes constituaient une réelle convergence avec TpS, lisons ses propos : « L’espace-temps est très légèrement non commutatif, en fait le point lui-même dans l’espace-temps n’est pas commutatif. Il a une toute petite structure interne qui est comme une petite clé. Le point a une dimension 0 au niveau de la métrique mais avec ma géométrie (non commutative) il a une structure interne et j’ai un espace de dimension 6 non commutatif. » En dessous de 10-25s c’est pour le sujet pensant une dimension 0 au niveau de la métrique et l’idée d’une structure interne me convient parfaitement puisque cette structure correspond à la présence du sujet que je considère comme inexpugnable.

Revenons à ce que nous dit F. Wilczek : « C’est très perturbant » ; « Cela a troublé Einstein. Cela devrait continuer à troubler tout le monde (sic). » Si F. Wilczek est sincère cela est inquiétant parce qu’il annulerait toute évolution de la pensée physique depuis Einstein ; lui-même ainsi sacralisé considérerait que c’est une vraie aliénation. N’oublions pas que la pensée scientifique d’Einstein s’est constamment appuyée sur le préalable philosophique qu’il y aurait un monde réel et en conséquence le rôle du physicien, qui serait en dehors de ce monde réel, est de repérer le meilleur belvédère d’où il peut mettre en évidence les lois vraies qui régissent ce monde réel. Le résultat remarquable obtenu par ce savant, notamment avec sa loi de la Relativité Générale est d’avoir placé, à l’occasion, le sujet pensant à une bonne distance (propriétés d’invariance) pour que celui-ci puisse intellectuellement embrasser ce que l’on identifie comme notre univers. Mais à cette occasion le sujet pensant n’a pas, pour autant, été expulsé de la nature dont il fait partie intégrante et il ne peut donc s’en émanciper. De là, les déterminations qui sont inhérentes à son existence et qui se révèlent à l’échelle de plus en plus quantique. (Evidemment il faudra encore cette année que je développe cet aspect là. D’autant que nous avons la possibilité de mieux comprendre entre autre comment fonctionne physiquement notre cerveau. Mais c’est un sujet délicat à aborder frontalement, surtout avec les extrapolations aberrantes de personnes comme J. P. Changeux qui ont confondu circulation des flux cérébraux avec visibilité de l’esprit, de la pensée.)

Puisque le titre de l’article évoque l’idée que des mathématiques plus appropriées devraient être développées pour rendre compte au plus près des propriétés physiques, notamment quantiques, analysons les conséquences induites par ce que j’ai proposé ci-dessus :

1- Le cône de lumière correspondant à un phénomène d’intrication (soient particule A et particule B intriquées) ne prend pas appui sur un sommet ponctuel mais sur une petite sphère de diamètre CTpS et de là émergent et tangentent les lignes d’univers de A et de B sauf qu’elles ne sont pas discernables. Du point de vue de l’observateur, celle de A est aussi celle de B et vice versa. Les équations de la relativité restreinte qui sont fondamentalement déterministes doivent donc être modifiées en conséquence dans ce cas de figure et entre autre intégrer cette indétermination entre les 2 lignes d’univers. Voilà donc du grain à moudre pour A. Kostelecky.

Partager cet article
Repost0
24 septembre 2012 1 24 /09 /septembre /2012 11:35

                   La téléportation quantique, un test pour les neutrinos.

 

En premier lieu je reviens sur le livre de N. Gisin, précédemment évoqué. Il y a dans cet ouvrage un chapitre consacré à la téléportation qui est à l’origine de ce que je vais exposer ci-dessous. On pourra valablement se référer aussi à l’article d’A. Zeilinger : ‘La téléportation quantique’, in ‘Pour la science’, juillet-septembre 2010. Je vous donne ces références car ils expliquent correctement l’état de l’art de cette téléportation, jusqu’où on peut aller actuellement et quelles sont les perspectives au moins jusqu’à moyen terme. Ceci me permet de ne pas m’attarder sur le protocole et les conditions de la réalisation d’opérations de téléportation, mais n’oublions pas que les propriétés de l’intrication y jouent un rôle primordial.

Pourquoi la téléportation quantique est possible ? Parce que un objet est caractérisé par la matière-énergie qui le constitue et l’état physique de celle-ci. Plus précisément à la page 100 du livre de N. Gisin : « Au niveau quantique, la substance d’un électron est sa masse et sa charge électrique (ainsi que d’autres attributs permanents), tandis que ses nuages de positions et de vitesses potentielles constituent son état physique. Pour un photon, particule de lumière sans masse, la substance est son énergie et son état physique est constitué par sa polarisation et par ses nuages de positions et ses fréquences de vibration potentielles. En téléportation quantique, on ne téléporte pas tout l’objet, mais seulement son état quantique… Quand on téléporte l’état quantique d’un objet, l’original doit nécessairement disparaître, sinon on aboutirait à deux copies ce qui contredirait le théorème de non-clonage.

Résumons. En téléportation quantique, la substance (masse, énergie) de l’objet initial demeure au lieu de départ, disons chez Alice, mais toute la structure (son état physique) s’évapore. Par exemple, si Alice téléporte un canard sculpté dans la pâte à modeler, la pâte demeure sur place, mais la forme disparaît : A l’arrivée, disons chez Bob, à une distance en principe arbitraire (et en un lieu qui peut être inconnu d’Alice), une pâte informe initialement présente chez Bob acquiert l’exacte forme du canard initial, exacte jusqu’au moindre détail atomique. »

Ceci étant dit, nous n’en sommes pas là, mais considérons un exemple plus réaliste et plus abstrait : la polarisation d’un photon. Bien sûr que seul l’état de polarisation du photon ou bien, plus généralement, son état quantique est téléporté, et non pas le photon lui-même. Mais n’oublions pas que l’état quantique d’un photon le définit de façon univoque, donc le fait de téléporter son état est équivalent à la téléportation de l’objet en question. Des expériences ont déjà été réalisées avec succès, citons en Europe : à Innsbruck et à Rome.

Maintenant je peux développer et expliciter la deuxième partie du titre de l’article ‘un test pour les neutrinos’. En effet dans celui posté le 27/05/2012, j’ai, en dernière partie, proposé l’hypothèse que le neutrino électronique serait ce qui reste quand l’électron n’a plus de charge électrique de même pour le neutrino muonique, reliquat du muon et du neutrino tauique reliquat du tau. Ce qui fait que d’un point de vue quantique il n’y a que la charge électrique élémentaire qui distingue un électron de son neutrino. On pourrait donc envisager de tester une téléportation quantique avec au départ un électron et à l’arrivée le neutrino électronique à condition de se concentrer, dans le processus de la téléportation, sur les paramètres (hors charge électrique) qui leurs sont communs et qui déterminent leur état physique.

 La faisabilité d’une telle expérience n’est pas si lointaine car la production de neutrinos est de mieux en mieux maîtrisée sur site (voir CernCourier, Mai 2012 : Towards a neutrino production line) et l’intrication d’électrons est aussi une opération qui se banalise.

Si cette expérience était réalisée avec des résultats interprétables, alors on pourra évaluer si mon hypothèse est valable ou au contraire est sans intérêt. Si des indices intéressants étaient obtenus avec : électron à l’origine et neutrino à l’arrivée, il sera évidemment impossible de prévoir l’expérience réciproque toujours avec des électrons intriqués car il n’est pas envisageable de prévoir le surgissement de la charge électrique élémentaire à l’arrivée. Il y aurait là un processus de création, ce qui n’est pas du domaine de la téléportation.  Pour reprendre l’exemple de N. Gisin on peut envisager qu’au départ nous ayons un canard initial entier et à l’arrivée un canard sans tête mais le processus réciproque ne peut pas être envisagé puisque la quantité de pâte informe correspondant à la tête n’est pas à l’origine du processus.

En ce qui concerne l’expérience avec des neutrinos intriqués il me semble que cela est beaucoup plus compliqué car la faisabilité de l’intrication de neutrinos ne semble évidemment pas envisageable concrètement à l’heure actuelle.

Partager cet article
Repost0
20 septembre 2012 4 20 /09 /septembre /2012 11:37

                                      L’homme pressé

J’avais déjà exprimé une sorte d’inquiétude dans l’article du 27/05/2012 de mon blog, à propos des travaux de l’UNIGE et j’avais ajouté dans la note (1) de bas de page : « On constate que pour ces chercheurs l’intrication n’est plus un problème fondamental (toujours inexpliqué) mais un fait dont ils souhaitent exploiter les propriété à des fins technologiques. » Loin de moi de penser que l’attrait de développer des applications à partir de phénomènes, de propriétés, dans/de la nature, non élucidés, soit secondaire, au contraire, mais il faut tirer la sonnette d’alarme lorsqu’il apparaît que l’élan provoqué par l’attrait de ces applications – qui fonctionnent déjà et à coup sûr fonctionneront de mieux en mieux – estompe de plus en plus la curiosité collective des physiciens à l’égard des problèmes fondamentaux restant en suspens.  Cette préoccupation je l’ai déjà exprimé dans la présentation de mon blog lorsque j’affirme : « Dans mon référentiel j’attribue une sacrée (sic) responsabilité au sujet pensant dans sa relation avec la nature et la compréhension de ses propriété physiques. L’homme ne peut être nu de toute contribution lorsqu’il tente de décrypter les propriétés ‘objectives’ de la nature. » Ne plus avoir l’ambition d’élucider des propriétés fondamentales de la nature c’est volontairement laisser dans l’obscurité ce qui constitue une part essentielle de l’être humain, être de la nature et être dans la nature.

Certes, je ne prête pas à Nicolas Gisin[1] cette intention mais il se trouve que son livre récent : ‘L’impensable hasard’, (préface A. Aspect), édit. O. Jacob, sept. 2012, indique une propension qui pourrait être celle du renoncement à élucider ces nœuds de compréhension si fondamentaux à mes yeux. En premier lieu, j’invite tout à chacun à lire ce livre car il y a de la part de l’auteur une vraie volonté d’expliquer le plus clairement possible des choses qui sont quand même compliquées puisque en dehors du sens commun. J’invite aussi à le lire parce qu’il propose un déplacement voire un renversement : l’intrication ne serait pas la cause et la source de l’explication de la non localité et des corrélations non locales. Non ! selon N. Gisin ce serait : « Un hasard vrai capable de se manifester simultanément en plusieurs endroits à la fois. » Dans le chapitre de la conclusion de son livre, p.148, voici ce que l’on peut lire : « Résumons encore une fois l’essentiel. Nous avons vu que les corrélations non locales et l’existence du vrai hasard sont intimement liées. Sans vrai hasard, les corrélations non locales permettent forcément une communication sans transmission (donc à une vitesse arbitraire). Ainsi le concept central de ce livre implique forcément l’existence du vrai hasard, donc la fin du déterminisme. Réciproquement, une fois l’existence du vrai hasard acceptée, l’existence de corrélations non locales ne paraît plus aussi insensée que la physique classique, avec son déterminisme, nous l’a fait croire. En effet, si la nature est capable de vrai hasard, pourquoi les corrélations observées dans la nature devraient-elles être limitées à des corrélations locales ? »

Evidemment cela interpelle de lire l’affirmation : « La nature est capable de vrai hasard ». Quelle est la nature de cette capacité propre de la nature de produire du vrai hasard ? Pour l’auteur, la question ne se pose pas et cela va de soi que la nature est capable d’une production autonome, p.145 : « En revanche, vous avez compris que la nature n’est pas déterministe et qu’elle est capable de réels actes de pure création : elle peut produire du vrai hasard. »

L’intrication et ses conséquences mettent à mal la place de l’observateur, du physicien, parce qu’il est toujours dans l’impossibilité absolue d’expliquer ce qui se passe et pourquoi, il en est ainsi. On peut facilement reconnaître que cela peut mener à éprouver des vertiges existentiels lorsque l’on essaie de creuser la question, car il n’y a pas de réponse ni de début de réponse. L’indiscernabilité des objets quantiques amène à se demander qu’est-ce qui peut bien s’effondrer chez l’observateur qui le rend incapable de discerner ces objets ? Certes, cette indiscernabilité n’est possible que dans certaines conditions physiques de production que l’on maîtrise et explique très bien. Mais qu’à partir de là, que l’indiscernabilité perdure quand les objets sont distants l’un de l’autre de plusieurs dizaines de kilomètres et au-delà, c’est déconcertant. Face à l’impossibilité d’apporter une réponse valable à cette question de l’indiscernabilité (concept jamais utilisé dans ce livre) lorsqu’elle est abordée frontalement, alors la tentation peut être de contourner cette difficulté en apportant une réponse ad hoc qui évidemment échappe à toute possibilité de vérification. N. Gisin, y croit très fort, p. 147 : « Le hasard non local (produit par la nature) est donc un nouveau mode d’explication à ajouter à notre boîte à outils conceptuels, outils nécessaires à la compréhension du monde. Et il s’agit d’une réelle révolution conceptuelle ! Comme la théorie quantique prédit l’existence de corrélations non locales, il faut bien s’y faire et intégrer ce nouveau mode d’explication. »

N’oublions pas que en dehors de la mesure, de l’observation, nous ne pouvons rien dire de juste sur la nature, cela fait partie des fondements de la mécanique, et ceux-ci n’ont pas encore montrés de faille.

A propos de l’espace-temps, l’auteur ne s’attarde pas, je dirais même que sur ce sujet, il botte prestement en touche en mettant l’espace-temps hors-jeu, p.79 : « Cela signifie qu’il n’existe aucune explication sous la forme d’une histoire qui se déroule dans l’espace au cours du temps et qui raconte comment ces fameuses corrélations sont produites. Pour le dire d’une façon crue : ces corrélations non locales semblent, en quelque sorte, surgir de l’extérieur de l’espace-temps ! » Effectivement c’est cru, cela surgit de l’extérieur de l’espace-temps, donc l’espace-temps n’est pas concerné ni avant ni après ce surgissement. Esquive, car si il y a indiscernabilité c’est parce que nous raisonnons incorrectement à propos de l’espace et du temps en mécanique quantique. D’une façon générale l’ensemble des problèmes posés à propos de l’espace-temps à l’échelle quantique ne connaît à l’heure actuelle aucune réponse satisfaisante, et c’est effectivement un obstacle majeur. On peut dire que les corrélations non locales qui ont comme cause l’intrication creuse encore plus l’abîme qui nous sépare d’une (des) réponse(s) scientifiques pertinente(s) à propos de ce sujet. De mon point de vue, c’est en progressant sur la compréhension de l’espace-temps à l’échelle quantique que l’on pourra mieux expliquer la propriété de l’intrication quand je pose la question suivante : « qu’est-ce qui peut bien s’effondrer chez l’observateur qui le rend incapable de discerner ces objets ? » c’est évidemment une question qui concerne, notre perception de l’espace-temps ainsi que le rôle probablement fondamental que joue l’anthrôpos dans la fondation de l’espace-temps. (Voir l’article du blog du 27/08/2012)

N. Gisin attribue à ce fameux « vrai hasard [qui] permet la non-localité sans communication », un caractère : « fondamental, non réductible à un mécanisme non déterministe complexe. En conséquence la nature est capable d’acte de pure création !» et pour bien comprendre la rupture implicite à laquelle nous sommes invités à réfléchir à la lecture du livre ‘l’impensable hasard’, lisons p.74 « Mais l’intrication est bien davantage que le principe de superposition ; c’est elle qui introduit (sic) les corrélations non locales en physique. » Je n’ai pas besoin de vous faire un dessin pour reconnaître que dans ce contexte le mot ‘introduit’ ne signifie pas du tout la même chose que le mot ‘cause’. 

Pourtant quand, p.58, N. Gisin affirme : « Gagner au jeu de Bell revient donc à démontrer que la nature n’est pas locale. », j’aurais tendance à penser la même chose mais rien, rien, …ne nous permet de prétendre à une telle certitude parce que : ce qu’est la nature, comment elle fonctionne, nous est totalement inaccessible. A l’échelle de plus en plus fine à laquelle on scrute la nature, il n’y a pas de production de connaissances possibles sans que le sujet pensant y imprime ce qui le détermine. Or le sujet pensant a besoin de concevoir du local pour construire du sens (l’espace et le temps sont inhérents à l’être humain), il ne peut en aucun cas embrasser la nature instantanément dans sa totalité, sinon il serait omniscient et universel. Il n’y a pas de fin, le genre humain continuera de produire un savoir de plus en plus pertinent en physique mais ce ne sera jamais un savoir détaché de ce qu’il est en tant qu’être humain, être de la nature et être dans la nature. Comme je l’ai écrit à plusieurs reprises dans les articles précédents, c’est la raison pour laquelle nous concevons un univers qui nous correspond (puisque notre entendement actuel peut le décrypter), correspondant à nos déterminations et qui s’inscrit parmi tous les possibles au sein d’une éternité. Le propos de N. Gisin : « … revient donc à démontrer que la nature [intrinsèquement] n’est pas locale. », laisserait entendre qu’il a déjà accès à un savoir sur ‘tous les possibles’. Et jusque là, je suis incapable de l’accompagner, je suis lesté par une trop grande ignorance.

Si on prend au pied de la lettre l’affirmation, p.61, de l’auteur : « Ce (vrai) hasard est fondamental, non réductible à un mécanisme déterministe complexe. Donc, la nature est capable d’acte de pure création ! », nous serions donc en possession d’un savoir pur, exact, concernant une propriété intrinsèque de la nature, puisque c’est la nature qui œuvre. Dans ce cas nous avons accès à une connaissance vraie qui constituerait une pierre, élémentaire, fondamentale, d’un savoir certain, et à partir de là, nous aurions la possibilité de remonter logiquement vers d’autres savoirs purs, certains, et ainsi de suite nous pourrions enfin (re)constituer l’édifice des propriétés certaines de/dans la nature. Une connaissance définitive, complète de la nature est donc, selon N. Gisin, au bout du chemin !

Pour conclure, je dois évoquer un paragraphe qui me gêne beaucoup. Il s’agit p.129 de celui qui s’intitule : « Réalisme », sur ce sujet, pour des raisons qui m’échappent, l’auteur est extrêmement réducteur et expéditif : « Il est aujourd’hui à la mode dans certains cercles (sic) de dire qu’on a le choix entre la non-localité et le non-réalisme. » Est-ce parce qu’il a une vraie admiration pour J. S. Bell ? Est-ce qu’il nous montre ainsi que l’empressement de passer à des applications conduit à exécuter prestement les problèmes fondamentaux ?

Pour réfléchir sérieusement sur ce sujet, je vous suggère de (re)lire dans le dossier : ‘Pour la Science’, juillet-septembre 2010, l’article de Joshua Roebke : Créons-nous le monde en le regardant ? et plus particulièrement p.36 : « Tester le réalisme » où on peut lire : « A. Leggett fait partie des derniers incrédules qui défendent le réalisme contre la mécanique quantique : les photons, par exemple, doivent avoir des polarisations qui existent avant d’être mesurées. Imitant Bell, il élabore des inégalités qui doivent être vérifiées si sa théorie est exacte. Si ces inégalités sont violées par l’expérience, la mécanique quantique a raison et le réalisme est indéfendable : les polarisations de la lumière n’existent pas avant d’être mesurées. » Face à ces résultats, A. Zeilinger est contraint au compromis : « La mécanique quantique est fondamentale, probablement encore plus que nous en avons conscience, mais abandonner complètement le réalisme est certainement une erreur. Pour reprendre les propos d’Einstein, abandonner le réalisme concernant la lune, c’est ridicule. Mais au niveau quantique, nous sommes bien obligés de renoncer au réalisme. »

Enfin même A. Aspect, lui aussi disciple de J. Bell, qui signe la préface du livre est plus rigoureux que son collègue car sous sa plume on peut lire dans la même revue citée, p.30 : « Force est de constater que nous devons renoncer à la vision dite ‘réaliste locale’ du monde que défendait Einstein. »

Je vous souhaite une lecture fructueuse.

 



[1] Déjà cité dans d’autres articles, N. Gisin est physicien théoricien au Dép. de physique appliquée à l’université de Genève, pionnier de l’informatique quantique et de la téléportation quantique. Il est aussi cofondateur de la société ID Quantique, leader en cryptographie quantique. Il a reçu en 2009 le prix J. Bell.

Partager cet article
Repost0
27 août 2012 1 27 /08 /août /2012 15:41

D’infinies précautions.

De Michel Blay[1] : « Le physicien est convaincu qu’un monde extérieur à lui existe. C’est un postulat métaphysique ; ce n’est pas une donnée empirique. On pourrait tout autant postuler que le monde n’est pas et que nous sommes trompés par nos sens. La physique est une construction humaine qui ne dit pas l’absolue vérité du monde. La science n’a jamais prétendu dire la Vérité, hormis dans le scientisme que je tiens pour une forme de théologie

J’ai été étonné et, à vrai dire, déçu que ces phrases de l’interviewé soient celles qui terminent l’article car si le physicien conçoit un monde qui ne lui est pas extérieur, alors la science physique nous informerait plus sur nous même – sujet pensant doué de capacités singulières – que sur un soi- disant monde extérieur. Les lois physiques que nous mettons en avant nous informeraient donc plus sur nos aptitudes à cogiter et les conditions de cette cogitation. C'est-à-dire qu’à travers le développement de la connaissance en physique nous concevons en fait une extension de ce que nous sommes, en décryptant au fur et à mesure, parmi tous les possibles, au sein d’une éternité, ce qui nous correspondrait en tant que sujet pensant et pourvu des sens qui sont les nôtres.

Il est dommage que M. Blay se contente d’évoquer cette problématique au détour d’une phrase sans même indiquer l’extraordinaire chambardement des habitudes de pensée que cela impliquerait. Espérons quand même que se trouve exprimé là, une réelle conviction intellectuelle qui invite à ce que ce sujet soit maintenant aborder frontalement, et non pas une pure expression de style qui paresseusement prépare la chute de l’article. Espérons donc un article qui propose ce sujet comme ouverture. Après tout N. Bohr avait été amené à exprimer cette pensée iconoclaste à l’époque : « La hiérarchie entre observateur et observé n’a pas de sens, ils sont inséparables. » On remarque donc que, au début, les premières propriétés de la mécanique quantique authentifiées ont fait voler en éclats des inhibitions intellectuelles comme l’indique cette affirmation de Bohr, mais celles-ci se sont réinstallées en traçant de nouvelles frontières délimitant un monde du sujet et un monde de l’objet. (Penser, par exemple, aux travaux de B. d’Espagnat sur ‘Le réel voilé’)

Dans deux articles de mon blog, entre autres, j’ai déjà tenté d’ouvrir cette réflexion : celui du 21/12/2011, ‘L’être humain est-il nu…’, et celui du 24/04/2012, ‘Les nouveaux paysages : physiques ?...’ Le fait que l’être humain déposerait au minimum une contribution propre indélébile dans la conception d’un ‘monde physique’ qu’il fait émerger grâce à ses facultés de cogitation se retrouve (selon mon hypothèse) avec la valeur et la place du temps dans cette conception. Evidemment il est toujours délicat d’être seul à émettre cette hypothèse durant plusieurs années. Peut-être que dans un futur pas si éloigné cet isolement sera moindre ? Dans un premier temps cette pointe d’optimisme peut être suscité à la lecture de cette série de questions : « Il faudrait pouvoir identifier et caractériser le véritable moteur du temps : est-il physique, objectif, ou intrinsèquement lié à notre rapport au monde ? Si c’est cette dernière hypothèse qui est la bonne, est-ce la conscience qui joue le rôle de médiatrice entre le monde et nous ? Est-ce elle qui formate et temporalise notre rapport au monde[2] ? » Mon optimisme est très modéré parce qu’il se trouve que l’auteur se contente dans cet article (les pages sont référencées : philosophie), de soulever, d’une façon panoramique, une série de questions relatives à la problématique du temps sans s’engager sur une quelconque piste qui serait identifiée comme fertile. C’était un exercice effectivement nécessaire et utile il y a une bonne décennie mais maintenant il faut ausculter, exploiter, ces différentes pistes, bref intellectuellement s’engager comme cela est le cas dans les autres laboratoires européens.

 Au bas de la page 31, on retrouve des figures de ligne droite (la flèche du temps) plus ou moins segmentée, a priori ces lignes discontinues font penser à celles que j’ai évoquées dans le chapitre IV (Présence I, 2007-2008), mais…il y a une sacrée opposition de conception. Chez E. Klein, on lit (p.30) : « Un instant n’est d’ailleurs qualifié de présent qu’en référence à nous : la seule chose qui le distingue a priori de ses congénères est que cet instant-là accueille notre présence. » L’auteur exprime les choses ainsi parce qu’il suppose que le temps est donné dans la nature, il serait préalable à notre existence. Pour moi, évidemment c’est la ‘Présence’ du sujet qui fonde l’instant… présent.

En ce qui concerne le questionnement de E. Klein sur le rôle de la conscience à l’égard de la temporalisation du temps, j’ai déjà eu l’occasion dans d’autres contextes de critiquer et donc de rejeter cette hypothèse car la notion de conscience est extrêmement instable, versatile, elle est aussi objectivement tributaire de l’histoire de notre évolution dans ce monde. Or, l’ancrage du temps, cet ancrage qui pourrait ‘formater’ effectivement notre rapport au monde est, selon ma conception, la ‘Présence’ du sujet pensant. Cette ‘Présence’ n’est pas tributaire d’une quelconque définition, elle est absolument concomitante au surgissement du sujet pensant dans le monde, qui va de paire avec l’émergence d’une dynamique du langage.

Dans la même revue il y a un article de Craig Callenger, (des pages référencées : physique théorique) : ‘Le temps est-il une illusion ?’, qui est plus original, et comprend des hypothèses avec lesquelles, évidemment, je me trouve bien plus en phase : « Ainsi, même quand le système dans son ensemble est atemporel, les éléments individuels ne le sont pas. Un temps pour le sous-système se cache dans l’équation atemporelle du système total… l’Univers est peut-être dépourvu de temps, mais si on le décompose, certaines de ses parties peuvent servir d’horloges aux autres. Le temps émerge de l’atemporalité. Nous percevons le temps parce que nous sommes, par nature, un de ces éléments de l’Univers. » ; et en conclusion « Le temps pourrait n’exister qu’en éclatant le monde en sous-systèmes et en regardant ce qui les relie. Dans ce tableau, le temps physique émerge parce que nous nous considérons comme distincts de tout le reste. »

Le ‘système dans son ensemble atemporel’ de l’auteur, est équivalent à ce que je désigne comme étant ‘l’éternité au sein de laquelle coexistent tous les possibles’. Craig Callenger dit bien que ‘le temps physique (sic) émerge parce que nous nous considérons comme distincts de tout le reste.’ De mon point de vue, cette distinction a comme signifiant la ‘Présence’ qui engendre cette faculté de ‘surplomb’ que j’ai à plusieurs reprises évoquée dans différents chapitres.

L’article suivant : ‘La disparition du temps en relativité’ de M. Lachièze-Rey, nous renvoie dans le commentaire sans idée neuve (ce n’était pas le but). On ne peut pas faire ce reproche à l’article suivant de Carlo Rovelli qui, coûte que coûte, voudrait apporter la preuve que l’on devrait s’affranchir de tout temps.

Continuons d’analyser, à propos du temps, les questions multiples engendrées par le corpus des propriétés comprises de la mécanique quantique. Elles sont toutes plus ou moins renversantes au regard de notre pensée classique du temps. (A ce titre on peut lire le chapitre 7 : ‘Le temps et le quantum’, du livre de Brian Greene : ‘La magie du cosmos’.(2005) où se trouvent recensées certaines expériences concrètes et expériences de pensée. Voir aussi certains articles de ‘Pour la science’, juillet-septembre 2010) Toujours est-il que ces résultats bizarres qui dépassent notre entendement commun, habituel, sont obtenus grâce à des expériences concrètes réalisés ou pensées. Par exemple : ‘L’expérience du choix retardé’ proposé en 1980 par John Wheeler amène à raisonner que suivant une condition de l’expérience le ‘photon’ est contraint à se comporter comme une particule et dans une autre condition c’est le comportement ondulatoire qui prévaut. Cette expérience du choix retardé poussée à l’extrême (au niveau cosmologique) amène évidemment à se poser de sérieuses questions sur la validité, en quantique, du concept de ‘temps passé’ considéré comme une tranche de temps qui aurait accompli définitivement son cours. Or les raisonnements en question, mis en jeu, sont développés sur des bases plutôt fragiles, ainsi : « Ce qui est frappant dans cette version de l’expérience, c’est que, de notre point de vue, les photons ont pu voyager pendant des milliards d’années. Leur décision de passer d’un côté ou de l’autre de la galaxie – comme une particule – ou de passer des deux côtés – comme une onde – aurait donc été prise très, très longtemps avant que le détecteur ait même existé ! » (Voir, B. Greene, p. 233). Il me semble qu’on ne doit pas oublier de raisonner comme suit : qu’il nous apparaisse comme une particule ou qu’il nous apparaisse comme une onde. Ainsi, avec le verbe apparaître, on replace l’observateur (l’auteur) au cœur de l’expérience et c’est fondamental en mécanique quantique pour éviter tout risque de dérive d’interprétation. On rencontre fréquemment cette instabilité du référentiel à partir duquel on raisonne, et cela concerne aussi des physiciens qui connaissent très, très, bien ce sujet. Ainsi :

Dans la même revue ‘Pour la Science’ juillet-septembre 2010, on peut lire page 8, de A. Zeilinger : « Cela n’a pas non plus de sens de considérer le caractère ondulatoire ou particulaire comme une propriété objective, indépendante de l’expérience effectuée. » et page 44, de M. Brune : « Pendant le vol libre de la particule, avant son impact sur l’écran, il est impossible de lui attribuer une position donnée. La matière est (sic) alors une onde et les probabilités de détection résultent d’interférences entre ces ondes. » Puis de Greene, page 228 : « Si l’on autorise les électrons à cheminer de la source à l’écran sans les observer, leur comportement (sic) ondulatoire sera dominant et produira des interférences. » Ces trois citations ne peuvent pas faciliter la réception de ce que je vais proposer ci-après, bien que A. Zeilinger pourrait laisser entendre – entre les lignes – qu’il y a de la place pour une interprétation subjective. Dans ces citations on évoque : expérience, dispositif expérimental, mais l’observateur qui cogite est estompé avec tout ce qui fait sa spécificité. S’il est évoqué ce n’est pas, à mes yeux, forcément pertinent : « Ou serait-ce que l’observation par l’homme fait partie d’un ensemble d’influences environnementales plus vaste qui montre, quantiquement parlant, qu’après tout nous n’avons rien de spécial ? » (B. Greene, p.226)

Et si toute cette étrangeté n’était que le fruit d’une pensée fondamentalement archaïque de l’observateur qui conçoit une représentation ondulatoire par défaut.

1)      Lorsque l’observateur sait qu’il y a quelque chose dans l’interféromètre (quelque soit cette chose : photons, électrons, neutrons, molécules de fullerènes, virus ?) mais reste parfaitement ignorant du chemin suivi par la chose[3] alors c’est l’aspect ondulatoire (étendue spatiale) qui s’impose à l’observateur. Je propose de considérer que cette part d’ignorance de l’observateur joue un rôle essentiel et donc dans le cadre d’un cheminement archaïque de notre fonctionnement cérébral se trouve comblée l’ignorance spatio-temporelle par l’’illusion’ d’une représentation ondulatoire. Attention parce que l’illusion va jusqu’à une mystification (ou une auto suggestion imposante) car les figures d’interférence sont visibles sur la plaque du détecteur. A ce titre on peut considérer qu’il est absurde et donc rédhibitoire de formuler une telle hypothèse. Pourtant, je propose de continuer à la retenir en laissant cet aspect provisoirement de côté.

2)      Si au contraire l’observateur recueille une information sur le passage par un chemin particulier dans l’interféromètre (information spatio-temporelle) alors c’est l’aspect objet ponctuel qui s’impose à l’observateur. L’investissement cérébral de l’observateur est sollicité d’une manière différente grâce à l’information spatio-temporelle.

Si je souhaite persévérer avec l’hypothèse 1), c’est parce qu’il est peut-être possible de la soumettre à l’expérience. En effet une pensée (représentation) archaïque devrait probablement avoir pour siège une partie archaïque du cerveau. Il existe maintenant grâce aux laboratoires de neurosciences cognitives et d’imagerie cérébrale la possibilité de mettre au point une expérience, avec un protocole certainement très sophistiqué, où on pourrait évaluer si l’ignorance partielle d’un observateur compétent mettrait en jeu une région du ‘cerveau pensant’ différente de celle d’un même observateur qui penserait l’ondulatoire à partir d’un apprentissage acquis (par exemple à partir de la connaissance des équations de Maxwell et de leur résolution.)

J’ai dû, pour formuler cette hypothèse, vaincre mes propres réticences dont l’héritage est évidemment bien connu. Je ne doute pas que les lecteurs de cet article vont éprouver la même réluctance. Sans vouloir provoquer qui que ce soit, j’ai la profonde conviction qu’il faudra dans un temps proche passer par ce stade expérimental.

 



[1] Philosophe, physicien, historien des sciences au CNRS ; in ‘Les dossiers de la Recherche’ : Avril 2012.

[2] De E. Klein, in ‘Pour la science’, Novembre 2010.

[3] Parce que la rétention d’information de la part de la chose est parfaite. A. Zeilinger précise que si la chose émet une information et ce même s’il n’y a pas d’observateur pour la recueillir, eh bien : pas de figure d’interférence.  (Est-ce de sa part une intuition ou une affirmation prouvée ?)

Partager cet article
Repost0
11 juillet 2012 3 11 /07 /juillet /2012 19:04

Faire alliance avec les linguistes pour avancer.

(J’espère que cet article ne sera pas lu comme un article patchwork mais compris comme un article qui met en évidence des relations positives qui peuvent et, à mon sens, devraient être plus souvent expérimentées entre différents domaines scientifiques. Dans cet article je me suis appuyé sur les avancées de la linguistique telles qu’elles sont rapportées aujourd’hui. Selon moi la grande et bénéfique controverse qui a nourri les points de vue antipodiques d’Einstein et de Bohr est essentiellement dû à l’idée très contrastée, que chacun d’entre eux se faisait, de la posture du sujet pensant, habité de toutes ses déterminations, dans sa quête de la compréhension-appropriation des lois qui gouvernent la nature.)     

En dehors de leurs conséquences physiques, je n’ai jamais eu l’occasion de rencontrer une analyse de ce qui a fait l’essentiel des positions antipodiques d’Einstein et Bohr, telles qu’elles se sont affirmées à l’occasion du débat EPR (1935). L’argument EPR étant tellement sur le mode affirmatif que l’on peut entendre l’auteur défier à l’envi celui, (ceux), qui oserait(ent) remettre en cause la logique, le bon sens classique, de ce qui est comme suit énoncé : «Chaque élément de la réalité physique doit avoir un correspondant dans la théorie physique ; [étant entendu que] si sans perturber le système en aucune façon, nous pouvons prédire avec certitude…la valeur d’une grandeur physique, alors il existe un élément de la réalité physique correspondant.» Il est clairement affirmé que la connaissance que nous avons des lois de la nature et de celles que nous devons encore conquérir ne peut déroger à la logique certaine qui est énoncée dans ces phrases ouvrant l’article EPR. C’est probablement excessif que d’établir un lien avec l’instruction cartésienne : ‘que la science nous rende maîtres et possesseurs  de la nature’, mais, selon Einstein, sur le plan intellectuel l’entreprise est déjà bien avancée. En effet, il est convaincu que depuis l’avènement de la physique moderne (Galilée) tous les progrès de la connaissance en physique ont été assurés grâce à des prélèvements concrets sur la réalité de ce qui ordonne la nature et donc à ce titre, lui et ses contemporains ont la mission de poursuivre ce processus d’addition et de mise en rapport logique des lois et des éléments de la ‘réalité’ au fur et à mesure qu’ils sont débusqués par les physiciens. .

On peut comprendre aisément pourquoi A. Einstein conçoit avec cette très forte conviction le processus de la quête intelligente du physicien qui a prise sur la réalité de l’univers car c’est sur ce préalable philosophique qu’il a pu assurer presque solitairement, durant une décennie, la genèse de la loi de la relativité générale. Loi qui est certainement la plus belle création de l’esprit du siècle passé et qui continue de fertiliser la pensée scientifique de ce début du siècle. Mais ce n’est pas un préalable scientifique qui a guidé Einstein, c’est tout simplement un préalable philosophique (métaphysique) car il n’y avait aucun acquis à l’époque qui justifiait de raisonner unilatéralement ainsi. Même Maxwell (qui pour Einstein était une référence certaine et même plus) disait qu’au mieux on pouvait s’appuyer sur une modélisation de la nature, c'est-à-dire de lancer sur la nature des filets – autrement dit des « modèles » - pour en attraper les secrets dont les mailles sont mathématiques, tout en sachant bien que ce sont là des artifices, en ce que ces modèles ne reflètent jamais fidèlement les mécanismes qu’ils servent à représenter.

En contrepartie de la position affirmée d’Einstein celle de N. Bohr est à proprement parler renversante car dans sa réplique au paradoxe EPR exposé, il demande d’admettre que dans le domaine quantique, le physicien n’est plus maître de signification a priori, il ne peut plus anticiper avec certitude un résultat, il lui faut attendre que la mesure soit réalisée dans le domaine qu’il prospecte. Plus humblement, le physicien ne peut que se référer à l’information[1] donnée par la mesure sur les grandeurs qu’il souhaite intégrer dans un ensemble cohérent, significatif. En mécanique quantique, il n’y a pas d’assemblage théorique crédible qui ne soit assujetti au référentiel des conditions et des résultats de la mesure. De N. Bohr : « Les concepts physiques tirent leur seul légitimité de leur capacité à couvrir la situation expérimentale. » Ainsi l’intrication de deux objets quantiques avec ses conséquences est un fait qui s’est imposé à partir du début des années 80 avec l’expérience concluante de A. Aspect. Aucune cause théorique n’est à même d’étayer cette propriété qui est donc, à l’égard de ce qui est notre faculté d’entendement classique, …bizarre, inexplicable.

En conséquence contrairement aux fondements certains de la pensée théorique d’Einstein, il n’y a pas pour le physicien la possibilité d’inférer sur la base d’une réalité effective locale du monde. A l’échelle quantique, aucune pensée scientifique juste ne peut être conçue sur la base de la pensée préalable : il y a une réalité locale du monde. De W. Heisenberg : « Le postulat d’une réalité physique existant indépendamment de l’homme n’a pas de signification. ». J’aimerais qu’il soit plus souvent reconnu l’intuition épistémologique remarquable de N. Bohr[2] qui avec si peu d’éléments disponibles à l’époque, avait annoncé que le sujet pensant était un être si intimement influencé, structuré, formaté, déterminé donc, par son environnement naturel, physique, tel qu’il lui est donné par ses sens, qu’il lestait ses capacités intellectuelles de prospection et de conceptualisation. Le physicien peut en partie constater (mesurer) ce qui est au niveau quantique, mais en aucun cas il ne peut envisager de le conceptualiser, de se l’approprier, par ses propres facultés de représentation selon les modalités à sa disposition en tant que sujet pensant fruit d’un monde classique. A l’échelle quantique le physicien ne peut prétendre accéder à la connaissance du monde tel qu’il est mais seulement développer un discours scientifique à propos des informations obtenues en retour des gestes expérimentaux. De N. Bohr : « La physique est seulement concernée par ce que l’on peut dire sur la nature. »

La langage qui façonne la pensée et qui en est aussi son émanation résulte des facultés créatives, adaptatives, extraordinaires de l’homo sapiens qui a pu développer une conscience de sa singularité en prononçant (construisant) son individualité. Il a su développer un processus de différenciation, d’émancipation, à l’égard de la nature en mettant en œuvre une capacité de désignation, autant que faire se peut, de ce qui compose celle-ci. Désigner consiste entre autre à mettre à distance de soi. Evidemment les ressorts du langage ont puisé dans la perception que nous avons du monde immédiat, extériorisé, ainsi objectivé, donc classique. En conséquence, nous pourrions donc (peut-être) espérer que les linguistes nous aident à comprendre pourquoi nous ne pouvons pas penser ‘quantique’. Reconnaissons que cela n’a jamais été leur préoccupation, trop occupé à tenter d’identifier la ou les structures propres au langage.

Tout récemment (avril 2012) un remarquable ouvrage : ‘Dernières Leçons, Collège de France 1968-1969’ d’Emile Benveniste, a été édité (EHESS, Gallimard, Seuil). La préface de Julia Kristeva est aussi de très grande qualité. Une incursion chez Benveniste (1902-1976)[3] qui fit du langage le chemin d’une vie peut nous éclairer vis-à-vis de la problématique posée. Comment la langue fabrique du sens, comment se constituent les significations ? Habituellement ces questions ne figurent pas dans le programme habituel des linguistes, parce qu’ils supposent le plus souvent le sens donné, et donc ils cherchent à scruter sa transmission plutôt que son émergence. En 1968, Benveniste a cette idée neuve : c’est au sein des phrases, dans la succession des termes, que s’engendre le sens. La signification est générée par ce qui est en train de se dire, par l’énonciation, par les phrases en mouvement, proférées par un sujet singulier. On est fort loin d’avoir tiré les enseignements de cette conception dynamique mais voilà ce qui doit attirer notre attention. .

L’essentiel de la langue, c’est de signifier. Comment ça signifie ? Comment s’engendre la capacité de penser dans l’appareil même du langage ? Ce qui ressort quand on suit Benveniste c’est que le langage sert tout autant à concevoir du sens qu’à transmettre du sens. Et probablement plus à en concevoir. Pour Benveniste : « ça signifie » est synonyme de « ça parle », et c’est donc sans le recours à quelque « réalité externe » ou « transcendantale », mais dans les « propriétés » du langage même, qu’il prospecte et analyse les possibilités de faire sens, spécifiques de cet « organisme signifiant » qu’est l’humanité parlante. (Cela laisserait entendre que le langage construit son monde sans se référer, sans le recours, sans quelque prélèvement à une quelconque réalité externe, qui serait a priori accessible au sujet pensant.) Etudier le « pouvoir signifiant » dans les propriétés mêmes du langage, selon Benveniste, « signifier » constitue un principe interne du langage. Il a cherché à montrer comment l’appareil formel de la langue la rend capable non seulement de « dénommer » des objets et des situations mais surtout de « générer » des discours aux significations originales, aussi individuelles que partageables dans les échanges avec autrui. » « L’organisme de la langue génère aussi d’autres systèmes de signes qui lui ressemblent ou augmentent ses capacités, mais dont elle est le seul systèmes signifiant capable de fournir une interprétation. »

 « Enoncer quelque chose, c’est poser une réalité (sa réalité vécue, conçue) et c’est aussi un acte cognitif : une pensée s’énonce en mots »

La croyance d’Einstein à propos de la réalité qui se laisserait dévoiler par l’intelligence du physicien et de ses outils n’est pas compatible avec la compréhension du ‘sujet pensant-parlant’ qui émerge des travaux de E. Benveniste qui s’est consacré à l’étude de l’humanité parlante…pensante[4]. Le langage, donc la pensée, n’opèrent pas sur la base de prélèvements sur une quelconque réalité, même pas d’un point de vue originel. Quand l’être humain se construit être dans la nature, c’est avec ses propres ressources. 

N. Bohr avait compris très tôt qu’il était difficile de vouloir décrire, penser, les propriétés quantiques au plus près de leur vérité avec des capacités de représentation et des capacités langagières forgées au contact et à l’épreuve de notre monde immédiat. On peut considérer que le principe de complémentarité qu’il a énoncé en 1927 constitue la riposte la plus appropriée pour remédier à ce handicap. Il accepte le principe que quand nous chaussons nos ‘lunettes cérébrales’ pour rendre compte d’un phénomène que nous voyons-pensons comme ondulatoire celles-ci ne peuvent simultanément les voir-penser suivant un aspect corpusculaire et réciproquement. (Pensons à la discussion entre Christiaan Huygens et Isaac Newton à propos de la lumière au XVIIe siècle.) Effectivement les termes onde et corpuscule sont très déterminants, ils sont à l’échelle de notre monde le fruit de perceptions très clivant. N. Bohr admet implicitement que ces deux termes sont profondément prégnants et leurs empreintes intellectuelles sont non seulement inaliénables mais elles sont aussi un véritable obstacle pour ‘voir’, penser, autrement ce qui caractériserait les objets et les propriétés quantiques. Avec son principe de complémentarité, Bohr prend acte de cet héritage et fait preuve de pragmatisme, il installe l’aspect ondulatoire et l’aspect corpusculaire sur deux versants opposés de la description d’une unique entité qui est de l’ordre de l’échelle quantique et qui donc ne nous est pas intellectuellement accessible en tant que telle…et probablement ne le sera jamais (après tout, j’accepterais volontiers de mettre un bémol à cette dernière affirmation).

A ce titre les expériences décrites par A. Ourjoumtsev, in ‘Pour la Science’ juillet-septembre 2010, p.80 sont illustratives. Si on sait qu’il y a quelque chose dans l’interféromètre, l’aspect ondulatoire s’impose si et seulement si ce quelque chose (même macroscopique) ne nous livre aucune information sur le fait qu’il serait quelque chose au cours de sa pérégrination dans l’interféromètre. Il serait intéressant de faire la même expérience mais avec la variation suivante : l’observateur ne sait pas s’il y a ou il n’y a pas quelque chose dans l’interféromètre (cette alternance étant parfaitement aléatoire.) La sophistication suprême de cette expérience serait d’observer simultanément le fonctionnement cérébral de l’observateur grâce aux moyens de l’imagerie cérébrale qui sont maintenant au point.

Afin d’illustrer un peu plus mon propos en ce qui concerne la détermination induite par la prégnance des mots concepts, prenons l’exemple des neutrinos. Nous déclarons depuis une bonne décennie que leurs saveurs (3 identifiées) oscillent alors qu’il serait plus juste de dire que leurs saveurs se substituent mutuellement. Par contre l’expression oscillation des saveurs permet de mettre en jeu ce qui caractérisent les propriétés de l’oscillation d’un point de vue mathématique. Cela permet d’identifier des paramètres propres de l’oscillation et de les valoriser en rapport avec les résultats expérimentaux accumulés. En aucun cas, cela ne nous autorise à continuer d’affirmer que nous voyons les saveurs des neutrinos osciller effectivement. Avec cet exemple nous disposons d’une belle illustration de la thèse de Maxwell en ce qui concerne la modélisation de la nature. Enfin toujours à propos des neutrinos, l’hypothèse du ‘seesaw mechanism’ (bascule, balance), qui est une tentative d’expliquer l’extrême petitesse de la masse des neutrinos recensés, montre encore que ce sont des images du monde classique qui sont convoquées a propos d’une propriété qui doit être encore considérée comme ad hoc.

Pour compléter et actualiser ces réflexions j’invite à étudier l’article suivant : ‘La langue façonne la Pensée  de Lera Boroditsky ; in ‘Pour la Science’, septembre 2011. Cet article relate que depuis 10 ans des linguistes ont montré que des langues différentes transmettent des capacités cognitives différentes ainsi que, par exemple, les représentations spatiales et temporelles. L’apprentissage dépend de la langue que l’on parle.

Ces linguistes ont constaté que les exigences d’une langue peuvent renforcer la capacité à s’orienter dans l’espace. Ils ont aussi constaté que les individus pensant différemment l’espace ont des chances de penser différemment dans le temps. Ce qui, entre autre, ressort de cet article c’est que l’espace et le temps peuvent être, suivant les cultures, les langues, déterminés à partir de repères extrêmement distincts mais il n’en reste pas moins qu’ils sont des cadres fondamentaux appelés par l’humain pour se situer. Ceci semble être une donnée invariante sous toutes les latitudes. En encart, il est précisé : « L’extrême diversité des langues dans le monde serait liée à des différences de cognition, et chaque langue serait associée à une « façon de penser ». Cette idée doit cependant être nuancée. Les variations cognitives observées selon la langue semblent concerner les mêmes domaines, à savoir le nombre, l’espace et le temps d’une part, la mémoire et les relations avec autrui d’autre part. Il est remarquable que ces domaines correspondent à ce que plusieurs scientifiques nomment les connaissances noyaux. Il s’agit de connaissances prélinguistiques, c'est-à-dire qu’elles se développent tôt chez l’enfant, avant même l’apparition du langage. »

Ce qui est cité ci-dessus confirmerait ce que j’ai toujours indiqué (dès les premiers chapitres du cours en 2007) à propos de l’espace et du temps qui seraient inhérent à l’être humain[5]. Coïncidence intéressante dans le même numéro de la revue se trouve un article qui s’intitule : ‘Vivre dans un monde quantique’ où il est écrit qu’à l’échelle quantique : il n’y a pas besoin de se référer à un cadre spatio-temporel. Ce qui laisserait entendre, selon mon hypothèse, que le cadre spatio-temporel est imposé par l’être humain déterminé à cause de son rapport spécifique, exclusif, avec le monde extérieur perçu, décrypté, de l’échelle classique. 

Regardons plus en détail cet article de Vlatko Vedral. Premièrement cet article est très critiquable par ce qu’il l’introduit avec ce titre : « Vivre dans un monde quantique ». Il n’y a pas de monde quantique qui se différencierait particulièrement. Il n’y a qu’un seul monde et une description qui fait appel à des lois quantiques lorsque nous sommes à l’échelle correspondante. N. Bohr avait déjà en son temps lancé un avertissement pour contrer ce type de bévue : « Il n’y a pas de monde quantique. Il n’y a qu’une description physique quantique abstraite. » Une fois que nous sommes avertis de ce genre d’extrapolation erronée on peut analyser ce qui est écrit p. 28 « Par exemple, l’espace et le temps sont en physique deux des concepts les plus fondamentaux, mais qui ne jouent qu’un rôle secondaire en physique quantique. L’intrication est le phénomène quantique essentiel. Elle lie entre eux des systèmes sans référence à l’espace et au temps. S’il y avait véritablement une frontière à tracer entre les mondes quantique et classique (sic) nous pourrions nous reposer sur le cadre spatio-temporel classique pour doter la théorie quantique d’un cadre similaire. Sans cette démarcation – en fait surtout parce que le monde classique n’existe pas – nous n’avons plus besoin de ce cadre. Il nous faut plutôt chercher à expliquer l’espace et le temps comme des phénomènes émergeant d’une façon ou d’une autre d’une physique fondamentale dénuée de cadre spatio-temporel. Cela se prolonge par des interprétations sur l’espace et le temps. »

Pour décrypter le monde qui lui est extérieur, l’être humain a recours aux notions fondamentales qui ont contribué à son émergence singulière de sujet pensant. Pour aiguiser ces notions, ses outils, l’être humain s’est frotté, avec ses sens en développement, à un monde de perception immédiat donc correspondant à ce que l’on nomme l’échelle classique[6]. Parmi ces notions, il y a l’espace et le temps et plus fondamentalement le temps. Dans ce contexte on peut envisager que l’espace et le temps deviennent caducs à l’échelle quantique. Dire que « l’espace et le temps seraient des phénomènes émergeant » voudrait dire alors qu’en deçà du seuil de cette émergence, l’intelligence de l’homme est inopérante, elle est démunie, et on ne peut plus projeter de signification sur une base aussi essentielle que la spatiale et la temporelle. J’ai fait l’hypothèse qu’à propos du temps, la valeur rédhibitoire serait de l’ordre de 10-25s correspondant à τs ou TpS (‘Durée irrémédiable et aveugle de l’intelligence humaine.’) ; (voir articles précédents dont « Si faille il y a, quelle est sa nature ? ») ; nous pouvons en déduire en multipliant par C cette durée irrémédiable que 10-2 fermi est l’ordre de grandeur de distance en deçà de laquelle on perd toute capacité de mesure spatiale. C’est d’ailleurs à cet ordre de grandeur que certains disent que l’électron a effectivement cette dimension géométrique et d’autres disent qu’à partir de cette dimension on doit le considérer comme ponctuel.

Ainsi donc l’intrication, ce lien mystérieux entre deux objets quantiques, qui fait que toute action exercée sur l’un modifie instantanément les propriétés de l’autre, qu’elle que soit la ‘distance’ qui les séparerait, nous renvoie à une de nos déterminations. En fait on ne peut effectivement évoquer la distance qui les séparerait parce que ces objets intriqués au départ le reste après coup et en conséquence ne peuvent être individuellement distingués, localisés. Le repérage spatial et temporel n’est plus opérationnel.

Lorsqu’on étudie l’objet que l’on nomme le photon, il faut remarquer que nous constatons que celui-ci ‘est’ ou n’‘est pas’. Nous sommes incapable d’isoler une durée pendant laquelle on pourrait déclarer qu’il serait en formation. Il en est de même pour ce qui concerne la production d’un état d’intrication de 2 photons par exemple, ou de la production d’un état d’intrication de deux cristaux via des photons déjà intriqués. Ces processus prennent naissance à l’intérieur de τs, l’être humain est aveugle et nous ne pouvons considérer qu’une seule entité.  

 



[1] Par exemple à propos du spin de l’électron ou d’une autre particule l’appareil de Stern et Gerlach nous donne l’information que l’électron peut être considéré comme un objet tournant sur lui-même. Toutefois, il n’est pas possible pour nous de concevoir comment une particule puisse tourner sur elle-même simultanément dans toutes les directions. Le fait que nous le pensions comme objet tournant constitue  certainement un obstacle pour le penser autrement mais il faudrait aussi pouvoir imaginer des instruments de mesure moins classiques.

[2] Etrange quand même qu’il soit toujours associé à la problématique de l’intrication le nom d’Einstein alors qu’il l’avait imaginé pour la réfuter et surtout réfuter les fondements de la mécanique quantique proposés par N. Bohr et l’école de Copenhague.

[3] Les investigations lexicologiques de Benveniste, éblouissent par l’abondance des matériaux mis en œuvre et son aptitude continuelle à intégrer le fait singulier dans un ensemble cohérent, qualités qui éclatent dans sa contribution à l’histoire de « civilisation » […] On constate que le français sert de point de départ à des réflexions et à des définitions qui le dépassent : l’examen d’une langue particulière débouche sur un problème de linguistique générale. C’est chez Benveniste, une démarche essentielle.

[4] Très grand connaisseur des langues et des langues anciennes grâce à son milieu familial, ses voyages et ses études : le grec ancien et moderne, le latin, le sanscrit, le hittite, le tokharien, l’indien, l’iranien, toutes les langues indo-européennes, les langues amérindiennes, l’hébreu, le turque, le russe, l’arabe, le slave…

[5] Le temps n’est pas là par lui-même, il n’est pas donné, il n’est que par la mesure opérée par le sujet fondateur et acteur de la mesure. L’être humain est le seul être qui dispose d’un savoir sur le fait qu’il est …. C’est un spatio-temporel et il peut l’exprimer.

[6] « Ainsi nous créons le monde classique que nous observons en fonction de la sensibilité de notre perception, et comme le dit C. Bruckner : « Il pourrait y avoir d’autres mondes classiques complètement différents du nôtre. » » In ‘Pour la Science’, dossier juillet-septembre 2010, p.37.

Partager cet article
Repost0
27 mai 2012 7 27 /05 /mai /2012 20:57

                                      Lumière/Matière Matière/Lumière

 

L’analyse du compte-rendu de l’expérience réalisée à l’UNIGE (voir article de Techno Science du 06-03-2012) amène à revisiter la compréhension que nous pouvons avoir de l’interdépendance matière/rayonnement.

En premier lieu rappelons ce qui est dit dans cet article : « En effet pour les maîtres de l’intrication quantique, ce phénomène [de l’intrication] possède la désagréable habitude de s’évanouir quand les deux objets quantiques intriqués sont trop éloignés. C’est ennuyeux quand on envisage des réseaux de cryptographie quantique inviolables qui relieraient des interlocuteurs distants de plusieurs centaines voire milliers, de kilomètres.»

L’article nous rappelle le fait que l’intrication de deux photons s’estompe au fur et à mesure de la distance parcourue par ceux-ci. La distance de 200 km constitue une distance limite au-delà de laquelle on ne peut plus constater valablement cette propriété. Il semblerait que l’intrication soit une ressource physique quantifiable : elle est élevée dans certains systèmes, faible dans d’autres ; plus l’intrication est élevée, plus le système est adapté au traitement de l’information quantique. Quand l’intrication s’estompe il faut procéder à une régénérescence de celle-ci. Le procédé mis au point par l’équipe de chercheurs en question consiste à faire interagir avec la matière les photons encore intriqués pour que ceux-ci transfèrent leur propriété à la matière et partant les cristaux constitutifs de cette matière réactivent l’intrication des photons. Grâce à cette propriété de transferts d’intrication entre la lumière et la matière : « … on peut désormais imaginer mettre au point des répéteurs quantiques, explique N. Gisin, autrement dit, des sortes de borne qui permettraient de relayer l’intrication sur des grandes distances. Et puis on pourrait aussi en faire des mémoires dans le cadre d’un ordinateur quantique.[1] »

A travers le résultat de cette expérience on doit, à mon sens, s’interroger sur le processus et sa pertinence de la dissociation qui s’est progressivement opérée entre la  matière et la lumière à l’échelle quantique. Cette dissociation n’aurait jamais dû prendre corps car dès les prémisses de l’acte de naissance du concept (de la représentation) de ‘photon’ avec Planck[2], l’auteur a concomitamment émis une alerte. Planck a introduit ce concept potentiel pour rendre compte de l’échange d’énergie entre la matière et le rayonnement du corps noir. Grâce à cela il put enfin obtenir une expression théorique excellente au regard des résultats expérimentaux accumulés concernant la variation mesurée de la densité d’énergie du rayonnement du corps noir en fonction de la température et de la fréquence. Mais n’oublions pas comme le rappel M. Planck « Mais, même en admettant la validité absolument rigoureuse de la formule du rayonnement, aussi longtemps qu’elle avait simplement le caractère d’une loi découverte par une heureuse intuition, on ne pouvait en attendre qu’elle possédât plus qu’une signification formelle (sic). Pour cette raison dès le jour même où j’eus formulé cette loi, je commençai moi-même, à m’attaquer au problème de sa véritable interprétation physique. »

Cet exemple d’une grande valeur historique, illustre avec force que la conception formelle, peut être déconnectée d’un raisonnement physique canonique, préalable, comme le certifie Planck. Mais n’oublions pas qu’obtenir une expression mathématique construite, argumentée (même partiellement), qui in fine se trouve être en parfaite adéquation avec des résultats expérimentaux qui ont été préalablement et méticuleusement recensés dans la durée, n’est pas fortuit. Le risque c’est qu’a posteriori, emporté par la beauté du résultat on soit moins rigoureux et attentif à la compréhension physique et à la conceptualisation appropriée.

De mon point de vue, ce risque, s’est présentée et a été pris d’une façon définitive, avec les travaux de Bose en 1924, alors que jusqu’à cette date, Einstein avait hésité avant de franchir le Rubicond. Mais effectivement quand il prit connaissance des travaux de Bose il n’hésita point à se rallier à cette conception affirmée du photon considéré comme objet quantique autonome. Avant d’en arriver là, analysons rétrospectivement comment la pensée scientifique éminente sur ce sujet a évolué à partir de 1900.

En 1905, les propriétés relatives à l’effet photoélectrique sont parfaitement et simplement expliquées et les quanta de lumière constituent dans ce cas la meilleure représentation possible pour rendre compte de l’interaction matière/lumière et de cet effet spécifique.

Dès 1907, A. Einstein propose d’inverser la démarche heuristique empruntée par Planck. En effet considérant que cette formule obtenue en 1900 était prouvée et consistante, il considère qu’on pouvait s’adosser sur sa véracité et de là tenter d’approfondir l’étude du rayonnement, en gardant l’objectif de devoir retrouver cette formule en toutes circonstances. Dans toutes les expériences de pensée ou modèles qu’il met en avant il y a toujours de l’interaction matière/rayonnement.

En 1916, toujours avec cet horizon confortable de la validité (bien que toujours fondamentalement inexpliquée) de la loi de Planck, et grâce aux avancées théoriques dues au modèle de l’atome de N. Bohr (1913), Einstein considère l’interaction matière/rayonnement suivant deux modes distincts d’émission qui seront à l’origine de la conception du Maser, puis du Laser.

En 1923, l’effet Compton observé et sa mise en équation fait encore appel à ce concept de photon avec la nécessité de lui attribuer un caractère directionnel. Nous sommes encore en rapport avec des propriétés physiques qui mettent en jeux l’interaction matière/rayonnement. 

C’est dans le mémoire de Satyendranath Bose, en 1924, que le rayonnement du corps noir est traité comme un ‘gaz’ de photons, sans aucune référence à l’interaction matière/rayonnement, et selon des règles, nouvelles, statistiques (quantiques), qui n’ont comme justification que celle de retrouver la loi de Planck. S. Bose convainc Einstein de reprendre ce travail à son compte et de l’amplifier avec des productions qui font référence à la statistique de Bose-Eintein et en creux donne aussi naissance à la statistique de Fermi-Dirac. Ces deux statistiques rendent compte d’un spectre extrêmement ample de propriétés physiques recensées dans la nature. On n’oubliera pas que les choses ont été pensées dans ce sens là. Si au contraire le travail de Bose avait été construit sur un autre référentiel d’objet(s) physique(s) et qu’après coup, le photon y soit intégré, alors mes arguments et mes préventions seraient très atténués voire deviendraient caducs.

Faisons le point : la loi de Planck est reconnue pour sa valeur heuristique, elle est à l’origine d’une représentation, pragmatique, formelle, de l’échange discret d’énergie entre matière et rayonnement, au moyen du ‘photon’. A ce stade on peut considérer que le photon est un vecteur d’informations tout autant de la matière que du rayonnement, il a donc un caractère hybride. La coupure de toute référence potentielle avec la matière est explicitement acceptée avec la reconnaissance de la valeur du raisonnement de S. Bose. Est-ce que cette dissociation entre la matière et son rayonnement est judicieuse ? Il vaut la peine, à l’aune des résultats de l’expérience (UNIGE) citée ci-dessus, de s’interroger sur cet ontologisme, de fait, du photon. En fait le photon ne devrait jamais être considéré ‘en-soi’ car il est certainement notre meilleure représentation de l’échange au niveau quantique entre matière et rayonnement, mais pas plus.

Le questionnement est d’autant plus justifié lorsqu’on fait conjointement référence à un tout autre domaine théorique : la théorie de jauge. Rappelons-nous du raisonnement fondamental à l’origine de cette théorie de l’électrodynamique quantique : soit une particule de matière chargée (électriquement) et appliquons les propriétés d’invariance locale. Il en ressort que ces propriétés sont respectées si, et seulement si, la particule de matière est ‘habillée’ de son champ électromagnétique. Ainsi est inventé et consacré le concept du boson de jauge, qui n’est autre que le photon.

La matière chargée et son rayonnement ne devraient jamais être dissociés, ils constituent un ensemble cohérent, consistant, qui est contraint principalement par la vitesse C et ses propriétés et par la relation d’équivalence E = mc2. Ces contraintes sont constitutives de l’horizon physique de l’univers (voir l’article précédent posté le 24/04), celui que nous pouvons décrypter, qui nous est accessible concrètement et intellectuellement. La constante de Planck est représentative du lien ineffaçable matière/lumière, totalement spécifique à cet ensemble et donc injustifiable a priori.

Au sein de cet ensemble, A. Einstein, pendant des décennies, avec les contributions d’éminents scientifiques : Th. Kaluza, H. Weil, O. Klein, etc. tenta sans succès un pas supplémentaire d’unification qui visait à faire apparaître la matière comme conséquence de l’unification entre l’interaction électromagnétique et l’interaction gravitationnelle. Moi-même, j’ai pensé encore tout récemment que charge électrique et charge de masse pouvaient être les deux versants d’une même entité à identifier. Rien de tout cela n’aboutit. Alors, il reste à considérer que l’unité est là, irréductible, que la matière chargé (de la charge élémentaire) et ses effets constituent une unité indéfectible, il faut la considérer comme telle, elle constitue le socle de ce que ultimement nous sommes à même de décrypter et entendre au sein de notre univers. (« Notre monde premier est celui de le lumière, plus justement celui du rayonnement. Il constitue le fond à partir duquel se décline notre compréhension du monde et de la mise en forme de ses propriétés. On ne peut concrètement s’y situer mais nous pouvons abstraitement, partiellement l’investir, grâce à nos capacités cérébrales. Se décline : implique que le rayonnement et ses propriétés soient considérés comme constituant le paradigme absolu. »)  

Deux domaines de la physique théorique pourraient être considérés comme des confirmations de cette hypothèse : de l’unit é irréductible matière/rayonnement, ainsi que du caractère hybride du photon. Il s’agit notamment de la théorie holographique (voir par exemple les travaux de Raphael Bousso du Laboratoire national Lawrence Berkeley) et des développements théoriques à propos des trous noirs. En effet on est incapable de penser des propriétés physiques de la matière engloutie dans des trous noirs sans le rayonnement de Hawking qui s’appuie sur la notion d’entropie du trou noir. Pour le moment ces caractéristiques n’ont pas été mesurées mais voilà… elles rassurent les physiciens.

Si on accepte cette thèse, immédiatement surgit le questionnement à propos de la matière noire. Soit le vocable matière est approprié et dans ce cas il faut se demander pourquoi est-elle noire ? Deux réponses sont possibles, soit elle ne rayonne pas du tout, soit elle rayonne un rayonnement qui pour nous est non décryptable (provisoirement ou définitivement). Non décryptable parce que (par exemple) la vitesse de circulation de ce rayonnement est inférieur ou supérieur à notre vitesse standard C et il n’est pas régi par la contrainte E = mc2. Dans ce cas, il faudra se demander si ce rayonnement ‘noire’ constitue une donnée nouvelle qui enrichit la compréhension de notre univers ou bien plutôt considérer que nous sommes en présence d’une trace d’un univers différent au nôtre, enchevêtré.

Autres pistes de réflexion :

Le questionnement ne s’arrête pas là, car que penser des neutrinos ? Dans le cadre du modèle standard, ils sont les seules particules de matière élémentaires sans charge électrique, donc, à coup sûr, non rayonnantes. En ce qui concerne ces particules énigmatiques, je formulerais l’hypothèse que le neutrino électronique est ce qui reste quand l’électron a perdu sa charge électrique, de même pour le neutrino muonique, reliquat du muon et du neutrino tauique reliquat du tau. Cela implique de considérer qu’il y aurait une très forte corrélation entre les effets de la charge électrique élémentaire et pour le moins la masse d’inertie (= masse gravitationnelle) des électrons, des muons et des taus[3]. Cela implique de déterminer la nature ‘de la masse‘ résiduel véhiculée par les neutrinos, est-elle purement gravitationnelle, ou d’une nature encore inconnue ? Cette hypothèse renforce le concept de saveur qui distingue chacune des familles de neutrinos. Etant donné que le tau et le muon se désintègrent spontanément vers l’électron, il n’y a pas d’obstacles pour penser une interchangeabilité (oscillation ?) descendante du neutrino tauique jusqu’au neutrino électronique. Mais l’hypothèse que je propose doit être compatible avec le fait que l’interchangeabilité montante des neutrinos est aussi observable. Cette compatibilité est préservée car, par exemple, si on tient compte des modes de désintégration des W+, W- et du Z0, et de leur probabilité d’occurrence, on peut dire qu’il n’y a pas de hiérarchie qualitative entre l’électron, le muon, le tau. Donc la substituabilité est naturellement envisageable d’un point de vue montant et descendant.

Bien évidemment ces neutrinos ne seraient pas régis par la contrainte E = mc2, ce qui n’implique pas, ni n’interdit, qu’ils puissent se déplacer à une vitesse supérieure à C.

De même le neutrino électronique, vecteur parfait de l’interaction faible, deviendrait aussi vecteur de l’interaction électromagnétique dès qu’il lui serait affecté une charge électrique élémentaire pour devenir un électron (évidemment ceci vaut pour les autres neutrinos qui deviennent muon et tau). Ainsi l’unification électrofaible dépasserait le cadre purement formel et deviendrait le résultat d’un processus phénoménologique avec deux substrats-sources différenciés. Dans ce cas de figure la cohabitation théorique, bosons de jauge massifs et boson de jauge non massif ne serait plus matière à circonspection et il n’y aurait plus besoin d’imaginer un mécanisme type Higgs pour rendre compatible cette cohabitation.

Reste à rendre compte, si cela est possible, pourquoi avec la même charge électrique élémentaire, le muon = 105 Mev et le tau = 1776 Mev, alors que l’électron est à 0.511 Mev.

Qu’est-ce qui ferait que chacun de ces neutrinos influencerait de telles différences de masse ?



[1] On constate que pour ces chercheurs l’intrication n’est plus un problème fondamental (toujours inexpliqué) mais un fait dont ils souhaitent exploiter les propriétés à des fins technologiques.

[2] L’introduction de quanta indivisible d’énergie pour l’oscillateur, fut assurée par M. Planck, lors d’une conférence,  le 14/12/1900.

[3] Voir travail engagé par F. Lurçat et J.Y. Grandpeix en l’an 2000 (in ‘Foundations of Physics’, Vol.32, N° 1, January 2002) qui reprenait un processus imaginé dans les années 1950 par J. Frenkel et W.E. Thirring

 

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens