Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
27 mai 2012 7 27 /05 /mai /2012 20:57

                                      Lumière/Matière Matière/Lumière

 

L’analyse du compte-rendu de l’expérience réalisée à l’UNIGE (voir article de Techno Science du 06-03-2012) amène à revisiter la compréhension que nous pouvons avoir de l’interdépendance matière/rayonnement.

En premier lieu rappelons ce qui est dit dans cet article : « En effet pour les maîtres de l’intrication quantique, ce phénomène [de l’intrication] possède la désagréable habitude de s’évanouir quand les deux objets quantiques intriqués sont trop éloignés. C’est ennuyeux quand on envisage des réseaux de cryptographie quantique inviolables qui relieraient des interlocuteurs distants de plusieurs centaines voire milliers, de kilomètres.»

L’article nous rappelle le fait que l’intrication de deux photons s’estompe au fur et à mesure de la distance parcourue par ceux-ci. La distance de 200 km constitue une distance limite au-delà de laquelle on ne peut plus constater valablement cette propriété. Il semblerait que l’intrication soit une ressource physique quantifiable : elle est élevée dans certains systèmes, faible dans d’autres ; plus l’intrication est élevée, plus le système est adapté au traitement de l’information quantique. Quand l’intrication s’estompe il faut procéder à une régénérescence de celle-ci. Le procédé mis au point par l’équipe de chercheurs en question consiste à faire interagir avec la matière les photons encore intriqués pour que ceux-ci transfèrent leur propriété à la matière et partant les cristaux constitutifs de cette matière réactivent l’intrication des photons. Grâce à cette propriété de transferts d’intrication entre la lumière et la matière : « … on peut désormais imaginer mettre au point des répéteurs quantiques, explique N. Gisin, autrement dit, des sortes de borne qui permettraient de relayer l’intrication sur des grandes distances. Et puis on pourrait aussi en faire des mémoires dans le cadre d’un ordinateur quantique.[1] »

A travers le résultat de cette expérience on doit, à mon sens, s’interroger sur le processus et sa pertinence de la dissociation qui s’est progressivement opérée entre la  matière et la lumière à l’échelle quantique. Cette dissociation n’aurait jamais dû prendre corps car dès les prémisses de l’acte de naissance du concept (de la représentation) de ‘photon’ avec Planck[2], l’auteur a concomitamment émis une alerte. Planck a introduit ce concept potentiel pour rendre compte de l’échange d’énergie entre la matière et le rayonnement du corps noir. Grâce à cela il put enfin obtenir une expression théorique excellente au regard des résultats expérimentaux accumulés concernant la variation mesurée de la densité d’énergie du rayonnement du corps noir en fonction de la température et de la fréquence. Mais n’oublions pas comme le rappel M. Planck « Mais, même en admettant la validité absolument rigoureuse de la formule du rayonnement, aussi longtemps qu’elle avait simplement le caractère d’une loi découverte par une heureuse intuition, on ne pouvait en attendre qu’elle possédât plus qu’une signification formelle (sic). Pour cette raison dès le jour même où j’eus formulé cette loi, je commençai moi-même, à m’attaquer au problème de sa véritable interprétation physique. »

Cet exemple d’une grande valeur historique, illustre avec force que la conception formelle, peut être déconnectée d’un raisonnement physique canonique, préalable, comme le certifie Planck. Mais n’oublions pas qu’obtenir une expression mathématique construite, argumentée (même partiellement), qui in fine se trouve être en parfaite adéquation avec des résultats expérimentaux qui ont été préalablement et méticuleusement recensés dans la durée, n’est pas fortuit. Le risque c’est qu’a posteriori, emporté par la beauté du résultat on soit moins rigoureux et attentif à la compréhension physique et à la conceptualisation appropriée.

De mon point de vue, ce risque, s’est présentée et a été pris d’une façon définitive, avec les travaux de Bose en 1924, alors que jusqu’à cette date, Einstein avait hésité avant de franchir le Rubicond. Mais effectivement quand il prit connaissance des travaux de Bose il n’hésita point à se rallier à cette conception affirmée du photon considéré comme objet quantique autonome. Avant d’en arriver là, analysons rétrospectivement comment la pensée scientifique éminente sur ce sujet a évolué à partir de 1900.

En 1905, les propriétés relatives à l’effet photoélectrique sont parfaitement et simplement expliquées et les quanta de lumière constituent dans ce cas la meilleure représentation possible pour rendre compte de l’interaction matière/lumière et de cet effet spécifique.

Dès 1907, A. Einstein propose d’inverser la démarche heuristique empruntée par Planck. En effet considérant que cette formule obtenue en 1900 était prouvée et consistante, il considère qu’on pouvait s’adosser sur sa véracité et de là tenter d’approfondir l’étude du rayonnement, en gardant l’objectif de devoir retrouver cette formule en toutes circonstances. Dans toutes les expériences de pensée ou modèles qu’il met en avant il y a toujours de l’interaction matière/rayonnement.

En 1916, toujours avec cet horizon confortable de la validité (bien que toujours fondamentalement inexpliquée) de la loi de Planck, et grâce aux avancées théoriques dues au modèle de l’atome de N. Bohr (1913), Einstein considère l’interaction matière/rayonnement suivant deux modes distincts d’émission qui seront à l’origine de la conception du Maser, puis du Laser.

En 1923, l’effet Compton observé et sa mise en équation fait encore appel à ce concept de photon avec la nécessité de lui attribuer un caractère directionnel. Nous sommes encore en rapport avec des propriétés physiques qui mettent en jeux l’interaction matière/rayonnement. 

C’est dans le mémoire de Satyendranath Bose, en 1924, que le rayonnement du corps noir est traité comme un ‘gaz’ de photons, sans aucune référence à l’interaction matière/rayonnement, et selon des règles, nouvelles, statistiques (quantiques), qui n’ont comme justification que celle de retrouver la loi de Planck. S. Bose convainc Einstein de reprendre ce travail à son compte et de l’amplifier avec des productions qui font référence à la statistique de Bose-Eintein et en creux donne aussi naissance à la statistique de Fermi-Dirac. Ces deux statistiques rendent compte d’un spectre extrêmement ample de propriétés physiques recensées dans la nature. On n’oubliera pas que les choses ont été pensées dans ce sens là. Si au contraire le travail de Bose avait été construit sur un autre référentiel d’objet(s) physique(s) et qu’après coup, le photon y soit intégré, alors mes arguments et mes préventions seraient très atténués voire deviendraient caducs.

Faisons le point : la loi de Planck est reconnue pour sa valeur heuristique, elle est à l’origine d’une représentation, pragmatique, formelle, de l’échange discret d’énergie entre matière et rayonnement, au moyen du ‘photon’. A ce stade on peut considérer que le photon est un vecteur d’informations tout autant de la matière que du rayonnement, il a donc un caractère hybride. La coupure de toute référence potentielle avec la matière est explicitement acceptée avec la reconnaissance de la valeur du raisonnement de S. Bose. Est-ce que cette dissociation entre la matière et son rayonnement est judicieuse ? Il vaut la peine, à l’aune des résultats de l’expérience (UNIGE) citée ci-dessus, de s’interroger sur cet ontologisme, de fait, du photon. En fait le photon ne devrait jamais être considéré ‘en-soi’ car il est certainement notre meilleure représentation de l’échange au niveau quantique entre matière et rayonnement, mais pas plus.

Le questionnement est d’autant plus justifié lorsqu’on fait conjointement référence à un tout autre domaine théorique : la théorie de jauge. Rappelons-nous du raisonnement fondamental à l’origine de cette théorie de l’électrodynamique quantique : soit une particule de matière chargée (électriquement) et appliquons les propriétés d’invariance locale. Il en ressort que ces propriétés sont respectées si, et seulement si, la particule de matière est ‘habillée’ de son champ électromagnétique. Ainsi est inventé et consacré le concept du boson de jauge, qui n’est autre que le photon.

La matière chargée et son rayonnement ne devraient jamais être dissociés, ils constituent un ensemble cohérent, consistant, qui est contraint principalement par la vitesse C et ses propriétés et par la relation d’équivalence E = mc2. Ces contraintes sont constitutives de l’horizon physique de l’univers (voir l’article précédent posté le 24/04), celui que nous pouvons décrypter, qui nous est accessible concrètement et intellectuellement. La constante de Planck est représentative du lien ineffaçable matière/lumière, totalement spécifique à cet ensemble et donc injustifiable a priori.

Au sein de cet ensemble, A. Einstein, pendant des décennies, avec les contributions d’éminents scientifiques : Th. Kaluza, H. Weil, O. Klein, etc. tenta sans succès un pas supplémentaire d’unification qui visait à faire apparaître la matière comme conséquence de l’unification entre l’interaction électromagnétique et l’interaction gravitationnelle. Moi-même, j’ai pensé encore tout récemment que charge électrique et charge de masse pouvaient être les deux versants d’une même entité à identifier. Rien de tout cela n’aboutit. Alors, il reste à considérer que l’unité est là, irréductible, que la matière chargé (de la charge élémentaire) et ses effets constituent une unité indéfectible, il faut la considérer comme telle, elle constitue le socle de ce que ultimement nous sommes à même de décrypter et entendre au sein de notre univers. (« Notre monde premier est celui de le lumière, plus justement celui du rayonnement. Il constitue le fond à partir duquel se décline notre compréhension du monde et de la mise en forme de ses propriétés. On ne peut concrètement s’y situer mais nous pouvons abstraitement, partiellement l’investir, grâce à nos capacités cérébrales. Se décline : implique que le rayonnement et ses propriétés soient considérés comme constituant le paradigme absolu. »)  

Deux domaines de la physique théorique pourraient être considérés comme des confirmations de cette hypothèse : de l’unit é irréductible matière/rayonnement, ainsi que du caractère hybride du photon. Il s’agit notamment de la théorie holographique (voir par exemple les travaux de Raphael Bousso du Laboratoire national Lawrence Berkeley) et des développements théoriques à propos des trous noirs. En effet on est incapable de penser des propriétés physiques de la matière engloutie dans des trous noirs sans le rayonnement de Hawking qui s’appuie sur la notion d’entropie du trou noir. Pour le moment ces caractéristiques n’ont pas été mesurées mais voilà… elles rassurent les physiciens.

Si on accepte cette thèse, immédiatement surgit le questionnement à propos de la matière noire. Soit le vocable matière est approprié et dans ce cas il faut se demander pourquoi est-elle noire ? Deux réponses sont possibles, soit elle ne rayonne pas du tout, soit elle rayonne un rayonnement qui pour nous est non décryptable (provisoirement ou définitivement). Non décryptable parce que (par exemple) la vitesse de circulation de ce rayonnement est inférieur ou supérieur à notre vitesse standard C et il n’est pas régi par la contrainte E = mc2. Dans ce cas, il faudra se demander si ce rayonnement ‘noire’ constitue une donnée nouvelle qui enrichit la compréhension de notre univers ou bien plutôt considérer que nous sommes en présence d’une trace d’un univers différent au nôtre, enchevêtré.

Autres pistes de réflexion :

Le questionnement ne s’arrête pas là, car que penser des neutrinos ? Dans le cadre du modèle standard, ils sont les seules particules de matière élémentaires sans charge électrique, donc, à coup sûr, non rayonnantes. En ce qui concerne ces particules énigmatiques, je formulerais l’hypothèse que le neutrino électronique est ce qui reste quand l’électron a perdu sa charge électrique, de même pour le neutrino muonique, reliquat du muon et du neutrino tauique reliquat du tau. Cela implique de considérer qu’il y aurait une très forte corrélation entre les effets de la charge électrique élémentaire et pour le moins la masse d’inertie (= masse gravitationnelle) des électrons, des muons et des taus[3]. Cela implique de déterminer la nature ‘de la masse‘ résiduel véhiculée par les neutrinos, est-elle purement gravitationnelle, ou d’une nature encore inconnue ? Cette hypothèse renforce le concept de saveur qui distingue chacune des familles de neutrinos. Etant donné que le tau et le muon se désintègrent spontanément vers l’électron, il n’y a pas d’obstacles pour penser une interchangeabilité (oscillation ?) descendante du neutrino tauique jusqu’au neutrino électronique. Mais l’hypothèse que je propose doit être compatible avec le fait que l’interchangeabilité montante des neutrinos est aussi observable. Cette compatibilité est préservée car, par exemple, si on tient compte des modes de désintégration des W+, W- et du Z0, et de leur probabilité d’occurrence, on peut dire qu’il n’y a pas de hiérarchie qualitative entre l’électron, le muon, le tau. Donc la substituabilité est naturellement envisageable d’un point de vue montant et descendant.

Bien évidemment ces neutrinos ne seraient pas régis par la contrainte E = mc2, ce qui n’implique pas, ni n’interdit, qu’ils puissent se déplacer à une vitesse supérieure à C.

De même le neutrino électronique, vecteur parfait de l’interaction faible, deviendrait aussi vecteur de l’interaction électromagnétique dès qu’il lui serait affecté une charge électrique élémentaire pour devenir un électron (évidemment ceci vaut pour les autres neutrinos qui deviennent muon et tau). Ainsi l’unification électrofaible dépasserait le cadre purement formel et deviendrait le résultat d’un processus phénoménologique avec deux substrats-sources différenciés. Dans ce cas de figure la cohabitation théorique, bosons de jauge massifs et boson de jauge non massif ne serait plus matière à circonspection et il n’y aurait plus besoin d’imaginer un mécanisme type Higgs pour rendre compatible cette cohabitation.

Reste à rendre compte, si cela est possible, pourquoi avec la même charge électrique élémentaire, le muon = 105 Mev et le tau = 1776 Mev, alors que l’électron est à 0.511 Mev.

Qu’est-ce qui ferait que chacun de ces neutrinos influencerait de telles différences de masse ?



[1] On constate que pour ces chercheurs l’intrication n’est plus un problème fondamental (toujours inexpliqué) mais un fait dont ils souhaitent exploiter les propriétés à des fins technologiques.

[2] L’introduction de quanta indivisible d’énergie pour l’oscillateur, fut assurée par M. Planck, lors d’une conférence,  le 14/12/1900.

[3] Voir travail engagé par F. Lurçat et J.Y. Grandpeix en l’an 2000 (in ‘Foundations of Physics’, Vol.32, N° 1, January 2002) qui reprenait un processus imaginé dans les années 1950 par J. Frenkel et W.E. Thirring

 

Partager cet article
Repost0

commentaires

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens