Overblog
Suivre ce blog Administration + Créer mon blog
27 mai 2012 7 27 /05 /mai /2012 20:57

                                      Lumière/Matière Matière/Lumière

 

L’analyse du compte-rendu de l’expérience réalisée à l’UNIGE (voir article de Techno Science du 06-03-2012) amène à revisiter la compréhension que nous pouvons avoir de l’interdépendance matière/rayonnement.

En premier lieu rappelons ce qui est dit dans cet article : « En effet pour les maîtres de l’intrication quantique, ce phénomène [de l’intrication] possède la désagréable habitude de s’évanouir quand les deux objets quantiques intriqués sont trop éloignés. C’est ennuyeux quand on envisage des réseaux de cryptographie quantique inviolables qui relieraient des interlocuteurs distants de plusieurs centaines voire milliers, de kilomètres.»

L’article nous rappelle le fait que l’intrication de deux photons s’estompe au fur et à mesure de la distance parcourue par ceux-ci. La distance de 200 km constitue une distance limite au-delà de laquelle on ne peut plus constater valablement cette propriété. Il semblerait que l’intrication soit une ressource physique quantifiable : elle est élevée dans certains systèmes, faible dans d’autres ; plus l’intrication est élevée, plus le système est adapté au traitement de l’information quantique. Quand l’intrication s’estompe il faut procéder à une régénérescence de celle-ci. Le procédé mis au point par l’équipe de chercheurs en question consiste à faire interagir avec la matière les photons encore intriqués pour que ceux-ci transfèrent leur propriété à la matière et partant les cristaux constitutifs de cette matière réactivent l’intrication des photons. Grâce à cette propriété de transferts d’intrication entre la lumière et la matière : « … on peut désormais imaginer mettre au point des répéteurs quantiques, explique N. Gisin, autrement dit, des sortes de borne qui permettraient de relayer l’intrication sur des grandes distances. Et puis on pourrait aussi en faire des mémoires dans le cadre d’un ordinateur quantique.[1] »

A travers le résultat de cette expérience on doit, à mon sens, s’interroger sur le processus et sa pertinence de la dissociation qui s’est progressivement opérée entre la  matière et la lumière à l’échelle quantique. Cette dissociation n’aurait jamais dû prendre corps car dès les prémisses de l’acte de naissance du concept (de la représentation) de ‘photon’ avec Planck[2], l’auteur a concomitamment émis une alerte. Planck a introduit ce concept potentiel pour rendre compte de l’échange d’énergie entre la matière et le rayonnement du corps noir. Grâce à cela il put enfin obtenir une expression théorique excellente au regard des résultats expérimentaux accumulés concernant la variation mesurée de la densité d’énergie du rayonnement du corps noir en fonction de la température et de la fréquence. Mais n’oublions pas comme le rappel M. Planck « Mais, même en admettant la validité absolument rigoureuse de la formule du rayonnement, aussi longtemps qu’elle avait simplement le caractère d’une loi découverte par une heureuse intuition, on ne pouvait en attendre qu’elle possédât plus qu’une signification formelle (sic). Pour cette raison dès le jour même où j’eus formulé cette loi, je commençai moi-même, à m’attaquer au problème de sa véritable interprétation physique. »

Cet exemple d’une grande valeur historique, illustre avec force que la conception formelle, peut être déconnectée d’un raisonnement physique canonique, préalable, comme le certifie Planck. Mais n’oublions pas qu’obtenir une expression mathématique construite, argumentée (même partiellement), qui in fine se trouve être en parfaite adéquation avec des résultats expérimentaux qui ont été préalablement et méticuleusement recensés dans la durée, n’est pas fortuit. Le risque c’est qu’a posteriori, emporté par la beauté du résultat on soit moins rigoureux et attentif à la compréhension physique et à la conceptualisation appropriée.

De mon point de vue, ce risque, s’est présentée et a été pris d’une façon définitive, avec les travaux de Bose en 1924, alors que jusqu’à cette date, Einstein avait hésité avant de franchir le Rubicond. Mais effectivement quand il prit connaissance des travaux de Bose il n’hésita point à se rallier à cette conception affirmée du photon considéré comme objet quantique autonome. Avant d’en arriver là, analysons rétrospectivement comment la pensée scientifique éminente sur ce sujet a évolué à partir de 1900.

En 1905, les propriétés relatives à l’effet photoélectrique sont parfaitement et simplement expliquées et les quanta de lumière constituent dans ce cas la meilleure représentation possible pour rendre compte de l’interaction matière/lumière et de cet effet spécifique.

Dès 1907, A. Einstein propose d’inverser la démarche heuristique empruntée par Planck. En effet considérant que cette formule obtenue en 1900 était prouvée et consistante, il considère qu’on pouvait s’adosser sur sa véracité et de là tenter d’approfondir l’étude du rayonnement, en gardant l’objectif de devoir retrouver cette formule en toutes circonstances. Dans toutes les expériences de pensée ou modèles qu’il met en avant il y a toujours de l’interaction matière/rayonnement.

En 1916, toujours avec cet horizon confortable de la validité (bien que toujours fondamentalement inexpliquée) de la loi de Planck, et grâce aux avancées théoriques dues au modèle de l’atome de N. Bohr (1913), Einstein considère l’interaction matière/rayonnement suivant deux modes distincts d’émission qui seront à l’origine de la conception du Maser, puis du Laser.

En 1923, l’effet Compton observé et sa mise en équation fait encore appel à ce concept de photon avec la nécessité de lui attribuer un caractère directionnel. Nous sommes encore en rapport avec des propriétés physiques qui mettent en jeux l’interaction matière/rayonnement. 

C’est dans le mémoire de Satyendranath Bose, en 1924, que le rayonnement du corps noir est traité comme un ‘gaz’ de photons, sans aucune référence à l’interaction matière/rayonnement, et selon des règles, nouvelles, statistiques (quantiques), qui n’ont comme justification que celle de retrouver la loi de Planck. S. Bose convainc Einstein de reprendre ce travail à son compte et de l’amplifier avec des productions qui font référence à la statistique de Bose-Eintein et en creux donne aussi naissance à la statistique de Fermi-Dirac. Ces deux statistiques rendent compte d’un spectre extrêmement ample de propriétés physiques recensées dans la nature. On n’oubliera pas que les choses ont été pensées dans ce sens là. Si au contraire le travail de Bose avait été construit sur un autre référentiel d’objet(s) physique(s) et qu’après coup, le photon y soit intégré, alors mes arguments et mes préventions seraient très atténués voire deviendraient caducs.

Faisons le point : la loi de Planck est reconnue pour sa valeur heuristique, elle est à l’origine d’une représentation, pragmatique, formelle, de l’échange discret d’énergie entre matière et rayonnement, au moyen du ‘photon’. A ce stade on peut considérer que le photon est un vecteur d’informations tout autant de la matière que du rayonnement, il a donc un caractère hybride. La coupure de toute référence potentielle avec la matière est explicitement acceptée avec la reconnaissance de la valeur du raisonnement de S. Bose. Est-ce que cette dissociation entre la matière et son rayonnement est judicieuse ? Il vaut la peine, à l’aune des résultats de l’expérience (UNIGE) citée ci-dessus, de s’interroger sur cet ontologisme, de fait, du photon. En fait le photon ne devrait jamais être considéré ‘en-soi’ car il est certainement notre meilleure représentation de l’échange au niveau quantique entre matière et rayonnement, mais pas plus.

Le questionnement est d’autant plus justifié lorsqu’on fait conjointement référence à un tout autre domaine théorique : la théorie de jauge. Rappelons-nous du raisonnement fondamental à l’origine de cette théorie de l’électrodynamique quantique : soit une particule de matière chargée (électriquement) et appliquons les propriétés d’invariance locale. Il en ressort que ces propriétés sont respectées si, et seulement si, la particule de matière est ‘habillée’ de son champ électromagnétique. Ainsi est inventé et consacré le concept du boson de jauge, qui n’est autre que le photon.

La matière chargée et son rayonnement ne devraient jamais être dissociés, ils constituent un ensemble cohérent, consistant, qui est contraint principalement par la vitesse C et ses propriétés et par la relation d’équivalence E = mc2. Ces contraintes sont constitutives de l’horizon physique de l’univers (voir l’article précédent posté le 24/04), celui que nous pouvons décrypter, qui nous est accessible concrètement et intellectuellement. La constante de Planck est représentative du lien ineffaçable matière/lumière, totalement spécifique à cet ensemble et donc injustifiable a priori.

Au sein de cet ensemble, A. Einstein, pendant des décennies, avec les contributions d’éminents scientifiques : Th. Kaluza, H. Weil, O. Klein, etc. tenta sans succès un pas supplémentaire d’unification qui visait à faire apparaître la matière comme conséquence de l’unification entre l’interaction électromagnétique et l’interaction gravitationnelle. Moi-même, j’ai pensé encore tout récemment que charge électrique et charge de masse pouvaient être les deux versants d’une même entité à identifier. Rien de tout cela n’aboutit. Alors, il reste à considérer que l’unité est là, irréductible, que la matière chargé (de la charge élémentaire) et ses effets constituent une unité indéfectible, il faut la considérer comme telle, elle constitue le socle de ce que ultimement nous sommes à même de décrypter et entendre au sein de notre univers. (« Notre monde premier est celui de le lumière, plus justement celui du rayonnement. Il constitue le fond à partir duquel se décline notre compréhension du monde et de la mise en forme de ses propriétés. On ne peut concrètement s’y situer mais nous pouvons abstraitement, partiellement l’investir, grâce à nos capacités cérébrales. Se décline : implique que le rayonnement et ses propriétés soient considérés comme constituant le paradigme absolu. »)  

Deux domaines de la physique théorique pourraient être considérés comme des confirmations de cette hypothèse : de l’unit é irréductible matière/rayonnement, ainsi que du caractère hybride du photon. Il s’agit notamment de la théorie holographique (voir par exemple les travaux de Raphael Bousso du Laboratoire national Lawrence Berkeley) et des développements théoriques à propos des trous noirs. En effet on est incapable de penser des propriétés physiques de la matière engloutie dans des trous noirs sans le rayonnement de Hawking qui s’appuie sur la notion d’entropie du trou noir. Pour le moment ces caractéristiques n’ont pas été mesurées mais voilà… elles rassurent les physiciens.

Si on accepte cette thèse, immédiatement surgit le questionnement à propos de la matière noire. Soit le vocable matière est approprié et dans ce cas il faut se demander pourquoi est-elle noire ? Deux réponses sont possibles, soit elle ne rayonne pas du tout, soit elle rayonne un rayonnement qui pour nous est non décryptable (provisoirement ou définitivement). Non décryptable parce que (par exemple) la vitesse de circulation de ce rayonnement est inférieur ou supérieur à notre vitesse standard C et il n’est pas régi par la contrainte E = mc2. Dans ce cas, il faudra se demander si ce rayonnement ‘noire’ constitue une donnée nouvelle qui enrichit la compréhension de notre univers ou bien plutôt considérer que nous sommes en présence d’une trace d’un univers différent au nôtre, enchevêtré.

Autres pistes de réflexion :

Le questionnement ne s’arrête pas là, car que penser des neutrinos ? Dans le cadre du modèle standard, ils sont les seules particules de matière élémentaires sans charge électrique, donc, à coup sûr, non rayonnantes. En ce qui concerne ces particules énigmatiques, je formulerais l’hypothèse que le neutrino électronique est ce qui reste quand l’électron a perdu sa charge électrique, de même pour le neutrino muonique, reliquat du muon et du neutrino tauique reliquat du tau. Cela implique de considérer qu’il y aurait une très forte corrélation entre les effets de la charge électrique élémentaire et pour le moins la masse d’inertie (= masse gravitationnelle) des électrons, des muons et des taus[3]. Cela implique de déterminer la nature ‘de la masse‘ résiduel véhiculée par les neutrinos, est-elle purement gravitationnelle, ou d’une nature encore inconnue ? Cette hypothèse renforce le concept de saveur qui distingue chacune des familles de neutrinos. Etant donné que le tau et le muon se désintègrent spontanément vers l’électron, il n’y a pas d’obstacles pour penser une interchangeabilité (oscillation ?) descendante du neutrino tauique jusqu’au neutrino électronique. Mais l’hypothèse que je propose doit être compatible avec le fait que l’interchangeabilité montante des neutrinos est aussi observable. Cette compatibilité est préservée car, par exemple, si on tient compte des modes de désintégration des W+, W- et du Z0, et de leur probabilité d’occurrence, on peut dire qu’il n’y a pas de hiérarchie qualitative entre l’électron, le muon, le tau. Donc la substituabilité est naturellement envisageable d’un point de vue montant et descendant.

Bien évidemment ces neutrinos ne seraient pas régis par la contrainte E = mc2, ce qui n’implique pas, ni n’interdit, qu’ils puissent se déplacer à une vitesse supérieure à C.

De même le neutrino électronique, vecteur parfait de l’interaction faible, deviendrait aussi vecteur de l’interaction électromagnétique dès qu’il lui serait affecté une charge électrique élémentaire pour devenir un électron (évidemment ceci vaut pour les autres neutrinos qui deviennent muon et tau). Ainsi l’unification électrofaible dépasserait le cadre purement formel et deviendrait le résultat d’un processus phénoménologique avec deux substrats-sources différenciés. Dans ce cas de figure la cohabitation théorique, bosons de jauge massifs et boson de jauge non massif ne serait plus matière à circonspection et il n’y aurait plus besoin d’imaginer un mécanisme type Higgs pour rendre compatible cette cohabitation.

Reste à rendre compte, si cela est possible, pourquoi avec la même charge électrique élémentaire, le muon = 105 Mev et le tau = 1776 Mev, alors que l’électron est à 0.511 Mev.

Qu’est-ce qui ferait que chacun de ces neutrinos influencerait de telles différences de masse ?



[1] On constate que pour ces chercheurs l’intrication n’est plus un problème fondamental (toujours inexpliqué) mais un fait dont ils souhaitent exploiter les propriétés à des fins technologiques.

[2] L’introduction de quanta indivisible d’énergie pour l’oscillateur, fut assurée par M. Planck, lors d’une conférence,  le 14/12/1900.

[3] Voir travail engagé par F. Lurçat et J.Y. Grandpeix en l’an 2000 (in ‘Foundations of Physics’, Vol.32, N° 1, January 2002) qui reprenait un processus imaginé dans les années 1950 par J. Frenkel et W.E. Thirring

 

Partager cet article
Repost0
24 avril 2012 2 24 /04 /avril /2012 14:59

Les nouveaux paysages : physiques ? intellectuels ? bref scientifiques, de l’anthrôpos.

 

C’est au sein d’une Eternité, parmi tous les possibles que l’anthrôpos creuse sa connaissance d’un Univers régi par les lois qui correspondent aux déterminations qui nous constituent.

Tous les possibles sont de plus en plus souvent évoqués par les cosmologistes qui découvrent qu’à la pointe de leur crayon nos propres équations annoncent ces éventualités. « Nous ne cherchons pas à tout prix à inventer des mondes multiples et des multivers. Mais les théories que nous mettons au point pour résoudre des problèmes bien terrestres conduisent à ces résultats vertigineux[1]. » Que ce soit avec la théorie des cordes, ou à cause d’une interprétation spécifique de la mécanique quantique de Hugues Everett, ou tout autres théories, ces symptômes : de multivers, d’univers parallèles ou de multitude de paysages,  nous indiquent ce surgissement de possibles probablement illimités que nous, anthrôpos, sommes à même d’appréhender, tout au moins leurs lisières. Il n’est pas nécessaire que ces théories soient classiquement justifiées pour prendre en compte le symptôme qu’elles révèlent. Cet ensemble de convergences n’est pas le fruit du hasard.

‘Au sein d’une Eternité’ : parce que la somme de tous les possibles équivaut à cette éternité Parménidienne (intemporelle, immuable) qui était peut-être celle-là qui constituait le socle du préalable philosophique qui guidait A. Einstein dans sa quête d’un monde réel. Nous devons considérer que l’addition de toutes les déterminations constitue un ensemble où plus aucune de celles-ci ne peut constituer un lien propre avec l’intelligence qui atteindrait l’extraordinaire faculté d’une synthèse authentiquement universelle. Cela pourrait se confondre avec le ‘Rien’ absolu ou le ‘Vide’ parfait qui nous interpelle.

Notre Univers n’est pas factice, il est un de ces possibles, enchâssé au sein de l’Eternité, décrypté et validé par l’être : sujet pensant, que nous sommes, représentant d’une évolution des êtres vivants, des plus sophistiquées et abouties. Mais sujet pensant qui ne peut prétendre à la connaissance universel car déterminé. Maurice Merleau-Ponty, l’avait appréhendé et énoncé dans ses cours du Collège de France (1956-1957) : « Au ‘Je pense’ universel de la philosophie transcendantale doit succéder l’aspect situé et incarné du physicien. »   Ce qui est proposé là est insupportable pour la très grande majorité des physiciens mais cette proposition doit être assumée pour résoudre les apories sur lesquelles butent, depuis plus ½ siècle, les physiciens théoriciens. C’est le prix à payer pour dépasser les bornes actuelles de notre Univers sur le plan conceptuel et sur le plan paradigmatique. Les bornes, provisoires, sont donc plus celles de nos connaissances actuelles que celles d’un Univers ayant une identité irrémédiable.

Notre savoir est déterminé et le sera toujours sans être pour autant limité. (La lecture du livre de H. Zwirn : ‘Les limites de la connaissance’, édit. O. Jacob, 2000, m’a convaincu qu’il ne fallait pas faire ce genre de confusion.)

Ma première confrontation avec l’ambition immédiate, chez le physicien, d’accéder à la connaissance universelle s’est significativement produite lorsque j’ai lu cette affirmation d’Einstein : « Ce qui du point de vue physique est réel… est constitué de coïncidences spatio-temporelles. Et rien d’autre. » (Lettre à Ehrenfest, 1915). Or de mon point de vue ces coïncidences ne nous sont pas accessibles, qu’elles aient lieu ou pas, nous ne pouvons pas développer un discours, sensé, scientifique sur ce sujet. Pour étayer ce propos, je vais me concentrer plus particulièrement sur la coïncidence temporelle. Là encore, sur ce sujet, A. Einstein fut péremptoire (en 1955) : « Pour nous, physiciens croyants (sic), la séparation entre passé, présent et avenir, ne garde que la valeur d’une illusion, si tenace soit-elle. ». On sait que cette affirmation provient des propriétés de la relativité restreinte telles qu’elles sont entendues par son auteur et on peut comprendre que le préalable philosophique d’Einstein en ce qui concerne sa conception : ‘Réaliste’, sans concession, motive ce type de croyance. Mais le fait que cette affirmation soit réitérée et propagée ½ siècle après, d’une façon violente et intransigeante[2] : « Le fait que le passage du temps (le maintenant) ne corresponde à rien dans la réalité physique… » (Voir Thibault Damour conférence en 2000), doit nous laisser perplexe.

D’Einstein à Damour, entre-temps, un autre scientifique avait énoncé : « On pourrait croire que la temporalité est un cadre inné de la pensée. Elle est produite, en réalité, dans et par l’énonciation. De l’énonciation procède l’instauration de la catégorie du présent, et de la catégorie du présent naît la catégorie du temps. Le présent est proprement la source du temps. Il est cette présence au monde que l’acte d’énonciation rend seul possible, car, qu’on veuille bien y réfléchir, l’homme ne dispose d’aucun autre moyen de vivre le ‘maintenant’ et de le faire actuel que de le réaliser par l’insertion du discours dans le monde. » E. Benveniste : ‘Problèmes de linguistique générale’, vol 2, Paris 1974. (Circonstance heureuse : ‘Les dernières Leçons au Collège de France (196861969)’, d’Emile Benveniste, viennent d’être éditées en avril. Edit. EHESS, Gallimard, Seuil.)

Je dis bien « un autre scientifique ». Pourquoi les physiciens prétendent-ils maîtriser le savoir ultime au point de se permettre de négliger, voire de mépriser, le travail de ceux qui ont réfléchi à partir d’autres champs de connaissances mais qui formulent des conclusions recouvrant exactement des domaines qui concernent les physiciens ? Voilà encore un exemple néfaste du cloisonnement entre les disciplines scientifiques. Evidemment ce ne sont pas les disciplines qui sont en cause mais plutôt les acteurs de ces disciplines. Est-ce que nous sommes encore à l’époque de la métaphysique Cartésienne qui prétendait que le tronc de ‘l’arbre de la connaissance’ était constitué de la connaissance en physique ? Les autres connaissances n’étant que des excroissances. Est-ce que, comme l’indique E. Benveniste à propos de la temporalité, il est insupportable pour Th. Damour de considérer que le physicien, quand, par les moyens de ses capacités intellectuelles, il révèle des propriétés de la nature, alors celles-ci sont marquées à coup sûr de l’empreinte indélébile qui caractérise l’identité du sujet pensant ? C'est-à-dire que dans les lois de la physique il y a la marque de l’humain qui les pense. Il ne peut pas être expulsé des lois de la nature. Est-ce que dans une certaine mesure, à travers A. Einstein, Th. Damour veut se distinguer de ses contemporains et situer ailleurs sa vocation de physicien comme le prétendit I. Newton pour lui-même – mais en affirmant au contraire une ontologie du temps – quand dans ses Principia il donne comme définition du temps : « Le temps existe dans et par lui-même et s’écoule tranquillement sans référence avec quoi que ce soit d’extérieur. » Ce temps absolu est sans rapport avec le temps relatif : « … apparent et vulgaire qui est cette mesure sensible et externe d’une partie de durée quelconque [ … ] prise du mouvement : telles sont les mesures d’heures, de jours, de mois, etc., dont on se sert ordinairement à la place du temps vrai. »

Toujours est-il que nous sommes actuellement ballottés d’affirmation péremptoire en affirmation péremptoire : « Non, le temps n’existe pas. », dixit Carlo Rovelli ; « Oui le temps existe. », dixit Lee Smolin.

Ce que l’on appelle le ‘maintenant’ est habité. Il n’est pas, il n’est jamais, réductible à un ∆t = 0., ∆t a toujours une valeur minimale que je désigne par TpS (temps propre du sujet, de l’ordre de 10-25s, voir mon article posté le 21/12/2011). Il est une émanation du socle de la ‘Présence’ du sujet pensant, il est une détermination inexpugnable du sujet pensant. Il est aussi un point aveugle de notre intelligence et de notre faculté de conception.

Peut-être que d’une autre façon, à travers une démarche intellectuelle tout à fait différente, A. Connes dit quelque chose de semblable lorsqu’il affirme dans son référentiel de la géométrie non commutative : « L’espace-temps est très légèrement non commutatif, en fait le point lui-même dans l’espace-temps n’est pas commutatif. Il a une toute petite structure interne qui est comme une petite clé. Le point a une dimension 0 au niveau de la métrique mais avec ma géométrie (non commutative) il a une structure interne et j’ai un espace de dimension 6 non commutatif. »

Cette structure interne repérée par A. Connes mériterait d’être auscultée. Ce mathématicien talentueux devrait toutefois mettre en jeu une capacité d’appréciation qui transcende celle du mathématicien pure pour probablement dévoiler plus avant la nature de la structure interne qu’il a rencontrée à la pointe de son crayon.

Sans provoquer un quelconque abus d’interprétation, je crois que l’analyse, faisant suite, des quelques pages du livre de Lawrence Krauss : ‘A Universe from nothing[3], permet d’illustrer et de conforter les arguments développés ci-dessus.

            A la page 175 de son livre, L. Krauss reconnaît une vraie déception quant à sa vocation de physicien. D’où provient cette déception ? Quelle est cette croyance erronée qui conduit immanquablement à la déception du chercheur ?

En espérant que ma traduction est pour l’essentiel correcte: «L’éventualité que notre univers ne serait qu’un parmi un ensemble infini d’univers distincts et causalement séparés, et qu’au sein de chacun de ceux-ci un nombre quelconque d’aspects fondamentaux relatifs à la réalité physique puisse être différent, ouvre de vastes possibilités inédites de comprendre notre existence.

Comme je l’ai indiqué, ce qu’il y a de plus détestable dans ce cas de figure, avec ses implications concrètes, c’est que la physique, à un certain niveau fondamental, ne soit  plus simplement qu’une science de l’environnement. (Je trouve ceci détestable parce que j’étais porté, motivé, par l’idée que le but de la science était d’expliquer pourquoi l’univers devait être ce qu’il est et comment il devint ainsi. Si tout au contraire les lois de la physique comme nous les connaissons sont simplement des accidents corrélés à notre existence, alors cet objectif fondamental était déplacé. Toutefois, je surpasserai mon préjugé si cette idée devenait vérité. »

Cette déception de L. Krauss provient du fait qu’il a une conception extrêmement  cloisonnée, figée : d’une part l’existence de l’être humain et d’autre part l’univers, la nature. Comme s’il pouvait y avoir un Univers indépendamment de ce que nous sommes, nous, êtres humains avec les déterminations qui nous constituent et que nous véhiculons et nos capacités de décryptage qui ne sont pas universelles. Comme s’il pouvait y avoir une représentation de l’univers en dehors de ce que sont nos capacités d’investissement intellectuel et des déterminations de sujet pensant ? Tout autre serait le sentiment de L. Krauss s’il voulait bien intégrer, dans son activité de chercheur en physique fondamentale, la pensée que : tout savoir nouveau conquis, fiable, est autant un savoir sur la nature qu’un savoir qui contribue à l’émancipation du sujet pensant, qui accroît la faculté de surplomb de ‘l’être dans la nature’ que nous sommes sans perdre de vue ‘l’être de la nature’ que nous sommes aussi[4]. Pour éviter toute nouvelle déconvenue L. Krauss devrait considérer que les connaissances fondamentales sont celles qui ont trait au rapport, à la relation, entre le sujet pensant et la nature. Dans ce cas toute nouvelle conquête de compréhension de cette nature constitue une extension de nos capacités intellectuelles. Cela est donc une émancipation et un enrichissement du sujet pensant. A ce titre, j’invite à considérer qu’il est plus l’auteur de ce qu’il fait apparaître que le découvreur de ce qui serait effectivement dans la nature. Partant, il est l’auteur de ce qu’il est et de ce qu’il devient. En même temps cette dynamique montre à quel point l’être humain a une sacrée responsabilité vis-à-vis de cette nature.

Page 176 : Avec la théorie du multivers, le ‘terrain de sport’ (sic) est largement modifié… « Lorsqu’on réfléchit à la création de notre propre univers et sur les conditions qui doivent être réunies pour que cela arrive.

 «  En premier lieu, la question à propos de ce qui détermine les lois de la nature qui permettent à notre univers de se former et d’évoluer devient moins significatif. Si les lois de la nature sont elles-mêmes le fruit du hasard et des circonstances, alors il n’y a pas de cause prescriptible à attribuer à notre univers. Avec le principe général que ce qui n’est pas interdit est possible, alors nous sommes assurés, dans ce cas de figure, qu’un univers peut survenir avec les lois que nous avons découvertes. Aucun mécanisme et aucune entité n’est requise pour fixer les lois de la nature telles qu’elles sont.  »

Ainsi la première phrase (a priori iconoclaste) de mon article prend tout son sens et dit comment il faut comprendre les choses.

Page 177 : « Il se pourrait qu’il n’y ait absolument aucune théorie fondamentale. »

« Je me réconforte avec la déclaration de Richard Feynman que je présente dans son intégrité : « Les gens me disent : « Êtes-vous à la recherche des lois ultimes de la physique ? » Non, je ne le suis pas. Je cherche à mieux connaître le monde, et si cela conduit au résultat ultime de tout expliquer par une seule loi, alors ce sera ainsi. Ce serait agréable d’obtenir ce résultat. Si cela conduit à la découverte que c’est comme un oignon avec des millions de couches, et que nous devenions déçus et fatigués de ne révéler que des couches successives, alors il faudra s’en contenter…Mon intérêt pour la science est tout simplement : découvrir plus à propos du monde, et le plus que je découvre, le mieux cela est. J’aime découvrir. »

Peut-être qu’il faut aussi ce méfier de ce pragmatisme, de cet empirisme comme si l’être humain n’était qu’une sorte d’ingénieur, qui mène son activité en toute neutralité, sans horizon, sans désir. L’être humain n’est pas un être froid quand il est actif, quand il est ouvertement dans l’existence car en permanence il se fonde.

La thèse que je propose est anthropocentrique, certes, mais l’anthrôpos ne ‘voit’ pas tout, ne sait pas tout, ne décrypte pas tout, n’accède pas à une totalité de ce qui serait. Il ne subit pas ce qui, pour lui, progressivement fait sens, au contraire, il puise là, les ressources pour aller toujours au-delà.



[1] De Aurélien Barrau, du laboratoire de physique subatomique et de cosmologie de Grenoble. Entre autres, écouter (sur Internet) sa conférence donnée à l’I.A.P. le 7 février 2012.

[2] Cela est dit ainsi : « Le XXIe siècle nous apportera donc peut-être (espérons-le) de nouveaux bouleversements de l’appareil conceptuel que l’homme utilise pour comprendre (et dominer (sic)) l’univers. Il est cependant attristant (sic) de constater que malgré l’ancienneté des grandes révolutions conceptuelles du XXe siècle (relativité restreinte 1905, relativité générale 1915, théorie quantique 1925-1930) la plupart de nos contemporains pensent et vivent le monde selon les cadres de pensée du XIXe siècle (qui eux-mêmes remontaient pour la plupart au XVIIe siècle). Par exemple, le fait que le passage du temps (le « maintenant ») ne corresponde à rien dans la réalité physique…comme l’affirmait Einstein…

[3] Free Presse, janvier 2012, New York, London…

[4] A ce sujet les derniers résultats des travaux d’analyse génomique sur l’homme et le gorille, le chimpanzé et l’orang-outang, les quatre espèces qui ont partagé le même ancêtre commun, il y a 10 millions d’années, présentent des conclusions intéressantes (voir site Techno-Sience article du 10/03/2012). Les chercheurs ont découvert que chez ces espèces, les gènes liés à la perception sensorielle, à l’ouie et au développement cérébral, ont montré des signes d’évolution accélérée, particulièrement chez l’humain et le gorille. Contrairement à la suggestion d’autres scientifiques qui considéraient que l’évolution rapide, des gènes humains liés à l’audition, était en corrélation avec celle du langage. En conséquence la Nature a œuvré longtemps avant que l’être humain devienne un être parlant, donc un être explicitement pensant.   

Partager cet article
Repost0
6 février 2012 1 06 /02 /février /2012 11:45

Le conditionnel est toujours de mise.

 

Lu, dans la dernière livraison du Cern-Courier (Janvier/Février 2012) : «[1]Si le boson de Higgs existe suivant les prévisions du Model Standard, alors sa masse est comprise, avec la plus grande probabilité, entre 115,5 et 127 Gev. Pour être plus précis, l’équipe du CMS exclut, avec 95% d’assurance, que ce boson ait une masse supérieure à 127 Gev, tandis que l’équipe d’ATLAS exclut une masse inférieure à 115.5 et supérieure à 131 Gev (avec une possible petite fenêtre de 237-251 Gev pas encore exclue par Atlas). Les limites supérieures de la région d’exclusion sont 468 Gev pour Atlas et 600 Gev pour CMS.

La possibilité d’exclure la région de masse inférieure est contrariée dans les deux expériences par le fait qu’il y ait un excès d’événements au voisinage de 120 Gev. De tels excès pourraient être tout simplement des fluctuations du fond (donc non significatif) ou bien les prémices d’un signal caractéristique de Higgs. Ces résultats sont consistants avec ce qui est attendu avec les statistiques accumulées jusqu’à présent, que le boson de Higgs de masse légère existe ou pas (sic).

La campagne de collecte de données programmée en 2012, attendue pour fournir au moins deux fois plus de collisions que en 2011 (soit dit en passant : 2 fois 300.000 milliards), devrait conduire à résoudre la quête du boson de Higgs du modèle standard – qui dure depuis 40 ans – en nous fournissant la réponse : oui, il est mis en évidence, ou bien, non il est totalement exclu. »

« Les résultats dévoilés au cours des présentations du 13/12 ont montré qu’une compréhension profonde est achevée, par chacune des équipes, des performances respectives des détecteurs et des nombreux bruits de l’arrière-fond. » Dans la même veine, il est écrit plus loin : « Pour le CMS, une bonne résolution de masse est possible grâce en particulier au progrès majeur qui a été finalisé dans la compréhension du calibrage du calorimètre de cristal ; dans l’aire centrale du calorimètre la performance est désormais voisine de la prévision nominale. »

Ces commentaires concernant l’évolution de la maîtrise du fonctionnement des deux détecteurs favorisent l’optimisme en ce qui concerne la fiabilité de ce qui sera détecté ou pas en 2012, mais ceux-ci permettent aussi de comprendre toutes les précautions prises à propos des événements (une dizaine) qui ont été sélectionnés comme pouvant être significatifs.

Voilà pourquoi, plus que jamais, le conditionnel est de mise !

Ce qui peut laisser perplexe c’est le rapport suivant : une dizaine d’événements sélectionnée en aval, 300.000 milliards de collisions en amont. Même avec une plus grande maîtrise du fonctionnement et de la sensibilité des deux détecteurs, annoncée pour 2012, pourra-t-on distinguer significativement un nombre suffisant d’événements au-dessus du bruit de fond ? On ne doit pas oublier que ATLAS et CMS ont en premier lieu étaient conçus avec la perspective prioritaire de la détection irrévocable du boson de Higgs s’il existe.

En fait de ce fameux boson de Higgs, on en a plus besoin qu’il ne se justifie. Il a été véritablement inventé.

a) Besoin de l’inventer pour consolider la construction théorique de l’unification (ou du processus inverse) de l’interaction électrofaible : c'est-à-dire expliquer pourquoi dans ce cas les bosons de jauge W et Z de l’interaction faible ne se différencient pas (ou inversement se différencient), par leur masse, du boson de jauge de l’interaction électromagnétique : le photon.

b) Besoin de l’inventer pour consolider le scénario de la genèse de l’Univers avec Big-Bang, et expliquer qu’à partir d’un Univers constitué exclusivement de rayonnement celui-ci évolue, après de l’ordre de 10-12s, vers un Univers empli de rayonnement et de particules de matière[2].

Que l’on découvre ou pas de boson de Higgs, 50 années après son invention, où cela nous mènera ? Cela nous mènera à un palier d’interrogations plus qu’à un aboutissement. Certes, selon le cas de figure qui s’imposera, les bifurcations seront différentes et référons-nous à celles que préemptent John Ellis (site de Techno-Science le 13/09/2011) :

1     « Toutefois, si le Higgs se trouve dans cet intervalle (114-135 Gev), la théorie du modèle standard reste incomplète ; le vide électrofaible tel que nous le comprenons actuellement serait instable pour un Higgs aussi léger dans le modèle standard, et donc nous devrions produire une nouvelle physique pour le stabiliser. »

2     « Deuxième possibilité : le boson de Higgs est plus lourd que 500 Gev, auquel cas ce pourrait être un Higgs du modèle standard… Dans ce cas, je pense que nous aurions besoin d’une nouvelle physique afin de ‘domestiquer’ ce Higgs lourd. »

3     « La troisième possibilité est que le boson de Higgs se trouve quelque part entre 135 et 500 Gev. Dans ce cas, les couplages ne pourraient être ceux du Higgs du modèle standard….et, là encore, nous aurions besoin d’une façon ou d’une autre d’une nouvelle physique. »

4     « Bien sûr, il existe encore une quatrième possibilité : qu’il n’y ait pas de Higgs du tout ! Eh bien, cela pourrait vouloir dire qu’il n’y a rien qui ressemble à un boson de Higgs du Modèle Standard, ou alors que cette particule est tellement lourde qu’elle se comporte d’une façon que nous ne pouvons pas calculer (pour le moment bien sûr !). J’ai toujours dit que le résultat le plus intéressant pour les théoriciens serait qu’il n’y ait aucun boson de Higgs d’aucune sorte. Cela nous obligerait à abandonner toutes les idées qui inspirent nos théories depuis 47 ans. » Commentaire : n’oublions pas que dans ce cas c’est fondamentalement la théorie quantique des champs qui devra être remise en question.

Il y a-t-il des théories bien nées et d’autres mal nées ?

Dans les années 1930, il n’aura pas fallu plus de trois ans pour que la prédiction théorique remarquable de Dirac sur l’existence de l’antiélectron soit expérimentalement vérifiée. Et de là, c’est le monde de l’antimatière qui prenait de la consistance. Pour ceux qui ont eu la curiosité de connaître l’histoire de cette découverte, la simplicité des arguments de Paul Dirac ainsi que les critères ‘esthétiques’ qui ont guidé ce savant, pour affirmer qu’à la pointe du crayon il dévoilait un monde totalement nouveau, ne manquent pas d’étonner.

La relativité générale relève aussi de considérations premières basiques, ‘naturelles’, qui, malgré l’exploitation d’un arsenal mathématique peu développé à l’époque, a mis en évidence des prédictions confirmées, quatre années après, avec la déflection au voisinage du soleil de la lumière émise par une étoile.

La constante de Planck, pur artéfact mathématique en 1900, selon l’auteur, est consacrée grandeur physique fondamentale en 1905 par Einstein avec cette belle et simple formule E = hν, suite à l’analyse de l’effet photoélectrique.

Le neutrino a été inventé pour les besoins d’une construction théorique. En effet, Pauli a inventé le neutrino pour les besoins de la cause : maintenir le principe de la conservation de l’énergie en mécanique quantique. Celui-ci a été pour la première fois détecté ¼ de siècle après, en 1956, à Savannah River. Depuis on a distingué 3 saveurs et l’énigme des lois physiques qui les caractériseraient est entière. Les neutrinos sont toujours aussi peu saisissables.

Si on prend en compte l’histoire plus ancienne de la pensée scientifique, on constate que dans des situations cruciales, de grands savants (et leurs contemporains) ont été conduits à concevoir de véritables chimères parce que leur entendement ne pouvait dépasser des contraintes imposées par leur propre sens commun de l’époque. Ainsi Newton a eu besoin d’inventer l’éther gravitationnel parce que selon lui il est inconcevable qu’une force puisse se transmettre à travers le vide. Plus tard dans le prolongement de cette ‘inconcevabilité’, ce fut l’éther luminifère qui servira de substrat nécessaire à la propagation de l’onde de lumière.

Aujourd’hui pour que nos modèles théoriques soient consistants nous avons besoin du ou (des) boson(s) de Higgs (et du ou (des) mécanisme(s) qui l’engendre(nt)) pour rendre compte de la transition d’entités immatérielles vers des particules de matière. Puisque, avec le Big-Bang, nous théorisons sur une origine fondamentale, immatérielle, avec une chronologie, nous sommes obligés de projeter dans cette réalité hypothétique un processus qui assurerait une telle transition.

La quête actuelle de ces bosons de Higgs, met en évidence, entre autres, le besoin de cohérence attaché à la conception dominante d’un Univers qui, telle une machine, s’est mis en route il y a 13 milliards 800 millions d’années et il est contraint par le respect de la chaîne de causalité, substrat inaliénable de notre capacité de raisonnement.

Ma conception est toujours de considérer que la matière se décline à partir du rayonnement, pas pour des raisons chronologiques ayant pour cause principal le Big-Bang mais plutôt pour des raisons de capacités conceptuelles propres à l’anthrôpos. Dans mon référentiel théorique il n’y a pas de big-bang chronologique, puisque notre Univers est enchâssé au sein d’une Eternité et il est parmi tous les possibles, celui qui nous correspond, celui que nous pouvons au fur et à mesure[3], élucider, décrypter et structurer. Les autres possibles ne sont pas exclus (ils ne doivent pas l’être) mais tout simplement ils ne sont pas de notre ressort. L’origine que l’on attribue au nôtre correspondrait en fait à la pointe extrême de nos capacités actuelles de conception, là où il n’y a que du rayonnement. Le monde premier que l’anthrôpos perçoit est celui du rayonnement (de la lumière). Il constitue le fond à partir duquel se décline notre compréhension du monde et la mise en forme de ses propriétés. On ne peut s’y situer mais nous pouvons abstraitement, partiellement, l’investir, grâce à nos capacités cérébrales de raisonnement. Se décline : implique que le rayonnement et ses propriétés soient considérés comme constituant le paradigme absolu. C’est à travers ce rapport primordial que nous identifions ce qui constitue la matière avec ou sans mécanisme de Higgs au sens strict.  



[1] Traduction assurée par mes soins, étant donné que la version en français de ce journal a été retirée du circuit depuis plusieurs années quand le directeur général était un français. Pour évaluer les dégâts auxquels contribue  ce type de décision, lire le livre du linguiste Claude Hagège : ‘Contre la pensée unique’, édit. O. Jacob, janvier 2012, notamment p. 119 : « Langue et pensée scientifique ». Pour rappel le CERN a été fondé par la France et l’Allemagne au début des années 1950.

[2] Les cosmologistes sont amenés à distinguer plusieurs champs de Higgs. Champs qui, en prenant une valeur non nulle, donnent des masses aux particules auxquelles ils sont couplés. Ces champs dont il est question sont conçus suivant la même idée générique que celui rechercher au LHC. Ils sont de plus hautes énergies. A chacun de ces champs est  associé une particule de Higgs de masse spécifique.   

[3] Dans ce contexte, l’usage de cette locution mériterait d’être médité, notamment sous le versant : quelles sont les conditions de ces : au fur et à mesure, successifs ?

Partager cet article
Repost0
21 décembre 2011 3 21 /12 /décembre /2011 14:49

L’être humain est-il nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la Nature ?

 

L’être humain est-il nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la Nature ? Ce questionnement acquière toute sa pertinence lorsqu’il s’agit de lois dans le domaine de la physique quantique. A cette question, la très grande majorité des physiciens répondraient : « Oui, il est nu de toute contribution… » Ceci se comprend car effectivement dans le cas d’une réponse négative ce serait l’essence même de l’objectivité qui caractérise la science physique, telle qu’elle est considérée maintenant, qui serait remise en cause. Il y a donc une croyance forte, dominante, que notre rapport avec les entités de la nature (à l’échelle quantique) n’est pas relatif à ce que sont nos capacités d’investissement intellectuel et en conséquence la différenciation absolue, entre ce qui est de l’ordre du sujet pensant et ce qui est de l’ordre de l’objet de l’investigation, peut être, in fine, assurément atteinte. 

Si cette assurance est soupçonnée d’être confrontée à un biais, l’expression de ce soupçon reste marginale et de toute façon, il n’est pas intégré par les physiciens. Ainsi, citons E. T. Jaynes, qui en 1990 exprimait l’avis suivant : « Le formalisme actuel de la M.Q. n’est pas purement épistémologique ; c’est un mélange particulier décrivant, en partie des réalités de la Nature, en partie une incomplète information humaine sur la Nature – le tout mélangé par Heisenberg et Bohr dans une omelette que personne n’a réussi à démêler. Maintenant nous pensons que le démêlement est un pré requis pour envisager une nouvelle avancée en physique théorique fondamentale. En conséquence, si nous ne pouvons pas séparer les aspects subjectifs des aspects objectifs du formalisme, on ne peut pas savoir de quoi on parle ; c’est aussi simple que ça (sic). » Mesurons que le soupçon en question, de E. T. Jaynes, se situe seulement au niveau du formalisme, et en conséquence cela devrait être ‘réparable’.

Pour tous ceux qui n’acceptent pas, ou n’acceptent plus, l’injonction : « Tais-toi et calcule ! » et que leur curiosité de physicien appelle à aller au-delà d’une exploitation passive des capacités remarquables de calcul et de prévision, que permet la mécanique quantique fondée par l’école de Copenhague, et en conséquence cherchent une réponse à la question : pourquoi et comment ?, ceux-ci sont essentiellement guidés par la petite voix einsteinienne : « Mon opinion est que la fonction d’onde ne décrit pas (complètement) ce qui est réel, mais elle nous permet seulement d’accéder à une connaissance maximale empirique au regard de ce qui existe réellement. C’est ce que je veux signifier quand j’avance l’idée que la mécanique quantique donne une description incomplète du réel état des choses. »

Analysons donc les hypothèses et les travaux les plus récents de ceux qui tentent de suivre les recommandations de la petite voix einsteinienne. (A ce stade, il peut être utile de lire ou relire l’article de ce blog : ‘Etonnant’, posté le 19/10). L’article du ‘NewScientist’ du 29/10/2011: « Begone, quantum voyeur… », nous propose un bilan à jour de ces tentatives qui prennent racines dans l’approche appelée GRW (G de Ghirardi, R de Rimini, W de Weber : les 3 auteurs de cette approche proposée en 1983). Article traduit par mes soins : « GRW préconise de considérer que la réduction de la fonction d’onde se produit tout le temps (même en dehors de la situation spécifique d’une opération de mesure au sens quantique du terme), mais cette réduction est extrêmement rare pour une particule individuelle, par contre dès qu’on crée une situation de mesure on force celle-ci à interagir avec le dispositif de mesure. La particule devient intimement liée, ou intriquée, avec les nombreux atomes constituant le système de mesure. Parce que ces atomes sont nombreux, une des fonctions d’onde est forcée de s’effondrer pendant le processus de la mesure. Grâce à l’intrication, cela déclenche la réduction des autres fonctions d’onde ainsi que celle de la particule soumise à l’opération de mesure. Ainsi, la fonction d’onde de la particule s’effondre sans avoir recours à une quelconque fantomatique raison provoquée par l’observateur.

En 1989, Philip Pearle, amende GRW avec une autre hypothèse appelée « Continuous Spontaneous Localisation » : CSL, qui plutôt que d’attribuer l’effondrement de type GRW, fruit du hasard, à un champ de forces, il l’attribue aux fluctuations dans une entité qui occupe (emplit) l’univers, et varie dans le temps et dans l’espace. Quand les physiciens réécrivent leurs équations relatives à CSL afin d’ajuster celles-ci aux prédictions de la relativité restreinte, ils se heurtent à une variation subite de vitesse. D’insaisissables ‘secousses instantanées’ apparaissent  dans les fonctions d’onde et cela introduit des valeurs infinies de l’énergie dans l’univers, ce qui est en désaccord avec ce que nous connaissons de la fonction d’onde.

La contribution de Bedingham est de rendre compatible la CSL avec la R.R. en évitant les termes infinis. Plutôt que d’envisager que ce soit le champ fluctuant qui agisse sur les fonctions d’onde, il introduit un champ intermédiaire qui lisse ses effets et élimine les ‘secousses instantanées’

Au lieu d’une version relativiste de la CSL précédente, l’hypothèse de Bedingham conduit non seulement à la description de particules individuelles mais aussi aux forces qui prévalent entre elles – un ‘must’ pour tous ceux qui cherchent à remplacer la mécanique quantique… Si cela était vrai : ce serait la première modification de la mécanique quantique depuis sa fondation dans les années 1920… »

« Bedingham a posté en ligne, en octobre 2010, le fruit de ses cogitations et a récidivé en mars 2011 avec une version encore plus claire. »

L’exclusion d’une quelconque détermination du sujet pensant ou d’une quelconque trace indélébile de celui-ci dans le résultat de la mesure oblige ces physiciens réalistes à ajouter, et surajouter, des entités théoriques, intermédiaires, comme dans un millefeuilles. Entités qui seraient présentes et actives dans la nature. On peut considérer que cette conception est sécurisante étant donné qu’il y a une mathématisation possible de l’action, de l’influence, de ces entités. Ainsi on se trouve dans la continuité de la démarche scientifique habituelle au sens stricte du terme[1]. A ce niveau-là on mesure l’ampleur de la rupture conceptuelle qu’il faut effectivement entreprendre en acceptant l’idée que dans le résultat dit : ‘physique’, il y a, à l’échelle quantique, une part caractéristique du sujet pensant inexpugnable qui y est inscrite. (Toutefois dans l’article posté, du blog, le 13/10 ‘Si faille il y a, quelle est sa nature ? on a constaté que A. Zeilinger et N. Gisin, par exemple, peuvent dans une réflexion extrême, évoquer, conjecturer, sur cette part du sujet pensant. Et cela me convient, je considère que cela est une avancée.)

Est-ce que cette part inexpugnable est mathématisable ? Il me semble qu’elle devrait être directement ou indirectement quantifiable mais pour l’essentiel cette part du sujet pensant est qualitative dans la mesure où la contribution du sujet ne peut pas être absolument distinguée dans le résultat de la mesure de l’objet quantique. Remarquons au passage que les physicalistes ne connaissent pas ce type d’inhibition.

Dans le référentiel théorique que j’ai commencé à élaborer depuis 5 années, j’ai d’emblée introduit le ‘Temps Propre du Sujet’ : TpS. A ce propos, toutes les références et les accès à ce travail sont donnés dans le 1er article posté le 8/10/2011.

Le TpS annule toute possibilité de mesure de coïncidences temporelles et en conséquence il annule aussi toute possibilité de mesure de coïncidences spatiales au sens strict du terme. Ce qui conduit à méditer sur le postulat einsteinien : « Ce qui du point de vue physique est réel… est constitué de coïncidences spatio-temporelles. Et rien d’autre[2]. »  

L’introduction de ce paramètre TpS a une conséquence immédiate qui est celle de contredire encore l’autre affirmation d’Einstein (en 1955) : « Pour nous, physiciens croyants (sic), la séparation entre passé, présent et avenir, ne garde que la valeur d’une illusion, si tenace soit-elle. », affirmation parfois reprise et propagée d’une façon violente et intransigeante : « le fait que le passage du temps (le maintenant) ne corresponde à rien dans la réalité physique… » (Voir Thibault Damour conférence en 2000). En effet le TpS implique une consolidation du présent, du maintenant, socle de la ‘Présence’, il est donc une détermination inexpugnable du sujet pensant. Le TpS impose de revisiter certains aspects de la relativité restreinte et les propriétés qui en sont la conséquence, essentiellement lorsque on est au voisinage du TpS (de l’ordre de 10-25s), par exemple, le sommet du cône de lumière habituel ne peut pas être ponctuel. On peut y trouver, peut-être, des arguments qui rendent compte de l’intrigante phénoménologie de l’intrication.

L’impossibilité de discerner dans la structure, la plus fine, la plus intime, du rapport sujet/objet, ce qui relève de l’entité naturelle de ce qui relève de l’être humain est particulièrement difficile à admettre, angoissante voire révoltante sur le plan intellectuel et existentiel. On peut comprendre qu’il y ait une extraordinaire censure, qu’il y ait une extraordinaire inertie, pour aborder ce sujet.

La durée de TpS est la durée du retrait de l’être dans la Nature, elle est la condition de la mobilité de la pensée, elle est la durée de l’oscillation primordiale, elle est donc la source de la temporalisation du temps. A ces titres TpS est un ‘existential’. Cette conception affirme une/la singularité de l’être humain et contredit ceux qui prônent et annoncent la fin de l’exception humaine. Cette conception affirme aussi une distance raisonnable avec les chantres du cognitivisme. La  relation de l’être humain avec la Nature est une relation exceptionnelle, primordiale, elle n’a pas d’origine : elle a toujours été. Elle est la source du développement d’une connaissance réciproque, sans fin, de l’un et de l’autre.



[1] De E. Kant « Dans toute théorie particulière de la nature, on ne peut trouver de science à proprement parler que dans l’exacte mesure où il peut s’y trouver de la mathématique. » ; ou encore de B. Russel « La physique est mathématique, pas parce que nous connaissons si bien le monde physique, mais parce que nous connaissons si peu : ce sont seulement les propriétés mathématiques que nous pouvons découvrir. Pour le reste notre connaissance est négative. »

[2] Lettre à Ehrenfest du 26 décembre 1915.

Partager cet article
Repost0
8 novembre 2011 2 08 /11 /novembre /2011 13:38

Qui se permettra de le dire ?

 

A-t-on bâti le L.H.C. seulement pour trouver le Higgs ? Cette question a été récemment posée, parce que commence sérieusement à poindre l’idée qu’il pourrait ne pas y avoir de boson de Higgs à détecter contrairement à ce que le modèle standard des particules élémentaires prévoit. D’ailleurs, est-ce à titre préventif que Rolf Heuer, l’actuel directeur général du CERN dit en juillet de cette année : « En ce qui concerne le boson de Higgs, en particulier, si on le trouve ou si on l’exclut ce sera une grande découverte. »

Rappelons-nous, ce fameux boson a été inventé, il y a une cinquantaine d’années, par le physicien Peter Higgs, pour rendre compte pourquoi certaines particules ont une masse. En septembre 2000 dans le cadre du L.E.P., l’ancêtre du LHC, des physiciens avaient pensé l’avoir décelé dans le détecteur Aleph. Trop peu d’évènements fiables (autour de 115 GeV) pour tirer des conclusions définitives. Obligation fin 2000 d’arrêter le LEP pour commencer la construction du LHC. Ce qui fut une source de tension importante au sein de la communauté scientifique. Mais l’espoir avait été qu’à partir de 2008-2009, on aurait des niveaux d’énergie des faisceaux de protons ainsi que des niveaux de sensibilité de nouveaux détecteurs (Atlas et CMS, auxquels à chacun de ceux-ci sont attachés près de 3000 chercheurs) qui permettront de détecter à coup sûr ce boson s’il existe. Les déconvenues regrettables à propos de la mise en route laborieuse du LHC ont renvoyé à courant 2010 le début des expériences de détection. Et toujours rien ! Encore rien ! C’est selon le degré d’impatience.

En mai 2006, (dans les Dossiers de la Recherche, n° 23), l’actuel Président du Conseil du CERN, Michel Spiro déclare : « L’enjeu principal à court terme est donc la découverte du boson de Higgs. On ne l’a pas trouvé au CERN avec le LEP ; on le cherche maintenant au Fermilab. D’après les prédictions théoriques, on a de bonnes chances de le trouver au LHC. Si on ne le trouve pas au LHC, c’est qu’il y a un vrai problème avec le modèle standard. »

Au Fermilab, arrêté ce mois d’octobre, on a rien détecté durant toute cette période, on a par contre restreint le domaine de sa masse possible. Un peu plus loin dans le même article M. Spiro affirme : « Il ne faut pas perdre de vue qu’il est possible que ce boson soit plus difficile à détecter que prévu, voire qu’il n’existe pas… »

Il y a quelques jours, Fabiola Gianotti, porte-parole de l’expérience Atlas, a confirmé : « Nous sommes parvenus à circonscrire le boson de Higgs dans la partie basse de la gamme de masses dans laquelle il est susceptible de se trouver (115–150GeV). C’est là que les théoriciens et les expérimentateurs s’attendaient à ce qu’il soit, mais cette zone est la plus difficile à étudier. Dans les jours et les semaines à venir, les équipes des expériences LHC analyseront la totalité des données 2011… » Certains sont plus précis, ils le situeraient dans la gamme 114-135GeV.

Il se trouve que ce domaine de masse a déjà été sérieusement ausculté. Dans le ‘Monde’ du 16/01/2007, dans un article intitulé « Les équipes du Fermilab de Chicago se replacent dans la chasse au boson de Higgs », M. Spiro reconnaît que « les Américains ont une chance de trouver le Higgs si sa masse est comprise entre 114 et 130GeV ».

 Est-ce que la fuite en avant est judicieuse ? (Voir dans le ‘Monde’ du 24/9),  dans les cartons reposent déjà les plans des futurs accélérateurs pour pousser plus loin les limites de la connaissance. Pour les en sortir, il faudra accepter de financer pour plusieurs milliards d’euros de nouvelles machines. « La société sera prête à nous soutenir, même s’il n’y a pas d’applications concrètes immédiates. Mais il faudra être très clair sur nos objectifs et très sérieux dans notre travail (sic) », pense Guido Tonelli, porte-parole de CMS.

A propos des particules supersymétriques ? Là encore, les résultats cumulés depuis le début du fonctionnement du LHC, indiquent qu’il n’y a aucune particules supersymétriques produites. Pas le moindre frémissement.

La théorie de la supersymétrie s’est imposée il y a une bonne trentaine d’années pour que le processus de l’unification des interactions fondamentales puissent être prolongé. Après le succès de l’unification de l’interaction électromagnétique avec l’interaction faible en une même interaction électrofaible, il était légitime de considérer que dans certaines conditions celle-ci s’unifie avec l’interaction forte. Pour sortir du milieu du gué ce processus d’unification il a fallu introduire une nouvelle hypothèse, celle de la supersymétrie. A la supersymétrie correspond des particules symétriques (sparticules) qui devraient si elles existent pouvoir être détectées au LHC. Le fait que l’on ait encore rien identifié ne permet pas de remettre en cause cette hypothèse. Cela indique que l’édifice théorique est fragile. En plus il y avait l’espoir de réaliser avec une pierre deux coups, car une de ces sparticules, la plus légère et stable, pourrait être un constituant élémentaire de la matière noire appelé neutralino.

John Ellis, au CERN, le 13/09, a déclaré en répondant à la question : Et si le LHC ne trouve rien du tout ? « Eh bien, cela pourrait vouloir dire qu'il n'y a rien qui ressemble à un boson de Higgs du Modèle standard, ou alors que cette particule est tellement lourde qu'elle se comporte d'une façon que nous ne pouvons pas calculer (pour le moment, bien sûr !). J'ai toujours dit que le résultat le plus intéressant pour les théoriciens serait qu'il n'y ait aucun boson de Higgs d'aucune sorte. Cela nous obligerait à abandonner toutes les idées qui ont inspiré nos théories depuis 47 ans. »

Depuis 47 ans ? Non ! Depuis plus longtemps que ça, c'est-à-dire depuis l’avènement de la Théorie Quantique des Champs (TQC), depuis donc les années 1930-1940. Dans l’article précédent : ‘ETONNANT’, j’avais mis en exergue ce jugement radical de J. Bell à dessein : « Les conventions sur les formulations de la théorie quantique, ainsi que de la théorie quantique des champs en particulier, sont vagues et ambigus, à cause d’un manque de professionnalisme. Les physiciens théoriques, professionnels, doivent être capables de faire mieux. D. Bohm, nous a montré le chemin. »

Le mécanisme de Higgs et la théorie de la supersymétrie, sont des productions directes de la TQC. Qui se permettra de dire qu’il faudrait remettre en cause ce bagage théorique, avec ses concepts, ses outils et ses mécanismes mathématiques ? Cela provoquerait un sacré tremblement que de remettre en cause radicalement la TQC. Pourtant celle-ci est à la fois bien née avec la conception de l’électrodynamique quantique…jusqu’à l’unification électrofaible, mais elle est concomitamment mal née avec la nécessité de la renormalisation. Cette renormalisation incontournable a été à l’origine d’une bifurcation dans la manière de travailler, de réfléchir, de la part des physiciens, parce que à cette occasion s’est mis en route l’engrenage de la résolution par le calcul, une sorte d’ingénierie pour contourner les apories potentielles, au détriment de l’approfondissement conceptuel et du formalisme, au détriment de la nécessité de placer sur un socle consistant et cohérent les fondements des propriétés physiques que l’on veut mettre en évidence. Ainsi on peut s’interroger : pourquoi a t’on laissé se propager l’incompatibilité entre l’impossibilité absolue pour un électron, ou toute particule de matière chargée d’ailleurs, d’être nu, c.-à-d. sans qu’il soit paré de son champ électromagnétique, comme nous l’indique l’invariance de jauge ? et le fait que la densité lagrangienne de l’électrodynamique quantique résulte de la somme des trois densités suivantes, celle du champ, celle de la particule de matière nue (sic), celle de l’interaction champ-charge.  

Partager cet article
Repost0
19 octobre 2011 3 19 /10 /octobre /2011 11:55

                                            ETONNANT

 

Le ‘Cern Courier’, du mois de juin 2011, a annoncé la création d’un réseau européen qui se consacrera à la mécanique quantique et ses problèmes fondamentaux et fascinants. Sous la direction de A. Bassi de l’université de Tiestre, un des groupes de travail, mis en place, s’intitule : « La théorie quantique sans observateurs. » Il sera animé par N. Zanghi de l’université de Gênes. La problématique de ce groupe de travail me plaît beaucoup puisqu’elle est exactement orthogonale à la mienne. Et la comparaison de résultats peut-être (très) contrastés sera toujours utile pour progresser. Mais ce choix unilatéral est étonnant, quand on se souvient que les avancées les plus remarquables de la connaissance en physique, comme dans les autres domaines de connaissance, se sont produites dans la confrontation de thèses qui s’opposaient. Pensons à cette période remarquable de débats entre N. Bohr et A. Einstein. Mon propos n’est pas de plonger dans la nostalgie mais de considérer cette période comme emblématique et quitte à organiser des réseaux à l’échelle européenne voire mondiale il faut rejeter le monolithisme des points de vue. Mon étonnement est d’autant plus grand que fondamentalement l’inspirateur de ce groupe de travail est J. Bell, cité par l’animateur du groupe. J. Bell est un physicien, logicien, qui exprime une philosophie de la connaissance en physique qui est dans la continuité des réalistes sans nuance. On sait que ses raisonnements rigoureux et logiques lui ont permis de mette en évidence les fameuses inégalités qui portent son nom et qui ont pu être exploitées (par A. Aspect, notamment) pour révéler que c’est la conception fondamentale de la mécanique quantique, opposé à la sienne, c'est-à-dire celle de l’école de Copenhague (Bohr, Heisenberg, Born, etc.…) qui est pertinente jusqu’au jour d’aujourd’hui. On sait qu’il y a beaucoup de physiciens qui ont du mal à admettre les conséquences de cette fondation. Ils ont raison de le faire puisqu’ils ont une conviction philosophique, métaphysique, (consciente ou inconsciente), qui répugne à y adhérer. Mais pas chacun dans sa forteresse !

 

Ci-joint un extrait du point de vue de John Bell contre ‘l’opération de mesure’

Avertissement, ce texte est traduit par mes soins.

Il semblerait que la théorie quantique soit concernée exclusivement par le « résultat de la mesure », et n’a rien à dire sur quoi que soit d’autre. Qu’est-ce qui qualifie un système physique de jouer le rôle de « mesureur » ? Est-ce que la fonction d’onde du Monde a attendu des milliers de millions d’années, jusqu’à ce que une première cellule vivante apparaisse, pour se réduire ? Ou bien faut-il patienter, jusqu’à la constitution d’un système plus qualifié…avec un Ph.D., pour que cette réduction ait lieu ? Si la théorie consiste à appliquer à tout objet des opérations hautement idéalisées, ne sommes-nous pas alors obligés dans ce cas d’admettre, que se produisent, plus ou moins, des processus semblables de mesure, plus ou moins tout le temps et plus ou moins partout ? Est-ce que nous n’avons pas réduite cette fonction d’onde tout le temps ?

La première charge contre l’axiome du « processus de la mesure » parmi les axiomes fondamentaux de la mécanique quantique c’est cette division louche du monde entre « système » et « appareil ».  

La seconde charge est que le mot vient avec le sens constitué à partir de la vie ordinaire quotidienne, sens qui est entièrement inapproprié dans le contexte quantique.

Quand il est dit que quelque chose est « mesuré », il est difficile de ne pas penser au résultat en se référant à une propriété préexistante de l’objet en question (sic). Ce propos met à distance l’insistance de Bohr qui affirme que dans les phénomènes quantiques, l’appareil de mesure tout autant que le système sont impliqués. Si nous ne le faisions pas, comment pourrions-nous comprendre, par exemple, que la mesure d’une « composante » du ‘moment angulaire’…dans une direction arbitraire…nous conduise à une série de valeurs discrètes ? Quand on oublie le rôle de l’appareil, comme le mot « mesure(ment) : opération de mesure » le suggère fortement, on désespère la logique ordinaire… et en conséquence la ‘logique quantique’. Quand on se souvient du rôle de l’appareil, la logique ordinaire est valable. Dans d’autres contextes, les physiciens ont été capables de prendre des mots du langage ordinaire et de les utiliser en tant que termes techniques sans provoquer de dommages. Prenez par exemple l’ « étrangeté », le « charme », et « beauté » de la physique des particules élémentaires. Personne  n’est piégé par ce « babillage »… Le serait-il avec « mesurement ». En fait le mot a eu un effet tellement dommageable dans la discussion que je pense qu’il faudrait maintenant complètement le bannir en mécanique quantique.

Ci-joint le texte original.

It would seem that the theory [quantum mechanics] is exclusively concerned about "results of measurement", and has nothing to say about anything else. What exactly qualifies some physical systems to play the role of "measurer"? Was the wavefunction of the world waiting to jump for thousands of millions of years until a single-celled living creature appeared? Or did it have to wait a little longer, for some better qualified system ... with a Ph.D.? If the theory is to apply to anything but highly idealized laboratory operations, are we not obliged to admit that more or less "measurement-like" processes are going on more or less all the time, more or less everywhere. Do we not have jumping then all the time? The first charge against "measurement", in the fundamental axioms of quantum mechanics, is that it anchors the shifty split of the world into "system" and "apparatus". A second charge is that the word comes loaded with meaning from everyday life, meaning which is entirely inappropriate in the quantum context. When it is said that something is "measured" it is difficult not to think of the result as referring to some preexisting property of the object in question. This is to disregard Bohr's insistence that in quantum phenomena the apparatus as well as the system is essentially involved. If it were not so, how could we understand, for example, that ``measurement'' of a component of ``angular momentum" ... in an arbitrarily chosen direction ... yields one of a discrete set of values? When one forgets the role of the apparatus, as the word ``measurement'' makes all too likely, one despairs of ordinary logic ... hence "quantum logic". When one remembers the role of the apparatus, ordinary logic is just fine. In other contexts, physicists have been able to take words from ordinary language and use them as technical terms with no great harm done. Take for example the ``strangeness'', "charm", and "beauty" of elementary particle physics. No one is taken in by this "baby talk". ... Would that it were so with "measurement". But in fact the word has had such a damaging effect on the discussion, that I think it should now be banned altogether in quantum mechanics.

JOHN BELL, AGAINST "MEASUREMENT"

 

 Autre point de vue J. Bell, sur lequel j’aurai l’occasion de revenir car je suis pleinement d’accord avec ce qu’il dit à propos de la théorie quantique des champs.

            Les conventions sur les formulations de la théorie quantique, ainsi que de la théorie quantique des champs en particulier, sont vagues et ambigus, à cause d’un manque de professionnalisme. Les physiciens théoriques, professionnels, doivent être capables de faire mieux. D. Bohm, nous a montré le chemin.

 

            Bilan. Si on fait le bilan, sur ces 30 ou 40 dernières années, de toutes les tentatives des ‘réalistes’ visant, dans le prolongement et avec les moyens de la mécanique quantique et de la théorie quantique des champs, à isoler effectivement un monde physique indépendant doté des propriétés révélées par ces deux corpus théoriques, on peut dire que ces tentatives n’ont pas abouti ou sont restées en suspens. Peut-être même allons-nous devoir renoncer au boson de Higgs ! Et devoir renoncer avec encore une plus grande probabilité aux particules supersymétriques !

R. Penrose a tenté d’introduire la contribution du sujet pensant pour expliquer la Réduction Objective  (OR) de la fonction d’onde en mettant en jeu par le biais d’une conception physicaliste le fonctionnement cérébral. Sa conviction se trouve être exprimée par les propos suivants : « C’est pourquoi j’affirme qu’il faut que quelque chose, dans le cerveau, soit suffisamment isolé pour que la nouvelle physique OR ait une chance de jouer un rôle important. »

Evidemment, la théorie des cordes, dans ses multiples versions, ainsi que la théorie de la gravité quantique à boucles, sont des tentatives théoriques réalistes.

N’est-il pas temps de reconnaître, d’admettre, que nous sommes à un carrefour remarquable et qu’une révolution scientifique nécessaire ne peut survenir que si conjointement on accepte de considérer une nouvelle figure de l’homme. Dans l’histoire de la pensée et de la philosophie, ces phases historiques ont été recensées et analysées par F. Wolff, dans un livre très intéressant : « Notre humanité », ‘d’Aristote aux neurosciences’ (2010, fayard). Je cite : « Ce nouvel homme est en fait requis par la nouvelle science : une science qui ne se propose plus de formuler les définitions des êtres naturels afin d’en déduire les attributs essentiels et de les situer à leur place dans un cosmos ordonné, mais des lois générales reliant les événements ou les phénomènes, grâce à la mathématisation de la nature – autrement dit, la science de Galilée et de Descartes, puis celle de Newton. A nouvelle science, nouvel homme. »

  Enjeu majeur, défi majeur. Etonnant que dans le cadre du réseau européen COST, on ne soit pas en mesure de décloisonner les thèmes de recherche et que l’on soit encore à ressasser : « Quantum theory without observers. »

Partager cet article
Repost0
13 octobre 2011 4 13 /10 /octobre /2011 11:13

                                      Si faille il y a, quelle est sa nature ?

 

La lecture et l’analyse de l’article de la ‘Recherche’ de sept. 2011 : « Le test ultime de la mécanique quantique », ne peuvent être que recommandés. Le mot faille, est utilisé 12 fois. Le test ultime vise à tenter de répondre une bonne fois pour toute à la question : Est-ce que la mécanique quantique est la théorie la plus fondamentale ? C’est à travers l’étude expérimentale de l’intrication, phénomène le plus remarquable et le plus intrigant de la mécanique quantique que s’organise la validation de ce test qui se voudrait ultime.

Depuis la réussite de l’expérience de A. Aspect en 1982, des laboratoires ont conçu des dispositifs de plus en plus sophistiqués pour mettre à l’épreuve la véracité de la propriété de l’intrication. L’émulation et l’engouement sont palpables car des exploitations technologiques à base de cryptographie quantique sont déjà recensées.

Anton Zeilinger, Nicolas Gisin, Antonio Acin, dans leurs laboratoires respectifs, à force de sophistication expérimentale considèrent qu’ils sont au bord de résorber cette fameuse faille. Mais il y a toujours un doute qui persiste. A. Zeilinger : « Les variables cachées pourraient agir sur les mains des expérimentateurs, ou « contrôler » leurs instruments… » Avec l’expérience de La Palma, il pense que la liberté de choix de l’expérimentateur était garantie. Mais N. Gisin sème à nouveau le doute en évoquant une autre faille, rédhibitoire celle-là, « …il reste une faille : des variables cachées produites avant l’expérience – peut-être dès le Big Bang ! », qui induirait un super déterminisme inexpugnable.

 N’oublions pas que nous sommes le produit de poussières d’étoiles. Alors est-ce que le sujet pensant, le physicien, pourrait être le vecteur de ce super déterminisme ? Comment pourrait-il y échapper ?

Cette fameuse faille révèle à mes yeux l’incomplétude de la version actuelle la plus élaborée de la mécanique quantique. Doit être prise en compte la détermination inhérente au sujet pensant, c’est-à-dire sa ‘Présence’ dans le corpus de la mécanique quantique. Cette hypothèse iconoclaste, je l’ai introduite dès le début de « Faire de la physique avec ou sans ‘Présence’ » (Google : 53PH3PP6) et une synthèse d’étape est proposée dans 53PH3PP8, (chapitre : synthèse des séminaires I et II, page 1). L’item 9, rappelle quelle est cette faille et quelle est cette détermination inexpugnable.

La super détermination évoquée par N. Gisin  et celle dont je fais l’hypothèse et qui fait partie intégrante de mon référentiel théorique n’ont probablement pas de parenté (quoique…) mais ce qui est significatif c’est que par des chemins différents on est amené – pour l’un ultimement, pour l’autre a priori – à émettre des idées convergentes.   

Partager cet article
Repost0
8 octobre 2011 6 08 /10 /octobre /2011 17:48

Le titre de ce blog annonce clairement qu'il s'inscrit dans la continuité du résultat expérimental concernant l'hypothèse de la détection de neutrinos supraluminiques.

 

Ce blog s'impose parce qu'il y a le rythme pédagogique qui est un rythme choisi et le rythme qui est scandé par les annonces et les événements, il est évidemment plus aléatoire.

Le rythme pédagogique est celui inhérent à la présentation et au développement du séminaire : 'Faire de la physique avec ou sans 'Présence''.

C'est au cours de l'année 2007-2008 que ce travail a été entrepris et qui consiste pour l'essentiel à revisiter les lois de la physique fondamentale sans exclure la marque, la trace, du sujet pensant, qui tente de décrypter les propriétés de la nature, habité par ses déterminations inexpugnables.

On peut retrouver la totalité de ce travail sur : Google : 53PH3PP6 (documents et liens) (2007-2008), jusqu'à 53PH3PP10 (documents et liens) (2011-2012).

Le rythme scandé par les annonces et les événements expérimentaux sera celui mis en relief dans ce blog. Il y aura donc des périodes d'accélération qui conduiront à des synthèses, à des idées nouvelles ou régénérées voire à des conclusions d'étapes. Il y aura aussi des périodes de décantation.

La pertinence d'ouvrir ce blog s'est imposée à mes yeux avec l'annonce à propos des "Neutrinos supraluminiques?" Cette annonce remarquable mais peut-être provisoire est l'occasion du premier document de réflexion et d'analyse qui prévoyait cette éventualité.  

Synthèse à propos des neutrinos à la lumière de l'hypothèse de 'neutrinos supraluminiques'.

 Comme vous pouvez le constater avec le copié-collé (réf. 53PH3PP10, Chapitre XXIII), je n’ai pas manqué de suivre à la trace les neutrinos ces quatre dernières années. Progressivement je suis arrivé à exprimer l’hypothèse que les neutrinos comme les constituants de la matière noire pourraient ne pas être contraints par la loi de la R.R., E=mc2. De même dans le chapitre XX, dans le paragraphe ‘Pour une autre genèse’, j’ai émis l’hypothèse qui va encore plus loin : « En premier lieu, j’énonce l’idée que : Notre monde premier est celui de la lumière, plus justement celui du rayonnement. Il constitue le fond, dans lequel nous ne pouvons pas nous situer concrètement mais que nous pouvons tangenter, et à partir duquel se décline notre compréhension du monde et la mise en forme de ses propriétés. On ne peut s’y situer mais nous pouvons abstraitement, partiellement, l’investir grâce à nos capacités cérébrales de raisonnement (à développer). Se décline : implique que le rayonnement et ses propriétés soient considérés comme constituant le paradigme absolu. C’est à travers ce rapport primordial que nous identifions ce qui est la matière avec ou sans boson de Higgs. Est-ce que j’ai besoin d’introduire cet écran pour passer du rayonnement à la matière ? »

Question : est-ce que les résultats expérimentaux[1] annoncés le 23/09 concernant la propriété supraluminique des neutrinos apporte de l’eau à mon moulin ? Ma réponse est non pas encore et oui peut-être. En premier lieu gardons à l’esprit que ce résultat, s’il se trouvait confirmé, constituerait un résultat collatéral par rapport à l’hypothèse central de mon référentiel théorique. Collatéral, certes mais significatif et exploitable !

Non pas encore, parce qu’il faut confirmer ce résultat et cela peut demander deux ou trois ans. Enfin, j’ai proposé que E=mc2 ne s’applique pas, ce qui est peut-être équivalent à Vν > C, encore faut-il le montrer. Disons que la conséquence première est le problème de l’appréciation de la détection de ces neutrinos, car les transferts d’énergie et de quantité de mouvement avec le détecteur ne seraient donc pas ce que nous croyons. Par contre dans le copié-collé, vous trouverez que j’ai exprimé une hypothèse encore plus iconoclaste dans le chapitre 13, p.3-4 : « leur géodésique ne se trouve ni à l’intérieur ni à l’extérieur du cône de lumière… »

Oui peut-être, parce que cette hypothèse émerge de la cohérence globale de mon référentiel théorique. Donc si ce résultat expérimental était confirmé cela légitimerait de réviser profondément notre compréhension des propriétés dites matérielles de la nature. En fait les conséquences sont encore plus riches puisque je propose que l’on réfléchisse à l’idée : qu’au bout du compte il y aurait plusieurs catégories de matière. Celle qui est identifiable grâce à mc2 et celles qui seraient identifiables dans le cadre d’autres contraintes, dont les neutrinos, et aussi peut-être les constituants de la ‘matière noire’, et cela laisse aussi la porte ouverte à d’autres types de matière non encore identifiés. Restons pragmatique et point trop n’en faut. Cela va dans le sens du chapitre XXVI que j’ai préparé en juillet et août que j’installerai bientôt sur le site bien qu’imparfait et incomplet où j’indique : « Il me semble qu’on devrait plutôt considérer notre Univers comme enchâssé au sein d’une Eternité[2] où aucun des possibles ne peut être exclu. (Il est délicat d’appeler ces autres possibles : Univers, au même sens que le nôtre car cela supposerait qu’ils seraient habités par des intelligences capables de produire une telle synthèse et que nous les aurions entendues) Parmi tous les possibles nous privilégions celui qui nous est accessible, que l’être humain a rendu intelligible parce qu’il nous correspond. Il est donc le fruit de notre entendement[3]. Il est intéressant de constater que probablement certains de ces autres possibles apparaissent à la pointe du crayon des théoriciens qui tentent d’extraire toute la quintessence des équations de la physique théorique telle qu’elle est développée actuellement. »

Autre conséquence : Le fait de considèrer que nous identifions la matière (celle qui nous est commune) à partir du paradigme absolu de la lumière cela conduit à envisager une possible unification entre source du rayonnement électromagnétique et matériel (commun) au voisinage de C ou à C même. Ce qui impliquerait probablement à ce que mi et mg finissent par se distinguer dans ce voisinage. C'est-à-dire que mi ne serait plus égal à mg, comme l’avait postulé Einstein, à juste raison, dans son référentiel théorique. 

Si nous analysons les conséquences du rayonnement synchrotron, par exemple, on peut considérer qu'il produit le même effet, du point de vue de l'observateur, que celui d'une masse d'inertie. Par exemple la mi de l’électron → l’infini à 7 TeV dans le mouvement circulaire. La contribution de la charge électrique comme composante d’inertie au mouvement devient significative. Ceci est une piste de raisonnement mais il faut tenir compte que cela correspond à un mouvement spécifique (de rotation). Dans le mouvement linéaire, il y aussi radiation, quand il y a accélération pour toutes particules chargées, mais moindre. Il y a donc une situation au très grand voisinage de C où l’inertie due à la radiation peut égaler celle due à mi. Ceci est à creuser. J’ai déjà eu l’occasion (chapitre XXI, p.3) d’exprimer l’idée que charge électrique et charge de masse étaient les deux facettes d’une même entité, avant une sorte de brisure de symétrie qui conduit à les distinguer. A priori le mécanisme de Higgs n’est pas le bon scénario pour rendre compte de cette phénoménologie. Reste en suspens, le problème de la mg.

2 hypothèses doivent être activées : 1- la charge de la masse grave mg est d’une nature et a une valeur distinctes de mi au voisinage de C; 2 – l’interaction gravitationnelle devient évanescente au voisinage de C.

 



[1] Qui en aucun cas ne contredisent les travaux d’Einstein mais les dépassent, c'est-à-dire que nous accédons à un monde plus riche et qui inclut celui mis en évidence par au moins la R.R. « C’est le plus beau sort d’une théorie physique que d’ouvrir la voie à une théorie plus vaste dans laquelle elle continue à vivre comme cas particulier. » dixit Einstein.

[2] Je propose d’attribuer à ce mot le même sens global que celui auquel se référait A. Einstein quand il affirmait que l’être humain était au cœur d’un monde immuable et éternel donc invariant vis-à-vis des points de vue multiples des observateurs.

[3] Pour la Science’ p.21 : « … de sorte que notre Univers ne serait qu’une bulle parmi d’autres au sein d’un cosmos beaucoup plus vaste. Nul ne le sait. Espérons qu’avec le temps, la confusion relative à l’expansion s’amenuisera. »

Partager cet article
Repost0
8 octobre 2011 6 08 /10 /octobre /2011 17:36

Ceci est le premier article de votre blog. Il a été créé automatiquement pour vous aider à démarrer sur OverBlog. Vous pouvez le modifier ou l'effacer via la section "publier" de l'administration de votre blog.

Bon blogging

L'équipe d'OverBlog

PS : pour vous connecter à votre administration rendez-vous sur le portail des blogs OverBlog

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens