Overblog
Suivre ce blog Administration + Créer mon blog
8 novembre 2011 2 08 /11 /novembre /2011 13:38

Qui se permettra de le dire ?

 

A-t-on bâti le L.H.C. seulement pour trouver le Higgs ? Cette question a été récemment posée, parce que commence sérieusement à poindre l’idée qu’il pourrait ne pas y avoir de boson de Higgs à détecter contrairement à ce que le modèle standard des particules élémentaires prévoit. D’ailleurs, est-ce à titre préventif que Rolf Heuer, l’actuel directeur général du CERN dit en juillet de cette année : « En ce qui concerne le boson de Higgs, en particulier, si on le trouve ou si on l’exclut ce sera une grande découverte. »

Rappelons-nous, ce fameux boson a été inventé, il y a une cinquantaine d’années, par le physicien Peter Higgs, pour rendre compte pourquoi certaines particules ont une masse. En septembre 2000 dans le cadre du L.E.P., l’ancêtre du LHC, des physiciens avaient pensé l’avoir décelé dans le détecteur Aleph. Trop peu d’évènements fiables (autour de 115 GeV) pour tirer des conclusions définitives. Obligation fin 2000 d’arrêter le LEP pour commencer la construction du LHC. Ce qui fut une source de tension importante au sein de la communauté scientifique. Mais l’espoir avait été qu’à partir de 2008-2009, on aurait des niveaux d’énergie des faisceaux de protons ainsi que des niveaux de sensibilité de nouveaux détecteurs (Atlas et CMS, auxquels à chacun de ceux-ci sont attachés près de 3000 chercheurs) qui permettront de détecter à coup sûr ce boson s’il existe. Les déconvenues regrettables à propos de la mise en route laborieuse du LHC ont renvoyé à courant 2010 le début des expériences de détection. Et toujours rien ! Encore rien ! C’est selon le degré d’impatience.

En mai 2006, (dans les Dossiers de la Recherche, n° 23), l’actuel Président du Conseil du CERN, Michel Spiro déclare : « L’enjeu principal à court terme est donc la découverte du boson de Higgs. On ne l’a pas trouvé au CERN avec le LEP ; on le cherche maintenant au Fermilab. D’après les prédictions théoriques, on a de bonnes chances de le trouver au LHC. Si on ne le trouve pas au LHC, c’est qu’il y a un vrai problème avec le modèle standard. »

Au Fermilab, arrêté ce mois d’octobre, on a rien détecté durant toute cette période, on a par contre restreint le domaine de sa masse possible. Un peu plus loin dans le même article M. Spiro affirme : « Il ne faut pas perdre de vue qu’il est possible que ce boson soit plus difficile à détecter que prévu, voire qu’il n’existe pas… »

Il y a quelques jours, Fabiola Gianotti, porte-parole de l’expérience Atlas, a confirmé : « Nous sommes parvenus à circonscrire le boson de Higgs dans la partie basse de la gamme de masses dans laquelle il est susceptible de se trouver (115–150GeV). C’est là que les théoriciens et les expérimentateurs s’attendaient à ce qu’il soit, mais cette zone est la plus difficile à étudier. Dans les jours et les semaines à venir, les équipes des expériences LHC analyseront la totalité des données 2011… » Certains sont plus précis, ils le situeraient dans la gamme 114-135GeV.

Il se trouve que ce domaine de masse a déjà été sérieusement ausculté. Dans le ‘Monde’ du 16/01/2007, dans un article intitulé « Les équipes du Fermilab de Chicago se replacent dans la chasse au boson de Higgs », M. Spiro reconnaît que « les Américains ont une chance de trouver le Higgs si sa masse est comprise entre 114 et 130GeV ».

 Est-ce que la fuite en avant est judicieuse ? (Voir dans le ‘Monde’ du 24/9),  dans les cartons reposent déjà les plans des futurs accélérateurs pour pousser plus loin les limites de la connaissance. Pour les en sortir, il faudra accepter de financer pour plusieurs milliards d’euros de nouvelles machines. « La société sera prête à nous soutenir, même s’il n’y a pas d’applications concrètes immédiates. Mais il faudra être très clair sur nos objectifs et très sérieux dans notre travail (sic) », pense Guido Tonelli, porte-parole de CMS.

A propos des particules supersymétriques ? Là encore, les résultats cumulés depuis le début du fonctionnement du LHC, indiquent qu’il n’y a aucune particules supersymétriques produites. Pas le moindre frémissement.

La théorie de la supersymétrie s’est imposée il y a une bonne trentaine d’années pour que le processus de l’unification des interactions fondamentales puissent être prolongé. Après le succès de l’unification de l’interaction électromagnétique avec l’interaction faible en une même interaction électrofaible, il était légitime de considérer que dans certaines conditions celle-ci s’unifie avec l’interaction forte. Pour sortir du milieu du gué ce processus d’unification il a fallu introduire une nouvelle hypothèse, celle de la supersymétrie. A la supersymétrie correspond des particules symétriques (sparticules) qui devraient si elles existent pouvoir être détectées au LHC. Le fait que l’on ait encore rien identifié ne permet pas de remettre en cause cette hypothèse. Cela indique que l’édifice théorique est fragile. En plus il y avait l’espoir de réaliser avec une pierre deux coups, car une de ces sparticules, la plus légère et stable, pourrait être un constituant élémentaire de la matière noire appelé neutralino.

John Ellis, au CERN, le 13/09, a déclaré en répondant à la question : Et si le LHC ne trouve rien du tout ? « Eh bien, cela pourrait vouloir dire qu'il n'y a rien qui ressemble à un boson de Higgs du Modèle standard, ou alors que cette particule est tellement lourde qu'elle se comporte d'une façon que nous ne pouvons pas calculer (pour le moment, bien sûr !). J'ai toujours dit que le résultat le plus intéressant pour les théoriciens serait qu'il n'y ait aucun boson de Higgs d'aucune sorte. Cela nous obligerait à abandonner toutes les idées qui ont inspiré nos théories depuis 47 ans. »

Depuis 47 ans ? Non ! Depuis plus longtemps que ça, c'est-à-dire depuis l’avènement de la Théorie Quantique des Champs (TQC), depuis donc les années 1930-1940. Dans l’article précédent : ‘ETONNANT’, j’avais mis en exergue ce jugement radical de J. Bell à dessein : « Les conventions sur les formulations de la théorie quantique, ainsi que de la théorie quantique des champs en particulier, sont vagues et ambigus, à cause d’un manque de professionnalisme. Les physiciens théoriques, professionnels, doivent être capables de faire mieux. D. Bohm, nous a montré le chemin. »

Le mécanisme de Higgs et la théorie de la supersymétrie, sont des productions directes de la TQC. Qui se permettra de dire qu’il faudrait remettre en cause ce bagage théorique, avec ses concepts, ses outils et ses mécanismes mathématiques ? Cela provoquerait un sacré tremblement que de remettre en cause radicalement la TQC. Pourtant celle-ci est à la fois bien née avec la conception de l’électrodynamique quantique…jusqu’à l’unification électrofaible, mais elle est concomitamment mal née avec la nécessité de la renormalisation. Cette renormalisation incontournable a été à l’origine d’une bifurcation dans la manière de travailler, de réfléchir, de la part des physiciens, parce que à cette occasion s’est mis en route l’engrenage de la résolution par le calcul, une sorte d’ingénierie pour contourner les apories potentielles, au détriment de l’approfondissement conceptuel et du formalisme, au détriment de la nécessité de placer sur un socle consistant et cohérent les fondements des propriétés physiques que l’on veut mettre en évidence. Ainsi on peut s’interroger : pourquoi a t’on laissé se propager l’incompatibilité entre l’impossibilité absolue pour un électron, ou toute particule de matière chargée d’ailleurs, d’être nu, c.-à-d. sans qu’il soit paré de son champ électromagnétique, comme nous l’indique l’invariance de jauge ? et le fait que la densité lagrangienne de l’électrodynamique quantique résulte de la somme des trois densités suivantes, celle du champ, celle de la particule de matière nue (sic), celle de l’interaction champ-charge.  

Partager cet article
Repost0
19 octobre 2011 3 19 /10 /octobre /2011 11:55

                                            ETONNANT

 

Le ‘Cern Courier’, du mois de juin 2011, a annoncé la création d’un réseau européen qui se consacrera à la mécanique quantique et ses problèmes fondamentaux et fascinants. Sous la direction de A. Bassi de l’université de Tiestre, un des groupes de travail, mis en place, s’intitule : « La théorie quantique sans observateurs. » Il sera animé par N. Zanghi de l’université de Gênes. La problématique de ce groupe de travail me plaît beaucoup puisqu’elle est exactement orthogonale à la mienne. Et la comparaison de résultats peut-être (très) contrastés sera toujours utile pour progresser. Mais ce choix unilatéral est étonnant, quand on se souvient que les avancées les plus remarquables de la connaissance en physique, comme dans les autres domaines de connaissance, se sont produites dans la confrontation de thèses qui s’opposaient. Pensons à cette période remarquable de débats entre N. Bohr et A. Einstein. Mon propos n’est pas de plonger dans la nostalgie mais de considérer cette période comme emblématique et quitte à organiser des réseaux à l’échelle européenne voire mondiale il faut rejeter le monolithisme des points de vue. Mon étonnement est d’autant plus grand que fondamentalement l’inspirateur de ce groupe de travail est J. Bell, cité par l’animateur du groupe. J. Bell est un physicien, logicien, qui exprime une philosophie de la connaissance en physique qui est dans la continuité des réalistes sans nuance. On sait que ses raisonnements rigoureux et logiques lui ont permis de mette en évidence les fameuses inégalités qui portent son nom et qui ont pu être exploitées (par A. Aspect, notamment) pour révéler que c’est la conception fondamentale de la mécanique quantique, opposé à la sienne, c'est-à-dire celle de l’école de Copenhague (Bohr, Heisenberg, Born, etc.…) qui est pertinente jusqu’au jour d’aujourd’hui. On sait qu’il y a beaucoup de physiciens qui ont du mal à admettre les conséquences de cette fondation. Ils ont raison de le faire puisqu’ils ont une conviction philosophique, métaphysique, (consciente ou inconsciente), qui répugne à y adhérer. Mais pas chacun dans sa forteresse !

 

Ci-joint un extrait du point de vue de John Bell contre ‘l’opération de mesure’

Avertissement, ce texte est traduit par mes soins.

Il semblerait que la théorie quantique soit concernée exclusivement par le « résultat de la mesure », et n’a rien à dire sur quoi que soit d’autre. Qu’est-ce qui qualifie un système physique de jouer le rôle de « mesureur » ? Est-ce que la fonction d’onde du Monde a attendu des milliers de millions d’années, jusqu’à ce que une première cellule vivante apparaisse, pour se réduire ? Ou bien faut-il patienter, jusqu’à la constitution d’un système plus qualifié…avec un Ph.D., pour que cette réduction ait lieu ? Si la théorie consiste à appliquer à tout objet des opérations hautement idéalisées, ne sommes-nous pas alors obligés dans ce cas d’admettre, que se produisent, plus ou moins, des processus semblables de mesure, plus ou moins tout le temps et plus ou moins partout ? Est-ce que nous n’avons pas réduite cette fonction d’onde tout le temps ?

La première charge contre l’axiome du « processus de la mesure » parmi les axiomes fondamentaux de la mécanique quantique c’est cette division louche du monde entre « système » et « appareil ».  

La seconde charge est que le mot vient avec le sens constitué à partir de la vie ordinaire quotidienne, sens qui est entièrement inapproprié dans le contexte quantique.

Quand il est dit que quelque chose est « mesuré », il est difficile de ne pas penser au résultat en se référant à une propriété préexistante de l’objet en question (sic). Ce propos met à distance l’insistance de Bohr qui affirme que dans les phénomènes quantiques, l’appareil de mesure tout autant que le système sont impliqués. Si nous ne le faisions pas, comment pourrions-nous comprendre, par exemple, que la mesure d’une « composante » du ‘moment angulaire’…dans une direction arbitraire…nous conduise à une série de valeurs discrètes ? Quand on oublie le rôle de l’appareil, comme le mot « mesure(ment) : opération de mesure » le suggère fortement, on désespère la logique ordinaire… et en conséquence la ‘logique quantique’. Quand on se souvient du rôle de l’appareil, la logique ordinaire est valable. Dans d’autres contextes, les physiciens ont été capables de prendre des mots du langage ordinaire et de les utiliser en tant que termes techniques sans provoquer de dommages. Prenez par exemple l’ « étrangeté », le « charme », et « beauté » de la physique des particules élémentaires. Personne  n’est piégé par ce « babillage »… Le serait-il avec « mesurement ». En fait le mot a eu un effet tellement dommageable dans la discussion que je pense qu’il faudrait maintenant complètement le bannir en mécanique quantique.

Ci-joint le texte original.

It would seem that the theory [quantum mechanics] is exclusively concerned about "results of measurement", and has nothing to say about anything else. What exactly qualifies some physical systems to play the role of "measurer"? Was the wavefunction of the world waiting to jump for thousands of millions of years until a single-celled living creature appeared? Or did it have to wait a little longer, for some better qualified system ... with a Ph.D.? If the theory is to apply to anything but highly idealized laboratory operations, are we not obliged to admit that more or less "measurement-like" processes are going on more or less all the time, more or less everywhere. Do we not have jumping then all the time? The first charge against "measurement", in the fundamental axioms of quantum mechanics, is that it anchors the shifty split of the world into "system" and "apparatus". A second charge is that the word comes loaded with meaning from everyday life, meaning which is entirely inappropriate in the quantum context. When it is said that something is "measured" it is difficult not to think of the result as referring to some preexisting property of the object in question. This is to disregard Bohr's insistence that in quantum phenomena the apparatus as well as the system is essentially involved. If it were not so, how could we understand, for example, that ``measurement'' of a component of ``angular momentum" ... in an arbitrarily chosen direction ... yields one of a discrete set of values? When one forgets the role of the apparatus, as the word ``measurement'' makes all too likely, one despairs of ordinary logic ... hence "quantum logic". When one remembers the role of the apparatus, ordinary logic is just fine. In other contexts, physicists have been able to take words from ordinary language and use them as technical terms with no great harm done. Take for example the ``strangeness'', "charm", and "beauty" of elementary particle physics. No one is taken in by this "baby talk". ... Would that it were so with "measurement". But in fact the word has had such a damaging effect on the discussion, that I think it should now be banned altogether in quantum mechanics.

JOHN BELL, AGAINST "MEASUREMENT"

 

 Autre point de vue J. Bell, sur lequel j’aurai l’occasion de revenir car je suis pleinement d’accord avec ce qu’il dit à propos de la théorie quantique des champs.

            Les conventions sur les formulations de la théorie quantique, ainsi que de la théorie quantique des champs en particulier, sont vagues et ambigus, à cause d’un manque de professionnalisme. Les physiciens théoriques, professionnels, doivent être capables de faire mieux. D. Bohm, nous a montré le chemin.

 

            Bilan. Si on fait le bilan, sur ces 30 ou 40 dernières années, de toutes les tentatives des ‘réalistes’ visant, dans le prolongement et avec les moyens de la mécanique quantique et de la théorie quantique des champs, à isoler effectivement un monde physique indépendant doté des propriétés révélées par ces deux corpus théoriques, on peut dire que ces tentatives n’ont pas abouti ou sont restées en suspens. Peut-être même allons-nous devoir renoncer au boson de Higgs ! Et devoir renoncer avec encore une plus grande probabilité aux particules supersymétriques !

R. Penrose a tenté d’introduire la contribution du sujet pensant pour expliquer la Réduction Objective  (OR) de la fonction d’onde en mettant en jeu par le biais d’une conception physicaliste le fonctionnement cérébral. Sa conviction se trouve être exprimée par les propos suivants : « C’est pourquoi j’affirme qu’il faut que quelque chose, dans le cerveau, soit suffisamment isolé pour que la nouvelle physique OR ait une chance de jouer un rôle important. »

Evidemment, la théorie des cordes, dans ses multiples versions, ainsi que la théorie de la gravité quantique à boucles, sont des tentatives théoriques réalistes.

N’est-il pas temps de reconnaître, d’admettre, que nous sommes à un carrefour remarquable et qu’une révolution scientifique nécessaire ne peut survenir que si conjointement on accepte de considérer une nouvelle figure de l’homme. Dans l’histoire de la pensée et de la philosophie, ces phases historiques ont été recensées et analysées par F. Wolff, dans un livre très intéressant : « Notre humanité », ‘d’Aristote aux neurosciences’ (2010, fayard). Je cite : « Ce nouvel homme est en fait requis par la nouvelle science : une science qui ne se propose plus de formuler les définitions des êtres naturels afin d’en déduire les attributs essentiels et de les situer à leur place dans un cosmos ordonné, mais des lois générales reliant les événements ou les phénomènes, grâce à la mathématisation de la nature – autrement dit, la science de Galilée et de Descartes, puis celle de Newton. A nouvelle science, nouvel homme. »

  Enjeu majeur, défi majeur. Etonnant que dans le cadre du réseau européen COST, on ne soit pas en mesure de décloisonner les thèmes de recherche et que l’on soit encore à ressasser : « Quantum theory without observers. »

Partager cet article
Repost0
13 octobre 2011 4 13 /10 /octobre /2011 11:13

                                      Si faille il y a, quelle est sa nature ?

 

La lecture et l’analyse de l’article de la ‘Recherche’ de sept. 2011 : « Le test ultime de la mécanique quantique », ne peuvent être que recommandés. Le mot faille, est utilisé 12 fois. Le test ultime vise à tenter de répondre une bonne fois pour toute à la question : Est-ce que la mécanique quantique est la théorie la plus fondamentale ? C’est à travers l’étude expérimentale de l’intrication, phénomène le plus remarquable et le plus intrigant de la mécanique quantique que s’organise la validation de ce test qui se voudrait ultime.

Depuis la réussite de l’expérience de A. Aspect en 1982, des laboratoires ont conçu des dispositifs de plus en plus sophistiqués pour mettre à l’épreuve la véracité de la propriété de l’intrication. L’émulation et l’engouement sont palpables car des exploitations technologiques à base de cryptographie quantique sont déjà recensées.

Anton Zeilinger, Nicolas Gisin, Antonio Acin, dans leurs laboratoires respectifs, à force de sophistication expérimentale considèrent qu’ils sont au bord de résorber cette fameuse faille. Mais il y a toujours un doute qui persiste. A. Zeilinger : « Les variables cachées pourraient agir sur les mains des expérimentateurs, ou « contrôler » leurs instruments… » Avec l’expérience de La Palma, il pense que la liberté de choix de l’expérimentateur était garantie. Mais N. Gisin sème à nouveau le doute en évoquant une autre faille, rédhibitoire celle-là, « …il reste une faille : des variables cachées produites avant l’expérience – peut-être dès le Big Bang ! », qui induirait un super déterminisme inexpugnable.

 N’oublions pas que nous sommes le produit de poussières d’étoiles. Alors est-ce que le sujet pensant, le physicien, pourrait être le vecteur de ce super déterminisme ? Comment pourrait-il y échapper ?

Cette fameuse faille révèle à mes yeux l’incomplétude de la version actuelle la plus élaborée de la mécanique quantique. Doit être prise en compte la détermination inhérente au sujet pensant, c’est-à-dire sa ‘Présence’ dans le corpus de la mécanique quantique. Cette hypothèse iconoclaste, je l’ai introduite dès le début de « Faire de la physique avec ou sans ‘Présence’ » (Google : 53PH3PP6) et une synthèse d’étape est proposée dans 53PH3PP8, (chapitre : synthèse des séminaires I et II, page 1). L’item 9, rappelle quelle est cette faille et quelle est cette détermination inexpugnable.

La super détermination évoquée par N. Gisin  et celle dont je fais l’hypothèse et qui fait partie intégrante de mon référentiel théorique n’ont probablement pas de parenté (quoique…) mais ce qui est significatif c’est que par des chemins différents on est amené – pour l’un ultimement, pour l’autre a priori – à émettre des idées convergentes.   

Partager cet article
Repost0
8 octobre 2011 6 08 /10 /octobre /2011 17:48

Le titre de ce blog annonce clairement qu'il s'inscrit dans la continuité du résultat expérimental concernant l'hypothèse de la détection de neutrinos supraluminiques.

 

Ce blog s'impose parce qu'il y a le rythme pédagogique qui est un rythme choisi et le rythme qui est scandé par les annonces et les événements, il est évidemment plus aléatoire.

Le rythme pédagogique est celui inhérent à la présentation et au développement du séminaire : 'Faire de la physique avec ou sans 'Présence''.

C'est au cours de l'année 2007-2008 que ce travail a été entrepris et qui consiste pour l'essentiel à revisiter les lois de la physique fondamentale sans exclure la marque, la trace, du sujet pensant, qui tente de décrypter les propriétés de la nature, habité par ses déterminations inexpugnables.

On peut retrouver la totalité de ce travail sur : Google : 53PH3PP6 (documents et liens) (2007-2008), jusqu'à 53PH3PP10 (documents et liens) (2011-2012).

Le rythme scandé par les annonces et les événements expérimentaux sera celui mis en relief dans ce blog. Il y aura donc des périodes d'accélération qui conduiront à des synthèses, à des idées nouvelles ou régénérées voire à des conclusions d'étapes. Il y aura aussi des périodes de décantation.

La pertinence d'ouvrir ce blog s'est imposée à mes yeux avec l'annonce à propos des "Neutrinos supraluminiques?" Cette annonce remarquable mais peut-être provisoire est l'occasion du premier document de réflexion et d'analyse qui prévoyait cette éventualité.  

Synthèse à propos des neutrinos à la lumière de l'hypothèse de 'neutrinos supraluminiques'.

 Comme vous pouvez le constater avec le copié-collé (réf. 53PH3PP10, Chapitre XXIII), je n’ai pas manqué de suivre à la trace les neutrinos ces quatre dernières années. Progressivement je suis arrivé à exprimer l’hypothèse que les neutrinos comme les constituants de la matière noire pourraient ne pas être contraints par la loi de la R.R., E=mc2. De même dans le chapitre XX, dans le paragraphe ‘Pour une autre genèse’, j’ai émis l’hypothèse qui va encore plus loin : « En premier lieu, j’énonce l’idée que : Notre monde premier est celui de la lumière, plus justement celui du rayonnement. Il constitue le fond, dans lequel nous ne pouvons pas nous situer concrètement mais que nous pouvons tangenter, et à partir duquel se décline notre compréhension du monde et la mise en forme de ses propriétés. On ne peut s’y situer mais nous pouvons abstraitement, partiellement, l’investir grâce à nos capacités cérébrales de raisonnement (à développer). Se décline : implique que le rayonnement et ses propriétés soient considérés comme constituant le paradigme absolu. C’est à travers ce rapport primordial que nous identifions ce qui est la matière avec ou sans boson de Higgs. Est-ce que j’ai besoin d’introduire cet écran pour passer du rayonnement à la matière ? »

Question : est-ce que les résultats expérimentaux[1] annoncés le 23/09 concernant la propriété supraluminique des neutrinos apporte de l’eau à mon moulin ? Ma réponse est non pas encore et oui peut-être. En premier lieu gardons à l’esprit que ce résultat, s’il se trouvait confirmé, constituerait un résultat collatéral par rapport à l’hypothèse central de mon référentiel théorique. Collatéral, certes mais significatif et exploitable !

Non pas encore, parce qu’il faut confirmer ce résultat et cela peut demander deux ou trois ans. Enfin, j’ai proposé que E=mc2 ne s’applique pas, ce qui est peut-être équivalent à Vν > C, encore faut-il le montrer. Disons que la conséquence première est le problème de l’appréciation de la détection de ces neutrinos, car les transferts d’énergie et de quantité de mouvement avec le détecteur ne seraient donc pas ce que nous croyons. Par contre dans le copié-collé, vous trouverez que j’ai exprimé une hypothèse encore plus iconoclaste dans le chapitre 13, p.3-4 : « leur géodésique ne se trouve ni à l’intérieur ni à l’extérieur du cône de lumière… »

Oui peut-être, parce que cette hypothèse émerge de la cohérence globale de mon référentiel théorique. Donc si ce résultat expérimental était confirmé cela légitimerait de réviser profondément notre compréhension des propriétés dites matérielles de la nature. En fait les conséquences sont encore plus riches puisque je propose que l’on réfléchisse à l’idée : qu’au bout du compte il y aurait plusieurs catégories de matière. Celle qui est identifiable grâce à mc2 et celles qui seraient identifiables dans le cadre d’autres contraintes, dont les neutrinos, et aussi peut-être les constituants de la ‘matière noire’, et cela laisse aussi la porte ouverte à d’autres types de matière non encore identifiés. Restons pragmatique et point trop n’en faut. Cela va dans le sens du chapitre XXVI que j’ai préparé en juillet et août que j’installerai bientôt sur le site bien qu’imparfait et incomplet où j’indique : « Il me semble qu’on devrait plutôt considérer notre Univers comme enchâssé au sein d’une Eternité[2] où aucun des possibles ne peut être exclu. (Il est délicat d’appeler ces autres possibles : Univers, au même sens que le nôtre car cela supposerait qu’ils seraient habités par des intelligences capables de produire une telle synthèse et que nous les aurions entendues) Parmi tous les possibles nous privilégions celui qui nous est accessible, que l’être humain a rendu intelligible parce qu’il nous correspond. Il est donc le fruit de notre entendement[3]. Il est intéressant de constater que probablement certains de ces autres possibles apparaissent à la pointe du crayon des théoriciens qui tentent d’extraire toute la quintessence des équations de la physique théorique telle qu’elle est développée actuellement. »

Autre conséquence : Le fait de considèrer que nous identifions la matière (celle qui nous est commune) à partir du paradigme absolu de la lumière cela conduit à envisager une possible unification entre source du rayonnement électromagnétique et matériel (commun) au voisinage de C ou à C même. Ce qui impliquerait probablement à ce que mi et mg finissent par se distinguer dans ce voisinage. C'est-à-dire que mi ne serait plus égal à mg, comme l’avait postulé Einstein, à juste raison, dans son référentiel théorique. 

Si nous analysons les conséquences du rayonnement synchrotron, par exemple, on peut considérer qu'il produit le même effet, du point de vue de l'observateur, que celui d'une masse d'inertie. Par exemple la mi de l’électron → l’infini à 7 TeV dans le mouvement circulaire. La contribution de la charge électrique comme composante d’inertie au mouvement devient significative. Ceci est une piste de raisonnement mais il faut tenir compte que cela correspond à un mouvement spécifique (de rotation). Dans le mouvement linéaire, il y aussi radiation, quand il y a accélération pour toutes particules chargées, mais moindre. Il y a donc une situation au très grand voisinage de C où l’inertie due à la radiation peut égaler celle due à mi. Ceci est à creuser. J’ai déjà eu l’occasion (chapitre XXI, p.3) d’exprimer l’idée que charge électrique et charge de masse étaient les deux facettes d’une même entité, avant une sorte de brisure de symétrie qui conduit à les distinguer. A priori le mécanisme de Higgs n’est pas le bon scénario pour rendre compte de cette phénoménologie. Reste en suspens, le problème de la mg.

2 hypothèses doivent être activées : 1- la charge de la masse grave mg est d’une nature et a une valeur distinctes de mi au voisinage de C; 2 – l’interaction gravitationnelle devient évanescente au voisinage de C.

 



[1] Qui en aucun cas ne contredisent les travaux d’Einstein mais les dépassent, c'est-à-dire que nous accédons à un monde plus riche et qui inclut celui mis en évidence par au moins la R.R. « C’est le plus beau sort d’une théorie physique que d’ouvrir la voie à une théorie plus vaste dans laquelle elle continue à vivre comme cas particulier. » dixit Einstein.

[2] Je propose d’attribuer à ce mot le même sens global que celui auquel se référait A. Einstein quand il affirmait que l’être humain était au cœur d’un monde immuable et éternel donc invariant vis-à-vis des points de vue multiples des observateurs.

[3] Pour la Science’ p.21 : « … de sorte que notre Univers ne serait qu’une bulle parmi d’autres au sein d’un cosmos beaucoup plus vaste. Nul ne le sait. Espérons qu’avec le temps, la confusion relative à l’expansion s’amenuisera. »

Partager cet article
Repost0
8 octobre 2011 6 08 /10 /octobre /2011 17:36

Ceci est le premier article de votre blog. Il a été créé automatiquement pour vous aider à démarrer sur OverBlog. Vous pouvez le modifier ou l'effacer via la section "publier" de l'administration de votre blog.

Bon blogging

L'équipe d'OverBlog

PS : pour vous connecter à votre administration rendez-vous sur le portail des blogs OverBlog

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens