Overblog
Suivre ce blog Administration + Créer mon blog
14 octobre 2015 3 14 /10 /octobre /2015 13:24

Nouveau prix Nobel pour les neutrinos !

Est-ce que le prix Nobel 2015 a été attribué aux neutrinos ? Est-ce que leurs résistances à nous délivrer leurs secrets depuis maintenant 80 ans ont été primées ? C’est ce que pourrait laisser penser quelques titres peut-être volontairement goguenards sur les sites de la semaine passée : ‘Prix Nobel de physique 2015 : les neutrinos sont à l’honneur’ ou encore : ‘Comment le neutrino pourrait résoudre de grands mystères cosmiques et gagner ses prochains prix Nobel

Les deux bénéficiaires de ce prix 2015, ont considéré, grâce aux résultats mis en évidence, avoir obtenu des preuves (autour de l’an 2000) permettant de valider l’hypothèse de l’oscillation de la saveur des neutrinos (initialement proposée par analogie, par B. Pontecorvo en 1969). Je suis convaincu qu’il faut conserver l’idée que ce soit seulement une hypothèse car l’idée de l’oscillation implique de fait un enjambement de beaucoup d’ignorances en amont qui ne doivent pas être effacées. De S. Peeters, dans PHYS.Org le 09/10/2015 : « Pendant qu’il se déplace dans l’espace, le neutrino apparemment (sic) oscille continument entre différents ‘types’ de neutrinos, changeant ainsi la façon dont il interagit avec la matière. » Ainsi la problématique de la saveur des neutrinos n’est pas banal car elle laisse penser que le neutrino n’est pas une particule à part entière, il n’a pas une identité propre et pourtant on lui attribue le caractère d’une particule fondamentale. Un lien intangible est à mon avis clairement exprimé par G. Drexlin de l’expérience KATRIN lorsqu’il nous dit : « Un électron : version chargée du neutrino (de la saveur correspondante). » Voir article du 27/05/2012 où je propose : « Je formulerais l’hypothèse que le neutrino électronique est ce qui reste quand l’électron a perdu sa charge électrique… », et voir article du 24/09/2012 : ‘La téléportation quantique, un test pour les neutrinos’.

Ceci m’amène à proposer de considérer que l’électron est une particule composée d’une charge électrique élémentaire quantique irréductible qui est à mettre en évidence avec sa quantité de matière irréductible et effectivement quantique qui est amalgamé avec un substrat constitué de son neutrino attaché ainsi qu’il nous apparaît. En résumé : charge électrique quantique (Chequ) + Neutrino électronique attaché = électron. En conséquence ‘Chequ’ a une masse d’inertie mais pas le neutrino correspondant. Cette hypothèse met à mal le formalisme mathématique qui prétend rendre compte de l’oscillation des neutrinos.

S. Peeters, dans son article, exprime clairement que la masse des neutrinos est de nature différente à celle des autres particules fondamentales recensées : « Les masses des autres particules de matières générées par couplage avec la fameuse particule de Higgs…sont tellement plus massives… que nous croyons que la masse des neutrinos est générée d’une façon différente… » Par contre, malheureusement, aucune hypothèse n’est proposée qui étayerait ce doute.

Attribuer à des particules élémentaires sans charge électrique une masse d’inertie comme on l’observe pour des particules élémentaires avec charge électrique constitue là encore un enjambement qui ne doit pas être accepté comme tel. Il en est de même pour ce que l’on appelle la matière noire, autre domaine qui refuse de nous fournir la moindre indication du bien-fondé de nos hypothèses traditionnelles. (Les conférences internationales de l’été 2015 ont fait le constat qu’effectivement aucune trace de matière noire n’a été jusqu’à présent observée)

L’attitude de la communauté scientifique n’est pas, face à ces résistances qui durent, de se dire : « Posons-nous, prenons les crayons et réfléchissons ! » Non, l’attitude spontanée est : « Dans la continuité de nos convictions, persistons, concevons des expériences plus sophistiquées et convoquons les technologies les plus en pointent pour éclairer nos ignorances. » Ceci correspond à un renversement complet de la démarche scientifique car pour l’essentiel durant tout le 20e siècle ce sont les théories fondamentales produites préalablement qui ont orienté les expériences qui validaient ou invalidaient ces théories (au point qu‘Einstein considérait que la vérification expérimentale était secondaire quand la théorie était bien pensé). Aujourd’hui, la Théorie Quantique des Champs nous mène dans une sorte d’entonnoir dans lequel la pensée scientifique dominante est recroquevillée. Il y a 15 ans dès que fut formulée l’idée que les neutrinos devaient avoir une masse, on a sans coup férir ajouté des termes à la densité Lagrangienne du Modèle Standard établi, sans penser autrement : « Pour que les neutrinos deviennent massifs (sic), il suffit (sic) d’introduire les champs des antineutrinos gauches (ou des neutrinos droits) et d’ajouter les termes de couplage de Yukawa avec le champ scalaire de Higgs. » Cette Théorie Quantique des Champs qui façonne le Modèle Standard est tellement effective qu’elle est devenue avec le temps un mille-feuille d’hypothèses qui ne peuvent plus s’entrechoquer, se conforter, se contredire. Alors que son acte de naissance grâce à P. Dirac avait mis en évidence une puissante capacité de prédiction avec premièrement celle de l’antiélectron.

La croyance en la toute-puissance technologique induit une paresse intellectuelle collective évidente et déplace d’une façon significative la méthode ainsi que les contraintes de la production scientifique (rappelons-nous du silence scientifique abyssal consécutif à l’absence de résultat début novembre 2013, à propos de la matière noire, avec le détecteur LUX, il n’y avait pas de plan B, il n’y a toujours pas de réflexion et encore moins de conceptions alternatives). Au tout début d’avril de cette année, je fus ironique lorsqu’on annonçait la liste des découvertes qui allaient survenir grâce à la remise en route du LHC. Il tomba en panne quelques jours après ! En fait c’est beaucoup plus inquiétant car en ce mois d’octobre, il ne fonctionne toujours pas comme attendu, loin s’en faut (autant que je sache la reproduction du boson de Higgs n’a pas encore été obtenue : luminosité insuffisante et non maîtrisée). Il va falloir peut-être renoncer à ce qu’il fonctionne comme prévu dans le cahier des charges des performances initiales annoncées il y a 15 ans. Etrangement, c’est sur des sites Américains que l’on trouve premièrement l’information des ratés. L’autre jour, un responsable du CNRS, distillait sur une chaîne de télévision française que la NASA survendait sa découverte d’eau saumâtre sur Mars, parce qu’ils ont besoin de beaucoup d’argent. A contrario, le CERN masque ses difficultés, parce qu’il ne souhaite pas perdre ses budgets.

Le CERN est maintenant bien plus qu’un organisme, c’est une institution, il est un foyer de pouvoir technologique, de pouvoir économique et de pouvoir politique (voir la ronde presqu’hebdomadaire de ministres de toutes les parties du monde) et on est bien obligé de constater que cette situation parasite la rigueur qu’appelle une authentique démarche scientifique du plus haut niveau. Début 2014, le Cernbulletin a cru devoir mettre en exergue le fait que le nom de Ralph Hauer (patron du CERN) corrélé avec le nom : boson de Higgs, fut internationalement le plus cité en 2013, dans les médias (édifiante usurpation du travail des chercheurs).

S’il arrivait que l’on puisse isoler : ‘Chequ’, on isolerait certainement du même coup une quantité de matière quantique irréductible. Cette quantité de matière qui correspond au fait qu’il n’y a pas de charge électrique nue de toute matière. Alors, nous aurions isolé un objet quantique avec une seule identité qui nous apparaît sous deux versants : celui de la charge électrique unitaire et celui de la charge de matière unitaire. Ceci nous engagerait à reprendre un cheminement de pensée qu’Einstein n’a jamais pu conclure favorablement et qui l’a beaucoup préoccupée et occupée, c’est-à-dire l’unification possible de l’interaction gravitationnelle et de l’interaction électromagnétique

Partager cet article
Repost0
26 septembre 2015 6 26 /09 /septembre /2015 13:29

Non, on ne pense pas quantique. Pas encore !

Etant donné ce que j’ai écrit p.4 dans l’article du 19/08 : ‘Fondamentalement : Renoncer’, je fus alerté lorsque j’ai découvert que le mensuel ‘Science et Vie’ d’octobre annoncé en couverture, d’une façon affirmative et au présent : ‘On pense tous quantique’. Or ce que j’ai exprimé le 19/08 est un futur avec l’idée suivante : ‘Cet encore indique qu’il faut accepter l’idée que le sujet pensant évolue et évoluera et qu’ainsi : ‘penser quantique’ pourra devenir progressivement, quelque peu, plus naturel. Personne ne saurait dire, encore combien de générations (2, 3 ou 1 ou 10 ?), mais en effet on peut être assuré que cette conquête intellectuelle en marche doit avoir en retour une influence sur notre culture scientifique collective et partant induire une intelligibilité de plus en plus affûtée de ce qui est de l’ordre du quantique. Au sens propre du terme, notre bagage intellectuel s’enrichit et la pratique du raisonnement propre à la mécanique quantique dans des domaines de plus en plus variés ne peut que progressivement nous accoutumer et rendre plus naturel une pensée quantique.’

Dans ce genre de situation, ne renonçons pas à un peu d’humour en mettant en relief que à peine 2 mois séparant mon article et la première de couverture de la revue ne peuvent être confondus avec : 2, 3 ou 1 ou 10 générations. Mais les circonstances sont ainsi, une génération c’est toujours de l’ordre de 25 ans et non quelques semaines, heureusement que j’ai pris les devants à 2 mois près. Alors que penser de cette annonce à propos de la cognition quantique ? Il faut que chacun se fasse une opinion propre en lisant le N° d’octobre. Quant à moi, je considère que les travaux de S. Dehaene sont la bonne référence pour rendre compte de la richesse et de la complexité du fonctionnement cérébral du sujet pensant qui cogite (voir article du 2/11/2012 : ‘Thomas Bayes dans le cerveau’, celui du 01/01/2013 : ‘Un Monde en Présence II’ et celui du 14/10/2014 ‘Stanislas Dehaene et suite.’).

Nous ne sommes qu’aux prémices de la compréhension de ce qui se passe dans le cerveau quand le sujet pensant cogite et vouloir proposer des explications de types quantiques est clairement précipité, abusif, elles sont le fruit d’extrapolations et d’interprétations qui ne peuvent qu’être erronées. Pour résumer et avec ironie on pourrait dire : « Ce n’est pas parce que c’est multiple et complexe que cela est automatiquement quantique. Il ne faut molester ni notre cerveau ni la mécanique quantique. »

Je reste convaincu que dans la durée nous serons à même de décrypter d’une façon de plus en plus pertinente les propriétés fondamentales de la mécanique quantique et que, au moins, certains de ses postulats pourront être dénoués et deviendront directement explicites, sans pour autant qu’il y ait une cognition quantique qui soit obligatoirement à l’œuvre. Cette évolution est à mettre au compte de notre apprentissage de la mécanique quantique depuis un siècle, des succès de celui-ci, de l’enregistrement et in fine de l’adoption de ses spécificités par ceux qui plus spécifiquement la pensent, de l’accoutumance de plus en plus large de ses applications. Grâce à l’éducation profonde qui est en cours, grâce à l’évolution culturelle technologique, il en résulte et il continuera d’en résulter un enrichissement évolutif de notre cerveau et penser quantique devient et deviendra progressivement, quelque peu, plus naturel.

A côté des articles qui se veulent démonstratifs d'une soi-disant cognition quantique, il y a un article interview de M. Bitbol : directeur de recherche au CNRS (historien de la physique quantique et philosophe de la connaissance.) Il dit que « la mécanique quantique est une théorie générale (sic) de la connaissance, qui concerne toutes sortes d’objets et toutes sortes de domaines… » Non pas, répondrais-je car elle est toujours une théorie pragmatique, empirique, qui a été élaborée, au fur et à mesure, pour rendre compte de connaissances iconoclastes (quand on se réfère à la physique classique) mises en évidence lorsque l’intelligence humaine a acquis les moyens de progressivement prospecter le monde matériel infiniment petit.

Les réponses de Bitbol aux questions de l’interview sont accompagnées d’une succession de franchissements de Rubiconds du type : « Mais cet écart majeur entre les sciences de la nature et les sciences de l’homme disparaît (sic) presque entièrement avec la physique quantique, où on ne peut plus établir de séparation nette entre les propriétés des objets et l’effet que produit l’instrument servant à les mesurer.»

Je partage les commentaires de M. Bitbol, lorsqu’il s’agit d’évoquer l’histoire de l’avènement de la mécanique quantique ainsi que les commentaires à l’endroit des fondateurs de l’école de Copenhague mais malencontreusement, il exploite ceci pour affirmer une conviction systématique qu’il ne justifie pas : « Cette situation est semblable à celles des sciences humaines (sic), et il n’y a plus rien d’étonnant à ce que des propriétés analogues y soient observées. »

Ces différentes critiques et observations m’amènent à considérer que l’article du 18/03/2015 : « Décrypter la physique comme science de l’interface de l’être humain et de la Nature » est approprié car cela situe correctement le positionnement de la contribution de ce qui est de l’ordre de l’humain en ce qui concerne la production d’un savoir sur la Nature sans qu’il y ait le moindre amalgame possible. Dans cette situation, la distinction entre sciences de la nature et sciences de l’homme est claire tout en rappelant que les connaissances sont le fruit des cogitations humaines et produire des nouveaux savoirs fondamentaux de la nature c’est corrélativement mettre en évidence de nouvelles facultés ou de nouvelles aptitudes de l’être pensant.

Parmi ces aptitudes, il y a celle que je nommerai : ‘humilité tactique et savante’. Pour illustrer mon propos, je reprends l’exemple, déjà cité, des états d’âme de H. Lorentz qui un jour de la semaine, enseignait en physique classique que l’électron dans un mouvement circulaire rayonnait de l’énergie et quittait sa trajectoire, et l’autre jour de la semaine, enseignait que l’électron de l’atome d’hydrogène était parfaitement stable. La parade qui fut proposée par les initiateurs de la mécanique quantique a consisté à prendre du recul et de ne prendre en compte que l’atome d’hydrogène en tant qu’objet quantique et de le caractériser par son état : d’énergie, par exemple. Finis les états d’âme de H. Lorentz, puisqu’on a pris un recul intellectuel suffisant pour ne plus avoir à se préoccuper du ou de l’absence de rayonnement de l’électron. En évacuant ce problème insoluble, l’observateur se place dans une nouvelle situation favorable car avec le mot état quantique il y a l’idée de permanence, de stabilité, de constance, bref il faut du temps pour que l’observateur reconnaisse et déclare : l’objet est dans un état quantique. Ce terme, donc cette prise de position, est un pis-aller, le fruit d’un renoncement nécessaire à propos du comportement physique de l’électron mais aussi un gain tactique car il est bien connu qu’un physicien peut reprendre la main, peut dire quelque chose sur des objets lorsqu’il y a de l’invariance, de la constance, et c’est impératif.

En conséquence, cette modestie-là, ce provisoire (qui a commencé il y a un siècle), Einstein aurait peut-être pu l’accepter si ce provisoire lui avait été proposé par Bohr ou d’autres collègues. Qui sait !

Partager cet article
Repost0
8 septembre 2015 2 08 /09 /septembre /2015 12:57

~~La conquête de tous les possibles

C’est un ersatz d’effet papillon qui m’a amené à écrire l’article que je vous propose.

Premier battement : j’ai ressorti de ma bibliothèque le livre que je vous ai recommandé dans le précédent article du 02/09 : ‘Les fondements philosophiques de la mécanique quantique’ de Grete Hermann que j’avais analysé en 1996. J’ai relu dans la préface p. 9 de B. d’Espagnat (décédé il y a quelques semaines et reconnaissons qu’il nous a laissé une réflexion riche sur la science et sur la philosophie quoi qu’on en pense) : « Pour s’en rendre compte, il suffit de se rappeler qu’aussi bien les penseurs qui plaçaient la causalité au sein des choses que ceux qui la mettaient avant tout dans l’esprit humain l’identifiaient au déterminisme et voyaient dans ce dernier une condition sine qua non de la possibilité de la science. » Adopter l’un des points de vue : la causalité au sein des choses ou dans l’esprit humain, permet toujours de concevoir une pensée scientifique mais conduit à avoir un rapport avec la connaissance scientifique totalement clivé et partant conduit à concevoir des représentations du monde totalement divergentes.

Deuxième battement : je me suis remémoré, le cours de S. Dehaene, il y a 3 ans au Collège de France, qui précisait qu’il était possible d’affirmer qu’un bébé intégrait très précocement l’ordre cause- effet (voir article du 24/03/2013 : ‘Scientifiques, façonnés dès la naissance’). L’état de la recherche effectuée ne pouvait pas encore dire si cela était inné ou un des premiers acquis post-natal. Il me semble que depuis aucune précision n’a été apportée. Ce sera sans doute difficile de fournir une réponse finale tranchée car il est assuré maintenant que la communication avec le monde extérieur est précoce pour un bébé bien avant la naissance, de facto, il y a donc un apprentissage qui est engagé in utero. Mais n’excluons pas que nous pourrions finir par être capable de prouver scientifiquement que l’une des possibilités exclusive de l’autre est la bonne, en ce cas le point de vue philosophique de la source de la causalité n’aura plus lieu d’être, il sera relégué par celui de l’anthropologie, de la science.

Troisième battement : je me suis empressé de retrouver un article de septembre 2008 dans ‘Pour la Science’ que je n’ai jamais évoqué (et pour cause !) depuis sa lecture : ‘L’univers quantique auto-organisé’ de J. Ambjorn, J. Jurkiewicz, R. Loll. Dans cet article il y a un passage qui m’a évidemment fait sursauter, au moment de la lecture, car inacceptable selon mon point de vue : p.49 «… nous avons alors imaginé incorporer la structure causale à un stade plus précoce. Nous considérons que la causalité est une propriété fondamentale de la nature (sic) plutôt qu’une propriété émergente. » Voilà qui est dit sans coup férir ! Mais pas vraiment pensé quant aux conséquences vertigineuses de leur hypothèse si on se réfère à leur présentation : « Quel est donc le problème de la gravitation quantique euclidienne ? Nous avons fini par identifier l’ingrédient (sic) indispensable qui manque à la recette (sic) : la construction doit intégrer la causalité. En d’autres termes, l’espace-temps vide doit avoir une structure qui permet de distinguer naturellement et sans ambiguïté les causes et les effets. » Ceci permet aux chercheurs de modéliser par une approche nommée triangulation dynamique causale un espace-temps quantique qui à grande échelle devient l’espace-temps de la relativité générale. Pour conforter la pertinence de leurs travaux les auteurs précisent : « A ce jour, l’introduction de la causalité dans les modèles de gravitation quantique est le seul remède connu aux instabilités des géométries d’espace-temps superposés. »

Il n’est pas rassurant de constater que la pensée de physiciens puisse être réduite à trouver le bon ingrédient pour que la recette fournisse le bon modèle. Il m’est arrivé assez fréquemment de pointer ce type de dérive provoqué par un usage abusif des moyens techniques (ici, informatiques) qui permet d’éviter de penser aux fondements des hypothèses formulées : on calcule puis on pensera (peut-être) après. Qui a pu formuler ce type d’injonction ? : « Calcule et tais-toi ! »

Il ne faut pas oublier, comme le rappelle W. Heisenberg en 1934 : « Que nos formes d’intuition spatio-temporelle et le principe de causalité ne sont pas indépendants de toute expérience si l’on entend par là qu’elles devraient nécessairement demeurer à tout jamais des éléments constitutifs du contenu de toute physique. D’autre part, comme Bohr l’a tout particulièrement souligné, même dans la physique moderne (quantique) l’applicabilité de ces formes de l’intuition et du principe de causalité est présupposée pour toute expérience scientifique objective. », que l’espace-temps tel que le sujet pensant ‘l’intuite’ et principe de causalité comme le fonde le même sujet pensant sont liés.

Bien que l’espace-temps est de l’ordre de l’intuition du sujet pensant et la causalité d’un autre ordre c’est-à-dire d’un ordre un peu plus réflexif, l’interdépendance ne fait pas de doute. En fait, selon mon hypothèse, la causalité est dans l’esprit humain, elle met en évidence la spécificité de l’intelligence humaine, qui n’est pas universelle mais génère des règles fondamentales à l’aune de ses déterminations. La causalité serait de fait plus représentative des modalités du fonctionnement de notre cerveau qu’un prélèvement, une adoption, de ce qui existerait déjà dans la nature avant l’émergence d’une intelligence primordiale. Si la causalité était dans les choses naturelles, il faudrait admettre que la Nature bénéficie d’une guidance, qu’elle est marquée par un dessein. Or selon mon point de vue, la Nature ne peut comprendre la moindre détermination. Elle comprend tous les possibles, sans limite.

Grâce aux moyens nouveaux propres à l’imagerie cérébrale nous observons et nous comprenons que lorsqu’une pensée chemine (cause première), il y a concomitance avec des flux physiques induits qui cheminent effectivement dans notre cerveau. Il est observé aussi qu’il y a toujours une vitesse finie de cheminement. Il y a donc un début et un aboutissement de ce cheminement qui se distinguent clairement. A un avant, il y a un après qui lui est corrélé. Il y a donc un ordre temporel explicite qui s’impose étant données les spécificités physiques de notre cerveau comme support de notre faculté de penser. C’est cet ordre-là qui sous-tend l’ordre causal qui caractérise l’être humain.

Selon ma conception je m’inscris en opposition aux auteurs de l’article : « L’univers quantique auto-organisé ». Non seulement, je considère que la causalité est émergente et non pas fondamentalement dans la nature, j’ajoute que ceci est aussi évidemment ma conviction en ce qui concerne le temps et l’espace (avec une nuance pour l’espace car je pense que l’espace référent de la nature à l’échelle de l’émergence physique humaine induit la représentation de l’espace que l’être humain véhicule effectivement. (Voir article du 26/08/2014 :’Un authentique Big-Bang’))

La nature ne comprend aucune détermination, elle est la somme de tous les possibles. Notre univers tel que nous le concevons actuellement est un de ces possibles, il est la conséquence de la projection de nos déterminations, donc de nos capacités actuelles de concevoir mais il y aura dépassement et par extension nous accèderons à d’autres possibles dont certains ont déjà été potentiellement évalués et ne sont pas tabous (Multivers, les mondes multiples d’Everett, les paysages multiples de la théorie des cordes). A ce propos, je cite Jean-Philippe Uzan (directeur de recherche au CNRS) : « Tout d’abord, je pense qu’il ne faut jamais avoir peur de penser plus grand que ce que l’on connaît. L’homme a toujours décrit un Univers représentant ce qu’il était capable d’observer et de concevoir à une époque donnée. Au fil du temps, notre vision s’est élargie – de la planète Terre au Système solaire, puis à notre galaxie… –, et l’on peut finalement penser, à chaque étape, que cette structure que nous appelons « Univers » n’est pas une structure finale mais plutôt un élément dans un ensemble plus grand. Parce que si l’on veut donner sens à cette structure, la seule façon de le faire est de l’inclure dans quelque chose de plus large. C’est une démarche intellectuelle tout à fait naturelle et qui permet de poser des questions sur la « naturalité » du système que l’on décrit (est-il commun ou bien très particulier dans l’ensemble des univers théoriques que l’on se permet d’imaginer ?), questions que l’on ne peut pas aborder avec un objet unique. » p.37-38 dans ‘Multivers. Mondes possibles de l’astrophysique, de la philosophie et de l’imaginaire’, édit. ‘La ville brûle’, 2012.

Plus précisément, ma métaphysique s’exprime ainsi :

La somme de tous les possibles est l’Eternité. Lorsque le sujet pensant aura atteint la connaissance de tous les possibles, ce qui demandera un temps infini, il rejoindra l’éternité qui est celle de la Nature. En fait Eternité et Nature sont consubstantielles. L’éternité c’est équivalent à l’atemporalité, l’absence de chronologie.

Cet aboutissement demandera au sujet pensant un temps infini. Le concept de temps, est un concept qui est le symptôme existentiel de la nécessité d’avoir un support intelligible pour projeter devant soi l’infini. L’infini n’est pas l’expression d’une ignorance, il est l’expression d’une finalité perçue, conçue, mais à jamais accessible. Quand l’éternité est hypothétiquement atteinte, quid du temps ? Plus d’écoulement, le sujet pensant a non seulement rejoint l’éternité mais il en est son représentant. L’éternité est le tout qui est embrassé.

Quid de l’espace ? Idem, il n’y a plus d’espace car l’omniprésence est de fait tout autant spatiale que temporelle. Ainsi l’espace et le temps sont des concepts ‘transitoires’ et émergents et cela les détermine. Par conséquent toutes nos équations sont imprégnées de ces déterminations et les lever les unes après les autres est le défi permanent du sujet pensant. Toujours est-il que c’est la condition pour qu’émergent de possibles nouveaux paradigmes en science physique.

Comme le suggère Ph. Uzan, la vraie genèse que nous mettons en évidence n’est pas celle de l’univers à partir de son Big Bang, nous avons plutôt sous la pointe du crayon, dans nos formules, la dynamique du développement de nos connaissances à partir du Big Bang du surgissement d’une intelligence primordiale, il y a 10 millions d’années, qui est à l’origine de l’intelligence humaine. Il ne faut pas exclure que dans d’autres lieux, d’autres intelligences totalement distinctes de la nôtre, développent d’autres scénarios de conquête de l’Eternité.

Partager cet article
Repost0
2 septembre 2015 3 02 /09 /septembre /2015 15:37

~~ Il ne faut pas raboter les beaux reliefs de l’histoire de l’avènement de la physique quantique

. J’ai beaucoup hésité avant de me décider d’écrire cet article parce que j’ai déjà traité le sujet dans l’article du 28/07/ et l’article du 06/08. Ainsi, je risque d’être accusé de radotage manifeste. Mais j’ai posté le 18/03/2015 : ‘Décrypter la physique comme science de l’interface de l’être humain et de la Nature !’ et cela signifie à mes yeux qu’une errance manifeste dans la compréhension et l’interprétation des lois physiques peut conduire à une régression de la compréhension des capacités du ‘sujet pensant’ à investir les propriétés de la nature ainsi qu’à développer favorablement la compréhension de ses capacités propres qui sont en jeux.

L’article qui me fait réagir provient du site du ‘NewScientist’, le 29/08 : ‘Quantum weirdness proved real in first loophole-free experiment’ c’est-à-dire : ‘L’étrangeté (la bizarrerie) quantique prouvée réelle (sic) dans l’expérience de la première faille-libre’. Je joins l’article original à la fin du présent. En fait cet article confirme les propriétés de l’intrication, reconnues depuis l’expérience d’Alain Aspect (1982), dans cette première faille. Comme cela est rapporté par Sandu Popescu dans l’article : « La plupart des personnes s’attendaient au résultat que l’expérience (d’intrication) a confirmé. » A propos de l’hypothèse de (des) faille(s), j’ai abordé ce sujet dans un article le 13/10/2011 : « Si faille il y a, quelle est sa nature ? »

Ce qui est contestable dans cet article c’est l’affirmation répétée qu’il y aurait un monde quantique réel et par exemple la propriété de l’intrication confirmerait cette réalité. Il est aussi attribué d’une façon abusive à N. Bohr la pensée que : « Nous devrions accepter la nouvelle réalité quantique. » Affirmer ceci est évidemment lourdement trompeur puisque cela laisse entendre que le problème du statut ontologique de ce qui a été identifié par les voies de la mécanique quantique n’a pas été posé et qu’il serait résolu. Cela est faire fi de la richesse remarquable des confrontations intellectuelles qui se sont engagées entre les physiciens depuis son avènement. Il n’est pas possible de considérer que ce débat est tranché, loin s’en faut, et les propos qui visent à banaliser une pensée générale, définitivement établie, d’une réalité quantique sont des propos qui falsifient l’histoire et la science physique quantique.

On peut comprendre depuis la découverte des lois quantiques et les applications remarquables et multiples qui sont mises en œuvre et cela n’est pas clos, peut conduire, grâce à cette familiarisation, à considérer que le monde quantique est… réel. Cette familiarisation objective n’autorise pas pour autant à tomber dans la facilité intellectuelle. Nous ne devons pas nier nos déterminations comme le rappel A. Zeilinger : « La notion du réalisme locale est tellement enracinée dans notre pensée quotidienne (sic), même en tant que physicien, qu’il est très important de fermer définitivement toute les failles (à propos de la propriété de l’intrication) » Zeilinger nous dit pourquoi cette vigilance intellectuelle est nécessaire : parce que en tant que ‘sujet pensant’ nous ne pouvons pas échapper à nos déterminations qui se sont forgées au cours de nos rapports constitutifs avec la nature à l’échelle classique. A l’origine nous sommes un ‘Être de la nature’. C’est par un lent processus de ‘dénaturation’ (l’évolution) que cet être de la nature est devenu ‘Être dans la nature’ que nous sommes, installé en surplomb sur un socle, et il n’y a pas de raison de considérer que cette évolution a atteint son stade ultime. (Voir l’article du ‘Monde’ du 02/09 : ‘L’humain « augmenté » ad vitam aeternam.’)

En septembre 1927, à Côme, N. Bohr exposa que d’une part la théorie quantique apporte une limitation essentielle aux concepts de la physique classique dans leur application aux phénomènes atomiques ; mais d’autre part, elle exige que les données expérimentales soient interprétées à l’aide de ces mêmes concepts classiques. Pourquoi ? Simplement parce que les expériences sont nécessairement faites à l’aide d’appareils de dimensions macroscopiques, c’est-à-dire à l’échelle humaine. Bohr précisera plus tard, dans son compte rendu de ses discussions avec Einstein, qu’à son avis cette description classique est même nécessaire. Le mot « expérience » légitime « une situation où nous pouvons dire à d’autres hommes ce que nous avons fait et ce que ne avons appris ». Cela veut dire que nous pouvons décrire le dispositif de l’expérience et ses résultats. Or les concepts de la physique classique sont particulièrement intelligibles, dans la mesure où ils se réfèrent à notre expérience quotidienne (sic). Bohr en vient au cœur de la question, à ce qu’il appelle le postulat quantique. Selon ce postulat, toute observation des phénomènes atomiques entraîne une interaction avec l’instrument d’observation qui ne peut être négligée. « On ne peut par conséquent attribuer une réalité indépendante, au sens physique ordinaire de ce mot, ni aux phénomènes ni aux instruments d’observation. » Autrement dit, par exemple, on ne peut attribuer ni à l’électron ni à l’instrument d’observation une réalité physique autonome.

Ainsi, est explicitée la raison pour laquelle je m’insurge à propos de l’écrasement de l’histoire des problèmes soulevés par l’avènement de la physique quantique. Mon propos n’est pas de défendre une histoire passée mais tout simplement de rappeler que nous n’avons toujours pas présentement les moyens de trancher ces problèmes qui ont été soulevés. En tous les cas l’affirmation de l’existence d’une réalité quantique est le résultat d’une falsification intellectuelle, d’autant plus inacceptable lorsqu’elle est attribuée à des physiciens qui n’ont jamais dit, ni put penser, une telle chose, au contraire.

Présentement, malgré un siècle de développement de connaissances en mécanique quantique nous ne nous pouvons pas identifier les systèmes qu’elle décrit à des ondes ou à des particules proprement dites, bien qu’on ne puisse se passer de tels concepts pour ordonner la diversité de nos perceptions. Nous devons toujours rapporter toutes les connaissances physiques à leurs conditions d’obtentions (telles qu’ils nous apparaissent). En ce sens, l’objectivité définie comme ce qui concerne l’objet lui-même en tant qu’isolé des moyens dont dispose le sujet pour le connaître, est toujours bannie de la représentation quantique.

Il y a beaucoup d’ouvrages qui restituent sérieusement l’histoire de l’avènement de la mécanique quantique. Je peux conseiller celui de ‘Grete Hermann : ‘Les fondements philosophiques de la mécanique quantique.’, de Léna Soler, préfacé par B. D’Espagnat, édit. Vrin, 1996. Ou encore : ‘La partie et le tout’ de W. Heisenberg, notamment pages : 168 – 173. Flammarion, 1990.

A l’occasion, je rappelle que dans l’article précédent du 24/08 : ‘Où se trouve la vérité ?’, j’ai exprimé une sérieuse inquiétude à propos des ambiguïtés sur la vérité du fonctionnement du LHC. Un nouvel article sur le site ‘Techno-Science’, le 27/08, lève un peu plus le voile sur le fait que 2015 sera quasiment une année blanche : « Nous n'en sommes encore qu'au début, ajoute Mike Lamont. Nous savions qu'exploiter l'accélérateur à 13 TeV serait un défi. Mais 2015 est vraiment une année de remise en service. Même si l'année sera courte pour la physique des protons, nous jetons déjà les bases pour 2016 et pour le reste de la deuxième période d'exploitation. »

Quantum weirdness proved real in first loophole-free experiment

Welcome to quantum reality (sic)

It’s official: the universe is weird. Our everyday experience tells us that distant objects cannot influence each other, and don’t disappear just because no one is looking at them. Even Albert Einstein was dead against such ideas because they clashed so badly with our views of the real world.

But it turns out we’re wrong – the quantum nature of reality means, on some level, these things can and do actually happen. A groundbreaking experiment puts the final nail in the coffin of our ordinary “local realism” view of the universe, settling an argument that has raged through physics for nearly a century.

Teams of physicists around the world have been racing to complete this experiment for decades. Now, a group led by Ronald Hanson at Delft University of Technology in the Netherlands has finally cracked it. “It’s a very nice and beautiful experiment, and one can only congratulate the group for that,” says Anton Zeilinger, head of one of the rival teams at the University of Vienna, Austria. “Very well done.”

To understand what Hanson and his colleagues did, we have to go back to the 1930s, when physicists were struggling to come to terms with the strange predictions of the emerging science of quantum mechanics. The theory suggested that particles could become entangled, so that measuring one would instantly influence the measurement of the other, even if they were separated by a great distance. Einstein dubbed this “spooky action at a distance”, unhappy with the implication that particles could apparently communicate faster than any signal could pass between them.

What’s more, the theory also suggested that the properties of a particle are only fixed when measured, and prior to that they exist in a fuzzy cloud of probabilities.

Nonsense, said Einstein, who famously proclaimed that God does not play dice with the universe. He and others were guided by the principle of local realism, which broadly says that only nearby objects can influence each other and that the universe is “real” – our observing it doesn’t bring it into existence by crystallising vague probabilities. They argued that quantum mechanics was incomplete, and that “hidden variables” operating at some deeper layer of reality could explain the theory’s apparent weirdness.

On the other side, physicists like Niels Bohr insisted that we just had to accept the new quantum reality, since it explained problems that classical theories of light and energy couldn’t handle.

Test it out

It wasn’t until the 1960s that the debate shifted further to Bohr’s side, thanks to John Bell, a physicist at CERN. He realised that there was a limit to how connected the properties of two particles could be if local realism was to be believed. So he formulated this insight into a mathematical expression called an inequality. If tests showed that the connection between particles exceeded the limit he set, local realism was toast.

“This is the magic of Bell’s inequality,” says Zeilinger’s colleague Johannes Kofler. “It brought an almost purely philosophical thing, where no one knew how to decide between two positions, down to a thing you could experimentally test

.” And test they did. Experiments have been violating Bell’s inequality for decades, and the majority of physicists now believe Einstein’s views on local realism were wrong. But doubts remained. All prior experiments were subject to a number of potential loopholes, leaving a gap that could allow Einstein’s camp to come surging back.

“The notion of local realism is so ingrained into our daily thinking, even as physicists, that it is very important to definitely close all the loopholes,” says Zeilinger.

Loophole trade-off

A typical Bell test begins with a source of photons, which spits out two at the same time and sends them in different directions to two waiting detectors, operated by a hypothetical pair conventionally known as Alice and Bob. The pair have independently chosen the settings on their detectors so that only photons with certain properties can get through. If the photons are entangled according to quantum mechanics, they can influence each other and repeated tests will show a stronger pattern between Alice and Bob’s measurements than local realism would allow.

But what if Alice and Bob are passing unseen signals – perhaps through Einstein’s deeper hidden layer of reality – that allow one detector to communicate with the other? Then you couldn’t be sure that the particles are truly influencing each other in their instant, spooky quantum-mechanical way – instead, the detectors could be in cahoots, altering their measurements. This is known as the locality loophole, and it can be closed by moving the detectors far enough apart that there isn’t enough time for a signal to cross over before the measurement is complete. Previously Zeilinger and others have done just that, including shooting photons between two Canary Islands 144 kilometres apart.

Close one loophole, though, and another opens. The Bell test relies on building up a statistical picture through repeated experiments, so it doesn’t work if your equipment doesn’t pick up enough photons. Other experiments closed this detection loophole, but the problem gets worse the further you separate the detectors, as photons can get lost on the way. So moving the detectors apart to close the locality loophole begins to widen the detection one.

“There’s a trade-off between these two things,” says Kofler. That meant hard-core local realists always had a loophole to explain away previous experiments – until now.

“Our experiment realizes the first Bell test that simultaneously addressed both the detection loophole and the locality loophole,” writes Hanson’s team in a paper detailing the study. Hanson declined to be interviewed because the work is currently under review for publication in a journal.

Entangled diamonds

In this set-up, Alice and Bob sit in two laboratories 1.3 kilometres apart. Light takes 4.27 microseconds to travel this distance and their measurement takes only 3.7 microseconds, so this is far enough to close the locality loophole.

Each laboratory has a diamond that contains an electron with a property called spin. The team hits the diamonds with randomly produced microwave pulses. This makes them each emit a photon, which is entangled with the electron’s spin. These photons are then sent to a third location, C, in between Alice and Bob, where another detector clocks their arrival time.

If photons arrive from Alice and Bob at exactly the same time, they transfer their entanglement to the spins in each diamond. So the electrons are entangled across the distance of the two labs – just what we need for a Bell test. What’s more, the electrons’ spin is constantly monitored, and the detectors are of high enough quality to close the detector loophole.

But the downside is that the two photons arriving at C rarely coincide – just a few per hour. The team took 245 measurements, so it was a long wait. “This is really a very tough experiment,” says Kofler.

The result was clear: the labs detected more highly correlated spins than local realism would allow. The weird world of quantum mechanics is our world.

“If they’ve succeeded, then without any doubt they’ve done a remarkable experiment,” says Sandu Popescu of the University of Bristol, UK. But he points out that most people expected this result – “I can’t say everybody was holding their breath to see what happens.” What’s important is that these kinds of experiments drive the development of new quantum technology, he says.

One of the most important quantum technologies in use today is quantum cryptography. Data networks that use the weird properties of the quantum world to guarantee absolute secrecy are already springing up across the globe, but the loopholes are potential bugs in the laws of physics that might have allowed hackers through. “Bell tests are a security guarantee,” says Kofler. You could say Hanon’s team just patched the universe.

Freedom of choice There are still a few ways to quibble with the result. The experiment was so tough that the p-value – a measure of statistical significance – was relatively high for work in physics. Other sciences like biology normally accept a p-value below 5 per cent as a significant result, but physicists tend to insist on values millions of times smaller, meaning the result is more statistically sound. Hanson’s group reports a p-value of around 4 per cent, just below that higher threshold.

That isn’t too concerning, says Zeilinger. “I expect they have improved the experiment, and by the time it is published they’ll have better data,” he says. “There is no doubt it will withstand scrutiny.”

And there is one remaining loophole for local realists to cling to, but no experiment can ever rule it out. What if there is some kind of link between the random microwave generators and the detectors? Then Alice and Bob might think they’re free to choose the settings on their equipment, but hidden variables could interfere with their choice and thwart the Bell test.

Hanson’s team note this is a possibility, but assume it isn’t the case. Zeilinger’s experiment attempts to deal with this freedom of choice loophole by separating their random number generators and detectors, while others have proposed using photons from distant quasars to produce random numbers, resulting in billions of years of separation.

None of this helps in the long run. Suppose the universe is somehow entirely predetermined, the flutter of every photon carved in stone since time immemorial. In that case, no one would ever have a choice about anything. “The freedom of choice loophole will never be closed fully,” says Kofler. As such, it’s not really worth experimentalists worrying about – if the universe is predetermined, the complete lack of free will means we’ve got bigger fish to fry.

So what would Einstein have made of this new result? Unfortunately he died before Bell proposed his inequality, so we don’t know if subsequent developments would have changed his mind, but he’d likely be enamoured with the lengths people have gone to prove him wrong. “I would give a lot to know what his reaction would be,” says Zeilinger. “I think he would be very impressed.”

Partager cet article
Repost0
24 août 2015 1 24 /08 /août /2015 17:43

~~Où se trouve la vérité ?

Le 21/08, un article pessimiste a été écrit à propos du redémarrage du LHC : « High-energy LHC plans held up by UFOs and electron clouds » sur le site du NewScientist. L’original est à la fin de l’article et je vous en propose une traduction avant de commenter cette situation.

‘Le programme du LHC retardé par des ‘UFOs et des nuages d’électrons’

« Remettre en route le LHC s’avère être plus difficile que prévu. Les chercheurs du LHC disent que le programme des ‘runs’ pour réaliser des expériences à plus haute énergie sera retardé jusqu’à l’année prochaine.

Le LHC a été relancé en avril, après un arrêt de 2 années, pour améliorer la machine. Durant le run 2, il doit être capable de nous fournir des données physiques à l’énergie de collision de 13 Tev, niveau jamais atteint jusqu’à présent. Mais les chercheurs en charge d’assurer cette entreprise et ces performances, ont annoncé cette semaine dans une conférence à Ljubjana, que cela ne se déroule pas comme prévu.

« Le processus est plus lent que ce que nous avions espéré. » nous dit Paul Collier, le responsable des faisceaux. Des nuages d’électrons et des particules de poussières microscopiques tombantes non identifiées (UFOs) interrompent les faisceaux et rendent plus difficile la mise en route pour réaliser les expériences de physique.

Ces effets étaient déjà présents dans le run 1, mais l’accroissement de l’énergie et les efforts pour accroître le nombre de collision en rapprochant les paquets de protons, accroissent les difficultés pour le lancement du run 2.

P. Collier dit que l’équipe avait anticipé ces difficultés mais le temps pour traiter ces problèmes est plus long que prévu. « Nous sommes très près de la limite de ce que la machine peut faire, donc la machine est moins indulgente. » dit-il.

Réamorcer le problème.

Ce n’est pas le premier problème cette année : un court-circuit en mars avait retardé la relance. L’équipe est en retard de quelques semaines pour préparer les faisceaux. Mais comme la qualité de ceux-ci devient meilleure et les faisceaux sont plus stables avec la durée des runs, il ne sera pas possible cette année d’atteindre le bon niveau pour faire significativement de la physique (sic). « Chaque étape est largement supérieure en difficultés à ce que nous avons affronté auparavant, et c’est seulement à la fin de ce processus que nous produisons massivement des données. »

Les chercheurs espèrent maintenant atteindre seulement 3/1 fembtobarns (3 fb-1), l’ésotérique mesure de la qualité du faisceau, pour cette année, au lieu de 10 planifiés. (Cette grandeur permet d’évaluer la probabilité des collisions p-p au cœur des détecteurs). Pour préciser le contexte, la découverte du boson de Higgs a été obtenue à 12 fb-1, nous sommes donc loin du compte.

« J’ai bon espoir pour 2016. » dit Collier. »

Il est étonnant que cet article alarmant provienne d’un site Américain, alors qu’aucun site Français n’informe de cette situation. Je crains même qu’il y ait comme une politique de l’autruche qui soit à l’œuvre. En effet le 11/08, un site Français : ‘Techno-Sciences’ a publié un article : Dernières nouvelles du LHC : le développement de la machine. Laissant croire que tout se déroulait comme prévu :

« Le calendrier de fonctionnement du LHC prévoit des semaines de "développement de la machine" pendant lesquelles les équipes étudient de façon fine et optimisent la performance de la machine. La première session de développement de la machine de la deuxième exploitation s'est terminée le samedi 25 juillet. Malgré divers contretemps, elle a permis aux opérateurs de réaliser de grands progrès en vue de l'amélioration de la performance du LHC à long terme. » Ensuite, l’article se termine ainsi : « À la fin de la période de développement de la machine, le LHC est entré dans sa deuxième campagne de nettoyage, une période de deux semaines qui vise à préparer complètement la machine pour l'exploitation avec des paquets espacés de 25 nanosecondes, prévue pour les premières semaines d'août.(sic) »

L’ensemble de l’article laisse entendre que tout est sous contrôle et l’abus du terme : développement, vise à masquer les difficultés révélées dans l’article du N.S. On est en droit d’espérer une véritable objectivité. Est-ce que le CERN, en tant qu’institution, a besoin que soient occultées ses difficultés ? Si l’article du N.S est juste, cela veut dire que nous allons connaître une troisième année blanche, malgré les énormes investissements consentis. N’oublions pas qu’il n’y a pas d’équivalent au LHC dans le monde qui soit en activité. Est-ce que la stratégie des super-machines en un seul exemplaire est une bonne stratégie ? Alors que l’on fait déjà les études d’un super LHC de 100km de diamètre.

High-energy LHC plans held up by UFOs and electron clouds

Kicking the world’s largest machine into overdrive is turning out to be harder than expected. Researchers at the Large Hadron Collider at CERN, near Geneva in Switzerland, say that plans to run their physics experiments at higher energies are likely to be delayed until next year.

The LHC was rebooted in April, after a two-year shutdown to upgrade the machine. In the second run, it should be able to gather physics data at energies of 13 teraelectronvolts, the highest-energy collisions of particle beams ever. But researchers in charge of getting it up and running again, who this week presented the first report on the LHC’s performance at a conference in Ljubljana, Slovenia, have revealed that things haven’t quite gone as planned.

“The process is slightly slower than we would have hoped,” says Paul Collier, the LHC’s head of beams. Clouds of electrons created by ionised gas in the beam chamber and microscopic dust particles – playfully known as unidentified falling objects, or UFOs – are interrupting the beams and making it harder to get the LHC running consistently.

These effects were present in the LHC’s previous run, but the higher energies, plus efforts to produce more frequent collisions by bunching particles in the beam closer together, make them a larger problem than before.

Collier says the team had anticipated such potential issues, but they have taken some time to deal with. He compares it to driving a car at high speed: although you might be fine at 50 kilometres per hour, things start rattling when you reach 150 kph. “Everything is much closer to the limits of what the equipment can do, so the machine is less forgiving,” he says.

Reboot hitch

It’s not the first problem this year: a short circuit in March delayed the reboot. The team is only a few weeks behind schedule in preparing beams for the LHC’s various experiments. But because the quality of the beam gets better and more stable the longer it runs, there won’t be time this year to reach peak physics. “Each stage is vastly superior to everything that happens before it, so it’s only towards the end of this process that you’re really mass-producing data,” says Collier.

The researchers now expect to only reach 3 inverse femtobarns (3 fb-1) – the esoteric measurement of beam quality – this year, down from a planned 10. To put this in context, the long-sought Higgs boson was discovered after the LHC reached 12 fb-1.

But they are still on target to reach 30 fb-1 next year, once they understand how to handle their souped-up collider. “We’re learning an awful lot that will help us run the machine even better,” says Collier. “I have good hopes for 2016.”

Partager cet article
Repost0
19 août 2015 3 19 /08 /août /2015 10:34

~~Fondamentalement : RENONCER.

Lorsque Planck a dû intégrer formellement, dans son équation de la densité d’énergie du rayonnement du corps noir, que l’échange d’énergie entre le rayonnement et la matière du corps noir se faisait par valeur discrète, il l’a fait par nécessité mais sans renoncer pour autant à dépasser a postériori cette discontinuité des échanges d’énergie. Par nécessité parce que la courbe représentant la variation de la densité d’énergie en fonction de la fréquence du rayonnement était expérimentalement bien connue. Et à la suite de bien des tâtonnements (les siens et ceux de ses contemporains), il a fini par constater que l’adéquation était obtenue lorsqu’il prenait en compte ce concept de la discontinuité de l’échange. Rappelons, parce que c’est essentiel, pour Planck c’était du provisoire car la continuité classique des échanges entre les différents éléments de la nature était définitivement établie et incontournable.

En conséquence cette conception des échanges d’énergie par quantum n’a pas été pensée a priori et n’était pas pensable a postériori par son découvreur. Malgré la signification physique apportée par Einstein en 1905 : E = hν, la certitude de Planck, que l’explication aux moyens de la physique classique s’imposera, continua d’habiter son esprit.

Une loi aussi fondamentale n’a donc pas été pensée et par ricochet cela a conduit au développement à l’aveugle de certains domaines de cette nouvelle physique parce que la loi de Planck est remarquablement exacte quand on se référe aux résultats expérimentaux. Tous les raisonnements qui obtiennent après coup de retrouver cette loi, d’un point de vue formel, sont validés, sans qu’ils soient pour autant a priori franchement cogités. La conception empirique s’impose. Il en est ainsi des propositions de Satyendranath Bose et partant de la statistique de Bose-Einstein et de son reflet fermionique : la statistique de Fermi-Dirac.

Empiriquement, des valeurs discrètes se sont aussi imposées en physique atomique pour rendre compte ce qui était observé à propos du rayonnement atomique, par exemple à propos des atomes hydrogénoïdes avec la formule de Balmer. La mécanique de Bohr-Sommerfeld postule que pour rendre compte des différentes longueurs d’onde des rayonnements émis il faut admettre que les électrons constitutifs de ces atomes orbitent en suivant des trajectoires qui ne peuvent être que spatialement distinctes. En faisant appel à la mécanique ondulatoire, ils déterminent que la dimension des orbites doit coïncider avec un nombre entier de longueurs d’onde.

De 1900, avec Planck, à la fin des années 1910, des observations accumulées concernant l’échelle atomique ont obligé les physiciens à admettre que les phénomènes observés pouvaient être intelligibles si, et seulement si, on acceptait l’idée qu’à cette échelle, les interactions, les échanges, entre matière et rayonnement ne pouvaient se faire qu’aux moyens, d’interactions, d’échanges, qui mettaient en évidence de valeurs discrètes qui sont les observables des grandeurs physiques en jeu.

« Ont obligé les physiciens à admettre… », est euphémique car très peu ne pouvaient admettre cette obligation (voir article du 06/08). Leurs références étant celles de la physique classique qui révélait continument une adéquation acceptable entre ce qui était pensé et ce qui était directement observé. Toutes les tentatives de ces physiciens de rétablir l’entendement réaliste classique pour rendre compte des propriétés physiques à l’échelle atomique échouèrent. Cet échec pouvait conduire à des tourments d’ordre déontologique comme le confiait H. A. Lorentz qui, dans son université, un jour de la semaine enseignait en amphi qu’en physique à l’échelle classique un électron sur une trajectoire circulaire rayonnait de l’énergie et donc la courbure de sa trajectoire sans cesse se modifiait et était donc de type spirale et l’autre jour de la semaine il enseignait que l’électron sur une orbite atomique ne rayonnait aucune énergie et en conséquence suivait une trajectoire stable.

Les fondateurs de la mécanique quantique ont donc postulé qu’il fallait renoncer, à vouloir rendre compte d’une façon classique de ces propriétés lorsque l’on changeait d’échelle et renoncer à expliquer le pourquoi et le comment de cette transition. Le nouveau paradigme de la physique postule que la base du savoir à l’échelle quantique, c’est l’acceptation (sans arrière-pensée) des valeurs discrètes des grandeurs physiques relatives à l’échelle atomique et en deçà qui sont observées aux moyens des instruments de mesure (qui ne peuvent être que de dimension classique). Alors, de cette acceptation, il peut être édifié un savoir des propriétés quantiques, bien qu’elles ne soient pas a priori intuitives.

En 1935, l’article EPR indique avec force l’extraordinaire inertie intellectuelle d’Einstein et de ses nombreux collègues vis-à-vis de la mécanique quantique et rappelle que selon lui, la bonne pensée du physicien est celle qui révèle une réalité… classique : « Dans une théorie complète, il existe un élément correspondant à chaque élément de réalité. », et à toute quantité physique mesurée correspond un élément de réalité qui lui est attaché.

Entrer dans l’acceptation de la description quantique du monde de l’infiniment petit, implique un renoncement, renoncer à pouvoir penser : c’est ainsi parce que je conçois… c’est ainsi parce qu’elle est… par : c’est ainsi parce que la nature me donne à observer… c’est ainsi parce que la nature nous apparaît... L’obligation de ‘Renoncer’ est de fait une contrainte incommensurable car il n’est pas dans notre nature de ‘sujet pensant’ d’être intellectuellement muet vis-à-vis de ce que nous observons et spontanément nous ne pouvons pas penser quantique. ‘Renoncer’, est une contrainte permanente qui doit sans cesse nous accompagner car naturellement dans notre quête de compréhension des propriétés physiques quantiques, c’est toujours en fonction de nos déterminations propres que nous cogitons. Il y a donc un apprentissage, une discipline, qui doit s’imposer et qui est extrêmement contraignante. C’est ce qu’exprimait très explicitement Freeman Dyson en 1958 (collègue éminent de Feynmann, dans le domaine de l’émergence de la théorie de l’électrodynamique quantique) : « Il ne s’agit pas de comprendre la mécanique quantique, mais sauter le pas : accepter l’idée qu’il n’y a rien à comprendre (sic), et apprendre à se servir du formalisme mathématique pour trouver des résultats en accord avec les faits expérimentaux. » et il ajoutait : « Qu’avec le temps, les étudiants acceptent avec une résistance décroissante d’être brisés (sic) pour consentir cette attitude. » Ainsi, comme le dit abruptement F. Dyson, renoncer à vouloir comprendre les postulats fondamentaux de la mécanique quantique, n’est pas naturel pour le ‘sujet pensant’. Ce renoncement ne peut s’estomper, ni être contourné, il est présent à tout instant quand nous investissons les propriétés de la physique quantique, il est une marque de notre investissement intellectuel et en conséquence nous ne pouvons pas être neutre, et encore moins transparent. Ceci constitue donc un des éléments de ma conception qu’on ne peut que : ‘Faire de la physique (qu’) en ‘Présence’’.

Depuis la fondation de la mécanique quantique, cette science a pris son envol et quel envol ! Presque tous les domaines de la connaissance ont été touchés, pas uniquement la physique. Restons dans le domaine de la physique et si nous essayons d’énumérer toutes les applications qui en ont résulté : c’est phénoménal. Ce qui est remarquable c’est que les propositions et les postulats des fondateurs de la mécanique quantique c’est-à-dire les représentants de l’Ecole de Copenhague, n’ont jamais été contredits et ils ont été plutôt confirmés. Le 01/12/2014, les résultats, d’une expérience enfin réalisable et inspirée d’une expérience de pensée qui résultait de la confrontation, une fois de plus, dans les années 1930, entre la conception d’A. Einstein à celle de N. Bohr, ont été publiés. C’est la conception et les conclusions de N. Bohr qui ont été à nouveau confirmées. Cela n’interdit pas de penser que cela ne sera pas toujours ainsi, ou même que cela sera dépassé.

Depuis, et notamment depuis les années 1980, ont émergé des tentatives d’interprétations. Certaines comme celle d’Everett (années 50) visent à offrir une explication au problème de la réduction de la fonction d’onde au moment de la mesure. Cette interprétation ne contredit en rien les postulats de l’Ecole de Copenhague mais propose une extrapolation qui n’est pas choquante. Toutefois, présentement, elle est totalement invérifiable.

On pourrait citer aussi l’interprétation des histoires cohérentes de D. Griffiths, l’interprétation relationnelle, l’interprétation informationnelle, etc… et il y en aura d’autres. Aucune des interprétations mettant en cause les fondements originaux de la mécanique quantique ne peut être acceptée. Ce qui sera acceptable sera la théorie qui les dépassera sans les annuler. Ne doutons pas que cela finira par se produire. Nous devons toujours avoir présent à l’esprit que les critères fondamentaux qui prévalent à la compréhension de la mécanique quantique, sont des critères qui sont (encore) en dehors de nos facultés naturelles de jugement scientifique. A défaut de pouvoir les intérioriser en tant que tels, il faut réinitialiser à chaque fois que cela est nécessaire notre acceptation au renoncement, vérifier que notre discipline intellectuelle à l’égard de cette discipline est intact. Ainsi, il ne faut jamais substituer : « telle qu’elle nous apparaît » par : « telle qu’elle est ». Si je prends cet exemple ce n’est pas par hasard car c’est l’exemple le plus explicite de notre intention naturelle d’atténuer voire d’oublier le critère qui nous dicte comment : penser correctement quantique. Cette dérive nous la rencontrons régulièrement lorsqu’un physicien nous affirme qu’il peut rendre compte, partiellement ou complètement, d’une description du monde, donc d’une réalité, quantique (sic).

J’ai précisé ci-dessus entre parenthèses : encore. Cet encore indique qu’il faut accepter l’idée que le sujet pensant évolue et évoluera et qu’ainsi : ‘penser quantique’ pourra devenir progressivement, quelque peu, plus naturel. Personne ne saurait dire, encore : combien de générations (2, 3 ou 1 ou 10 ?), mais en effet on peut être assuré que cette conquête intellectuelle en marche doit avoir en retour une influence sur notre culture scientifique collective et partant induire une intelligibilité de plus en plus affûtée de ce qui est de l’ordre du quantique. Au sens propre du terme, notre bagage intellectuel s’enrichit et la pratique du raisonnement propre à la mécanique quantique dans des domaines de plus en plus variés ne peut que progressivement nous accoutumer et rendre plus naturel une pensée quantique. (Ainsi on peut considérer que la violence Dysonesque appartient à jamais à l’histoire de l’enseignement de la physique car les nouvelles générations sont plus imprégnées de culture spécifiquement quantique). Dans ce nouveau contexte les postulats de la mécanique quantique de ‘l’école de Copenhague’ finiront par être dénoués et deviendront directement intelligibles.

Cet optimisme peut être encore enrichi par le fait que nous continuerons d’acquérir une connaissance de plus en plus pertinente de l’organisation et du fonctionnement de notre cerveau ce qui favorisera une meilleure compréhension des modalités de la perception et du décryptage du monde qui nous est extérieur qu’elle que soit l’échelle à laquelle nous le scrutons. Dans ce but, j’ai déjà proposé des expériences qui permettraient d’accroître cette compréhension, qui à mon avis n’aurait pas un protocole plus compliqué que celui de l’expérience dont les résultats ont été publiés le 22/07 dans ‘Current Biology’ et commentés le 10/08, dans Techno-Sciences : « Une avancée dans la compréhension des origines du langage’. C’est l’équipe de S. Dehaene qui est responsable de ce résultat.

Partager cet article
Repost0
13 août 2015 4 13 /08 /août /2015 13:00

~~Une nouvelle appréciation déterminante de la consistance interne du Modèle Standard.

J’aurais pu terminer l’article précédent du 06/08, par cette phrase : « Le continuum théorique que nous entretenons et qui nous induit dans l’erreur c’est celui qui nous amène à penser que nous devons combler ce qui manque dans un tout que nous croyons avoir défini et identifié et que nous appelons l’univers. », si… Si, l’article que j’ai cité : ‘Une nouvelle avancée du CERN porte un coup dur à la « supersymétrie », une théorie de physique des particules destinée à combler les lacunes du « Modèle Standard », avait été plus définitif, plus déterminant.

Toutefois, la source de cet article et de cette déclaration est Guy Wilkinson qui est le porte-parole du : LHCb, c’est-à-dire d’un détecteur très important du LHC avec CMS et ATLAS. Nous pouvons, évidemment, accorder tout notre crédit à ce physicien qui s’était empressé de rappeler : «Il est toutefois "trop tôt" pour enterrer la supersymétrie. Il est très difficile de tuer la supersymétrie, c'est un monstre à plusieurs têtes! Mais si rien n'est observé dans les deux prochaines années, la théorie sera dans une situation difficile. Le nombre de vrais croyants chutera".

La publication originale est sur le site de : ‘Nature Physics’, depuis le 27/07 et signée par tous les scientifiques (environ 700) qui collaborent sur LHCb, elle a pour titre : ‘Determination of the quark coupling strength : Vub, using baryonic decays’ soit : ‘Détermination de la force de couplage des quarks : Vub, en utilisant la désintégration baryonic.’ Parmi les 6 quarks connus, u désigne le quark up et b désigne le quark beauty (bottom). Les résultats obtenus sont selon G Wilkinson :"Tout à fait compatibles avec le Modèle Standard et suppriment la nécessité d'une théorie alternative" En effet l’équipe de physiciens a observé le mécanisme extrêmement rare de transformation d'un quark "beauté" en quark "up". Cette transformation, rendue possible grâce au Grand collisionneur de Hadrons (LHC) du CERN, s'est effectuée exactement comme le prédit le Modèle Standard.

Maintenant voyons pourquoi, ce résultat renforce la consistance propre du Modèle Standard, et élimine un tremplin éventuel pour une théorie alternative :

En premier lieu, rappelons-nous que les masses et les mélanges éventuels des quarks ont une origine commune : le Modèle Standard (MS). Ces résultats proviennent des interactions de Yukawa avec le boson de Higgs. Par les moyens du formalisme et du calcul spécifique défini par la théorie quantique des champs nous obtenons une matrice, 3 lignes et 3 colonnes, unitaire, dite matrice de Cabbibo-Kobayashi-Maskawa, nom des physiciens qui ont réalisé ce calcul et obtenus le prix Nobel. Les neufs termes de cette matrice indiquent la désintégration d’un quark en un autre grâce à l’émission d’un boson W virtuel. Etant donné que le MS ne prédit pas les valeurs des quatre paramètres libres de la matrice CKM, les mesures de ces paramètres par des voies différentes doivent être conséquentes les unes par rapport aux autres. Si ce n’est pas le cas, cela signifie qu’il faut faire appel à une autre physique au-delà du MS. Pour finaliser la consistance de ces résultats, la mesure de Vub (transition d’un quark b en un quark u) devait être encore plus précise, et c’est exactement ce qui vient d’être obtenue et publiée.

En reprenant l’allégorie de Wilkinson, on peut considérer que le monstre : ‘Supersymétrie’ a une tête en moins et contrairement à celle de l’hydre de Lerne elle ne devrait pas repousser. Une fois de plus la consistance du MS est confirmée, et souvenons-nous que l’étonnement fut grand, et cause d’un questionnement certain, par le fait que le boson de Higgs, mis en évidence, soit si conforme à ce que prédisait le modèle standard. Devons-nous nous congratuler de la justesse de ce qui est prédit par le MS ou nous en étonner ? Pourquoi, une fois de plus, il est montré qu’il est aussi self consistant ?

Je considère que nous ne devons pas exclure que le Modèle Standard est un modèle fabriqué par l’intelligence collective des scientifiques sans pour autant être un modèle de la réalité des propriétés physiques élémentaires de la nature que nous voulons saisir. Il ne nous offre aucune aspérité parce que lorsque nous testons la validité du MS, en fait, nous testons la validité de la représentation scientifique que nous projetons sur cette nature. Ce n’est pas si mal mais cela serait un sérieux progrès si nous étions en mesure de l’objectiver et cela fait aussi appel à beaucoup d’humilité. Une telle distanciation assumée nous permettrait, à coup sûr, de franchir un cap important pour progresser vers de nouvelles compréhensions des propriétés de la nature.

Partager cet article
Repost0
6 août 2015 4 06 /08 /août /2015 14:54

~~Deux lectures et quelques autres.

Première lecture :

Le sujet qui m’a interpelé au cours de ma première lecture en question se trouve dans un livre tout récent (2015) : ‘Foucault avec Merleau-Ponty (Ontologie politique, présentisme et histoire)’ de Judith Revel. Page 46-47, est évoquée la révolution islamique en Iran qui eut lieu en 1979. Dans ces pages, c’est la position de Foucault qui est analysé car il avait écrit dans la presse des articles enthousiastes à l’égard de cette révolution. Ensuite, il avait dû répondre à des critiques violentes qui lui reprochaient cet enthousiasme inconséquent qu’il avait éprouvé. Sa réponse repose sur la même argumentation que celle que l’on retrouvera en 1984, à partir de Kant, à propos de l’idée de révolution : « Une révolution est une virtualité de différence, l’ouverture d’une bifurcation dans l’histoire – c’est-à-dire un acte de liberté, indépendamment de la forme concrète dans laquelle elle s’incarne et des effets qu’elle peut induire. La révolution est un évènement, une rupture et bouleversement dans l’histoire, est signe (sic) de l’espèce humaine. » En fait Foucault avait repris un texte de Kant qu’il avait qualifié d’extrêmement intéressant : « Peu importe si la révolution d’un peuple plein d’esprit, que nous avons vu s’effectuer de nos jours (c’est bien entendu de la Révolution française qu’il s’agit), peu importe si elle réussit ou échoue, peu importe si elle accumule misère et atrocité, si elle les accumule au point qu’un homme sensé qui la referait avec l’espoir de la mener à bien ne se résoudrait jamais, néanmoins, à tenter l’expérience à ce prix… Un tel phénomène dans l’histoire de l’humanité ne s’oublie plus parce qu’il a révélé dans la nature humaine une disposition, une faculté de progresser telle qu’aucune politique n’aurait pu, à force de subtilité, la dégager du cours antérieur des événements… »

Deuxième lecture :

Il s’agit d’un article dans le journal le ‘Monde’ du 31/07, dans la rubrique : ‘Ces hôtels qui ont changé le monde’. L’hôtel en question le ‘Métropole’ à Bruxelles où, en 1911, eut lieu la première réunion des rencontres de ‘Solvay’. A cette première, se sont retrouvés réunis durant plusieurs jours les plus grands physiciens européens de l’époque. Sur la photo du groupe on reconnaît entre autres : M. Curie, H. Poincaré, M. Planck, H. Lorentz, A. Einstein, A. Sommerfeld, etc… A cette époque ce sont donc des physiciens classiques et des précurseurs de la physique atomique quantique qui confrontent leurs idées. Depuis on reconnaît les effets bénéfiques très significatifs que ces rencontres ont impulsés pour le développement de la physique contemporaine, rencontres qui ont eu lieu jusqu’en 1933. Ensuite, l’installation de l’idéologie nazie en Allemagne a provoqué la dispersion de cette élite intellectuelle scientifique.

A cette occasion Einstein (33 ans) voulait que soit validé son concept des quanta de lumière (le photon) dont il avait été amené à affirmer la valeur théorique à partir de l’étude de l’effet photoélectrique en 1905 (on peut dire que le concept de photon est le fruit d’un acte de liberté intellectuel comme signifié par Foucault). Mais ceux qui représentaient l’autorité scientifique à ce congrès refusèrent de se laisser convaincre. Ainsi ni Planck, ni Poincaré, traditionnalistes : c’est-à-dire promoteur de la physique dite classique, n’acceptèrent le concept précurseur d’Einstein. Celui-ci fut déçu, et exprimait sa frustration en écrivant à son ami et confident : M. Besso, que ces réunions ressemblaient à un ‘sabbat de sorcières’ et il ajoutait : «Personne n’y voit clair. Il y aurait dans toute cette affaire de quoi ravir une compagnie de jésuites démoniaques. » L’opposition aux quanta de lumière est persistante chez Planck au prétexte qu’elle conduirait à réformer la théorie de l’électromagnétisme de Maxwell et Lorentz. Poincaré est pessimiste à cette idée nouvelle.

A cette date : 1911, Einstein n’a pas une autorité scientifique suffisamment reconnue pour passer outre le scepticisme de Planck, d’autant que celui-ci est à l’origine en 1900 de l’idée de l’échange d’énergie par paquets discrets entre matière et rayonnement. Mais n’oublions pas qu’il n’a jamais été convaincu de la validité physique de cette thèse. Pour lui c’était une conception empirique, par défaut et sa fameuse constante, qui apparaît dans l’équation de la densité d’énergie du rayonnement du corps noir, n’était qu’un pur artéfact mathématique et il refusait de lui attribuer une signification physique contrairement à la proposition d’Einstein. Bref M. Planck avait une conception classique des lois de la physique comme d’autres présents à ce premier congrès et il ne fallait pas attendre de leur part qu’ils dégagent, du cours antérieur des événements, des lois et des idées, un cours nouveau qui fasse émerger une bifurcation de la connaissance en physique.

On voit donc qu’il en est de même des révolutions scientifiques comme des révolutions sociales, la discontinuité s’impose toujours par une rupture et non pas dans une continuité de la réflexion. Au cours des rencontres de Solvay qui suivront émergera une nouvelle génération de physiciens qui imposera son autorité scientifique en rupture avec l’ancienne et reléguera l’autorité des anciens dans le camp d’une conception classique de la physique. Effectivement, A. Einstein sera le chef de file de cette nouvelle génération bien qu’il y eut des désaccords significatifs mais surtout dynamiques avec d’éminents représentants, de cette nouvelle génération, tels que Bohr, Heisenberg, Born, etc…

Est-ce que ces deux lectures associées nous indiqueraient le chemin le plus approprié pour sortir de l’impasse persistante dans laquelle se trouve actuellement la connaissance en science physique en se référant uniquement aux 95% inconnu de ce qui composerait l’univers ? Où se situe la bonne bifurcation ? Pourquoi est-ce que depuis plusieurs décennies nous sommes incapables d’identifier ce que, par exemple, nous appelons la matière noire ? A cet égard, quelles sont les hypothèses persistantes formulées qui seraient un obstacle à l’élucidation de la bonne bifurcation ?

Déjà, le fait de l’appeler matière noire induit notoirement des caractères semblables à la matière ordinaire sauf qu’elle est invisible. Cela laisse supposer qu’elle est composée de constituants élémentaires, alors que rien ne permet de le considérer. De plus, certains scientifiques prêtent à ces constituants élémentaires la propriété de s’annihiler avec leur anti-élément en photons comme la matière ordinaire, alors que les données récentes recueillies par le satellite Planck, interdisent cette éventualité. Comme l’a écrit Kant, il y a plus de 2 siècles, il n’est pas facile de se dégager du cours antérieur des événements et ajoutons donc des idées. Il faut qu’il y ait une révolution des pensées et quelque part elle ne se décrète pas.

Certains physiciens sont convaincus que la matière noire interagit gravitationnellement avec la matière ordinaire mais pas selon la loi de Newton. D’autres affirment qu’elle n’interagit pas gravitationnellement avec elle-même. De toute façon on reste dans la continuité de l’interaction gravitationnelle et il n’y aurait à procéder qu’à des ajustements.

Actuellement une grande partie de la communauté scientifique a le regard fixé sur le LHC à Genève avec l’espoir que l’on va enfin découvrir des particules supersymétriques, parmi lesquelles on identifierait le neutralino : soit disant représentant un constituant élémentaire de la matière noire. La théorie de la supersymétrie est considérée comme une théorie prolongeant le Modèle Standard, ou bien comme une théorie dépassant le Modèle Standard, c’est selon. Ce qui est certain c’est que la théorie quantique des champs est la référence pour la concevoir.

A ce propos, il y eut le 26/07 sur le site de Sciences et Avenir, un article très (trop) succinct qui principalement signalait : ‘Une nouvelle avancée du CERN porte un coup dur à la "supersymétrie", une théorie de physique des particules destinée à combler les lacunes du "Modèle Standard" : ‘Selon une étude publiée lundi 26 juillet 2015 dans la revue Nature Physics, des chercheurs du CERN ont observé le mécanisme extrêmement rare de transformation d'un quark "beauté" en quark "up". Cette transformation, rendue possible grâce LHC du CERN, s'est effectuée exactement comme le prédit le Modèle Standard.’ Bien que cet article soit publié dans Nature Physics, il n’a pas été repris dans d’autres sites. Pour le moment on peut être sceptique à l’égard de cette annonce et si elle n’est pas reprise d’ici la fin de l’été, on pourra la laisser de côté, sinon on aura à faire à un sacré chambardement. Peut-être que là, nous tiendrons le début d’une rupture de la pensée scientifique des tenants du Modèle Standard de la physique des particules et des tenants du Modèle Standard de la cosmologie. On verra !

Partager cet article
Repost0
28 juillet 2015 2 28 /07 /juillet /2015 11:04

~~C’est exactement une bévue.

Lorsque j’ai posté l’article : « Une étonnante régression », le 28/02/2015, j’étais troublé. Trouble provoqué, à la lecture de ‘Par-delà le visible’ de C. Rovelli et qui ne s’est pas depuis dissipé. Aussi, j’ai prolongé l’analyse de ce livre avec quelque part le secret désir de considérer que je n’avais pas tout bien compris. Je me suis concentré sur l’exploitation de la théorie de l’information qui est proposée, acceptant l’idée a priori que cette thèse pouvait apporter de la valeur ajoutée à une meilleure compréhension (si cela est nécessaire) de la mécanique quantique.

Lorsque C. Rovelli écrit, p. 228 : « Toute la structure de la mécanique quantique peut être lue et comprise en termes d’information de la façon suivante. Un système physique se manifeste seulement et toujours en interagissant avec un autre. La description d’un système physique est donc toujours faite par rapport à un autre système physique, celui avec lequel le premier interagit. Toute description de l’état d’un système physique est donc toujours une description de l’information qu’un système physique a d’un autre système physique, c’est-à-dire de la corrélation entre les systèmes. Les mystères de la mécanique quantique deviennent moins épais si nous l’interprétons de cette façon à savoir comme la description de l’information que les systèmes physiques ont l’un de l’autre. » Dans ce paragraphe, il y a une omission étonnante de la part de l’auteur, c’est que la description effective d’un système physique quantique ne peut être obtenue qu’à partir d’une interaction avec un système physique macroscopique. Ceci est incontournable car il n’y a pas de manifestation ni de description effective sans observateur, qui est un être classique. L’observable quantique est obtenue au moyen d’un instrument qui est conçu grâce à l’ingénierie et au savoir-faire classiques des physiciens. Avec le processus de la mesure (de l’observation) nous sommes dans un processus univoque. C’est l’observateur qui prélève de l’information sur le système quantique déterminé par l’observateur (voir la mesure du spin, par exemple). Pour l’observateur, cette observation fige ensuite le système dans l’état qui a donné la valeur de la variable quantique (voir l’intrication, par exemple). Depuis la fondation de la mécanique quantique nous n’avons acquis aucune connaissance nouvelle qui nous permettrait d’extrapoler et d’attribuer une valeur universelle à cette affirmation de C. Rovelli : « Toute description de l’état d’un système physique est donc toujours une description de l’information qu’un système physique a d’un autre système physique ».

A propos du terme information, je pense que nous avons à faire essentiellement à un glissement sémantique qui n’offre pas de valeur ajoutée à la compréhension que nous pouvons avoir à l’égard de la mécanique quantique. La connaissance de la valeur d’une grandeur quantique est une information obtenue par le sujet pensant, que dire de plus. Depuis le début de la mécanique quantique l’objectif des physiciens est donc de recueillir de l’information sur les systèmes quantiques qu’ils déterminent.

Cette banalisation que je propose du mot : information, n’est évidemment pas partagée par Rovelli, car on peut lire, p.224 : « Pourquoi la notion d’information est-elle utile, et peut-être même fondamentale pour comprendre le monde ? Pour une raison futile (sic) : elle mesure la possibilité des systèmes physiques de communiquer entre eux. » Cette affirmation de l’auteur est une conviction mais en aucun cas ne peut être considérée, jusqu’à présent, comme l’énoncé de ce que l’on pourrait considérer comme la source d’un paradigme nouveau qui permettrait de franchir un cap jusqu’alors inconnu de la connaissance scientifique. Dans le premier article j’ai évoqué une régression car si on suivait l’auteur, se développerait la croyance que le monde naturel a un comportement propre absolu, qu’il serait mû par une dynamique propre et finalement nous en aurions la connaissance objective.

Je ne trahis pas l’auteur en affirmant que c’est cette conception-là qui prévaut chez lui, p.225 : « La façon dont les atomes se disposent peut être corrélée à la façon dont d’autres atomes se disposent. Et donc, un ensemble d’atomes peut être porteur d’une information, au sens technique et précis décrit plus haut, sur un autre système.

Cela, dans le monde physique, se produit sans arrêt et partout, à chaque instant et en chaque lieu : la lumière qui parvient à nos yeux transporte de l’information sur les objets dont elle provient, la couleur de la mer donne une information sur la couleur du ciel au-dessus d’elle, une cellule possède une information sur le virus qui l’a attaquée, un nouvel être vivant est riche d’information car il est corrélé (sic) à ses parents et à son espèce…

Le monde ne se réduit donc pas à un réseau d’atomes qui se rencontrent : il est aussi un réseau de corrélations entre des ensembles d’atomes, un réseau d’information réciproque entre des systèmes physiques.

Dans tout cela, il n’y a rien d’idéaliste ni de spirituel (pourquoi devoir le préciser ?) ; ce n’est qu’une application de l’idée de Shannon selon laquelle on peut compter les alternatives. Mais tout cela est une partie du monde comme les pierres des Dolomites, le bourdonnement des abeilles ou les vagues de la mer.

Une fois compris que ce réseau d’informations réciproques existe (sic) dans l’Univers, il est naturel d’essayer d’en tirer profit pour décrire le monde… »

Avant tout, je dis qu’il est extrêmement choquant et inapproprié d’utiliser le terme corrélation indistinctement pour évoquer l’interdépendance qui pourrait prévaloir dans le monde inerte ainsi que dans le monde vivant. Ici, à ce degré, on ne peut pas excuser un raccourci, cela met plutôt en évidence une tambouille intellectuelle inacceptable.

Avec ce paragraphe cité, on constate que Rovelli qui attribue à notre œil, donc à notre cerveau, par exemple, la faculté d’interpréter la couleur de la mer via un processus de décryptage vaut identiquement pour le monde inerte atomique ??? Soit il nie la spécificité du monde vivant et en l’occurrence du ‘sujet pensant’, soit il dote le monde matériel inerte d’un dessein.

Basiquement, voyons d’où vient l’idée que la théorie de l’information selon Claude Shannnon pourrait être exploitée en physique… quantique. P.222 : «Avant tout, qu’est-ce que l’information ? le mot est employé dans le langage courant avec une grande diversité de sens, ce qui est aussi une source de confusion dans son usage scientifique (sic). La notion scientifique d’information a été définie par Claude Shannon, mathématicien et ingénieur américain, en 1948 : l’information est une mesure du nombre d’alternatives possibles pour quelque chose. Par exemple, si je jette un dé, celui-ci peut tomber sur six faces. Si je vois qu’il est tombé sur une face particulière, j’ai une quantité d’information N = 6, car il y avait six possibilités. Si je ne sais pas quel jour est ton anniversaire, il y a 365 possibilités différentes. Si tu me dis quel jour est ton anniversaire, j’aurai une information N = 365, etc. (L’information ne mesure pas ce que je sais, mais le nombre d’alternatives possibles. L’information qui me dit qu’est sorti le numéro 3 à la roulette est N = 37, car il y a 37 numéros…)

Au lieu du nombre d’alternatives N, il est plus commode, pour indiquer l’information, d’utiliser le logarithme en base 2 de N, appelé S. l’information de Shannon est donc S = log2N, où N est le nombre d’alternatives. De la sorte, l’unité de mesure, S = 1, correspond à N = 2, c’est à dire à l’alternative minimale, qui comprend seulement deux possibilités. Cette unité de mesure est l’information entre deux alternatives et elle est appelée « bit ». Quand je sais qu’à la roulette est sorti un numéro rouge au lieu d’un noir, j’ai un bit d’information : si je sais que c’est rouge-pair qui est sorti, j’ai deux bits d’information ; si c’est un rouge-pair-manque, j’ai trois bits d’information. Deux bits d’information correspondent à quatre alternatives (rouge-pair, rouge-impair, noir-pair, noir- impair)… »

Ensuite, p.223 (à lire), l’auteur développe un exemple pour justifier l’idée d’information corrélée. Son exemple est très déterminé et au-delà, il n’a aucune validité générale, à moins de partager le réductionnisme de Rovelli.

La théorie de l’information proposée par Shannon est conçue étant donné qu’une communication est établie. Elle est donc typée. Je cite, p.223-224 : « Shannon, qui a inventé la théorie de l’information, travaillait dans une compagnie de téléphone, et cherchait le moyen de mesurer avec précision ce que pouvait « transporter » une ligne téléphonique. Que transporte donc une ligne téléphonique ? Elle transporte de l’information. Elle transporte une capacité de distinguer deux alternatives. C’est pourquoi Shannon a défini l’information. » Il est donc difficile de considérer que cette théorie ait une valeur au-delà de ce contexte spécifique et encore moins considérer qu’elle peut indiquer quand il y a communication ou pas.

Je suis tellement désappointé que je préfère faire mon propre mea culpa et essayer l’humour pour masquer ma déception. Je ne devrais avoir rien à reprocher à C. Rovelli, car le titre de son livre est : ‘Par-Delà Le Visible’. C’est donc un voyant qui a écrit le livre et non pas un physicien, je suis de fait responsable de ma bévue. S = 1, chez l’auteur, N = 2, il y a deux possibilités, l’une est le voyant, l’autre est le physicien. Nous avons donc à faire à un cas exceptionnel, comprenant ces deux états antagoniques qui pourraient être superposés et représentés par une même fonction d’onde avant sa réduction. Le livre est comme un instrument de mesure qui a réduit la fonction d’onde dans l’état : voyant.

De tout ceci il faut en débattre, ce livre est donc à lire.

N.B. Que des physiciens éprouvent le besoin et…l’utilité de proposer des coups de projecteur d’anticipation s’appuyant sur leur propre intuition est une bonne chose. Certes, c’est un exercice risqué, mais ceci n’a de valeur que si cela s’appuie sur les connaissances existantes consistantes respectées, si la rigueur des résultats consolidés est prise en compte. Dans ce cas les propositions anticipatrices de ces physiciens éclairés peuvent avoir de la valeur et conséquemment ouvrir des horizons prospectifs nouveaux.

Partager cet article
Repost0
21 juillet 2015 2 21 /07 /juillet /2015 12:01

~~La seconde naissance de l’homme.

La période des vacances est l’occasion de recharger nos batteries intellectuelles en glanant dans des ouvrages, jusqu’alors ignorés, des informations, des savoirs, qui peuvent enrichir des réflexions que peut-être nous développerons dans l’autre période de l’année ou plus tard encore.

J’ai découvert ce livre : ‘Une seconde naissance de l’homme’, passionnant, de Jean Guilaine (professeur au Collège de France, spécialiste du Néolithique), édit. O. Jacob, mars 2015. Evidemment je m’appuie sur de larges extraits pour vous inviter vivement à lire ce livre dans son intégralité.

Comme souligné, d’une façon rapide, le passage du Paléolithique au Néolithique peut se caractériser ainsi : « Les temps paléolithiques, dont la très longue durée (quelques 2 500 000 ans) n’avait connu, en dépit de remarquables exemples d’adaptation aux contextes environnementaux, aucun affranchissement fondamental à l’égard de ceux-ci. L’homme ne pouvait jusque-là que négocier avec la nature et gérer au mieux les ressources que celle-ci lui proposait. Elle était dominante, lui dominé.

Or, il y a environ 12000 ans, c’est-à-dire avant-hier à l’échelle de l’évolution, une mutation s’amorce. En plusieurs points de la planète, l’homme cherche à se libérer de ce joug, expérimentant par divers tâtonnements appliqués au monde végétal et animal des stratagèmes pour ne plus être dépendant des contraintes du milieu. Il y parviendra en « inventant » l’agriculture et l’élevage, en « fabriquant » en quelque sorte de nouvelles plantes, de nouvelles bêtes. Une transformation sans retour qui fît de lui le maître, l’unique aménageur de son environnement, mais aussi souvent le destructeur de celui –ci.

Pour franchir ce cap qui le désolidarisa de la nature, l’homme dut d’abord beaucoup cogiter avant de se lancer dans cette aventure (sic).»

Pour des raisons évidentes, je ferai référence au grand chapitre : ‘Maîtriser la nature : Environnement, Temps, domestication’ p.42-74, et plus particulièrement, p.55-74 : ‘Du chasseur à l’agriculteur, conscience et notions de temps’ qui nous offre un historique profond de la relation qui se développe entre ‘le sujet pensant’ et le temps. L’auteur nous signifie que le terme synonyme peut être ‘sujet cogitant’.

Préalablement l’auteur précise toutes les précautions qui s’imposent avant de franchir le stade de l’affirmation à propos de ce thème. Dans le paragraphe : ‘Du chasseur à l’agriculteur, conscience et notions du temps’, ce qui fait référence au temps du chasseur consiste à repérer le cycle des saisons pour s’approvisionner en proies nécessaires à la nourriture, pour l’agriculteur la reconnaissance du cycle saisonnier lui permet d’agir en phase avec la nature, il est dans ce cas bien moins passif. C’est donc l’observation de ce qui a été déjà constaté auparavant dans la nature, au cours des cycles précédents, qui provoque l’idée chez l’homme primitif que son action peut aboutir à un résultat projeté favorable. Cette perception du temps authentiquement cyclique fait penser à la thèse de ‘l’Eternel Retour’ développé par Nietzsche, où le temps a sa propre dynamique et l’être humain n’y peut rien. Mais prendre conscience du retour de ce qui a déjà été constaté auparavant (mémoire : temps passé) révèle la mise en œuvre d’une capacité de projection (temps à venir) qui engage et nourrit la cogitation. On doit comprendre aussi que se met en place très tôt un processus d’addition des cycles naturels qui relève de la faculté primitive de cogitation. Cette opération est fondamentale car prendre conscience de la succession de cycles qui ont une durée naturelle c’est intégrer l’idée première d’une scansion qui rythme ce que l’on pourrait déjà appeler l’écoulement temporel.

Dans le paragraphe : « Origines : le temps déduit de l’espace ? » L’auteur met en évidence une primitive expérimentation conjointe de la notion d’espace et de temps. (Voir article du 27/08/2014 : ‘Un authentique Big-Bang’). P.57 : « Au paléolithique archaïque, aux alentours de 1,9 millions d’années, l’analyse de la documentation fournie par plusieurs sites africains montre une gestion des matières premières fondée sur un certain rapport à l’espace (et donc au temps). A Oldowaï (en Tanzanie), les matériaux bruts nécessaires à la taille ont été apportés de sources distantes de 3 km. De gîtes plus lointains, entre 9 et 13 km, on n’a ramené que des outils finis…

L’histoire des temps paléolithiques, dans leur extrême durée, est précisément caractérisée par une maîtrise de l’espace toujours plus élargie, par des déplacements sans cesse portés vers des frontières plus lointaines. Ces pérégrinations impliquent donc une maîtrise minimale du temps… Dans ce cas, le temps nécessaire pour parvenir aux gîtes est une notion intellectuellement assimilée. »

Dans le paragraphe : « Les rythmes saisonniers des sociétés de chasseurs-cueilleurs évolués » : « Le concept de temps se confond avec celui de saison, ou plutôt, de saisonnalité… Les circuits du chasseur-collecteur sont calqués sur la géographie des ressources et sont étroitement corrélés à une grille calendaire, celle-ci incluant le degré d’amplitude chronologique nécessaire à l’accès aux proies ou aux cueillettes. »

Paragraphe : « L’art et le temps » : « On a beaucoup disserté sur la signification de l’art rupestre paléolithique. A côté des problèmes qu’un tel sujet peut agiter sur la formation de l’esprit humain, la question ici soulevée paraîtra bien ténue : l’art fut-il un marqueur du temps ? … On peut s’interroger sur la signification des marques temporelles observables sur certaines œuvres, pariétales ou mobilières. »

Paragraphe : « Existait-il des « calendriers » paléolithiques ? »

« Des sortes de « calendriers » auraient existé dès les débuts du Paléolithique supérieur et des périodes plus récentes, soit un champ chronologique se déroulant d’environ – 35000 jusqu’à – 5000.

Ces vestiges traduiraient un procédé symbolique de notation du temps, basé sur l’observation des phases de la lune…

L’homme semble donc s’inscrire dans un temps donné par la nature dont, chaque mois, les phases de la lune lui livrent témoignage : il en découpe les séquences qu’il mémorise et dont il tire parti de façon pragmatique. En ce sens, les activités périodiques et les rites qui leur sont liés peuvent être dès lors largement anticipés, programmés. »

Cours du temps et rythmes agraires.

« Si les néolithiques étaient tributaires du temps « climatique » pour leur quotidien, nul doute qu’ils aient essayé de « domestiquer » le temps cosmique, de la même façon qu’ils maîtrisaient désormais l’environnement végétal et animal. En ritualisant son déroulement annuel, en l’artificialisant, en le socialisant à travers des rythmes (fêtes, rites), ils ont fait du temps « naturel » une entité culturel.

Des monuments à mesurer le temps.

Le temps de l’artisan.

« Ainsi les élites néolithiques marquait-elles leur position sociale par l’acquisition d’outils « inutilitaires » à fort impact esthétique ou émotionnel : un comportement étonnamment moderne. Dans le cas évoqué des haches de parade, on sait, grâce à des enquêtes ethnographiques, que leur temps de réalisation peut être particulièrement long, plusieurs mois souvent. Le temps investi est donc un marqueur hiérarchique. »

Temps-mémoire, « éternité »

« Sans doute cette dramatisation ou « théâtralisation » architecturale entre espace profane et espace sacré trouve-t-elle sa réplique dans la conception du temps réel/éternité ou intemporalité. Un rite peut accompagner ce transfert entre ces deux états. En statufiant tel personnage, en le mutant en une image de pierre, on le fait passer du temps court au temps long…

Temps/espace, temps réel/temps mythique, rythmes saisonniers et « philosophie » de l’éternel retour, tentatives de mesure et de découpage de la durée, temps des vivants/intemporalité, etc., les quelques exemples évoqués montrent que toutes ces interrogations ont été, à des degrés divers, abordées et assumées par les préhistoriques. Les quelques exemples évoqués sont, pensons-nous, assez suggestifs : toutes les grandes spéculations de l’humanité sur le temps sont fort anciennes et, très tôt, des réponses y ont été apportées, au gré des cultures et des degrés de socialisation. »

Entre la période la plus primitive que l’auteur a identifié (250000ans), et celle qui nous amène jusqu’à – 5000 ans et plus près, l’homme a progressivement tissé un lien entre ce qui apparaît comme étant de l’ordre de la nature et ce qui est de l’ordre d’une nécessité existentielle. Pour les besoins de la cause, l’homme a capturé dans son environnement des signes observables qui se répétaient d’une façon régulière, que ce soit sur des cycles courts (jour et nuit) ou plus longs (saisons), pour lui-même se situer dans l’écoulement de son existence. On peut considérer que concomitamment, au fil de ce temps, il développe une conscience de plus en plus aigüe de son existence propre. Être : existant humain et Être : dans le (un) temps, pourrait vouloir signifier une seule et même chose. Dans ce cas la moindre différenciation ne peut être envisagée.

Pendant la durée du paléolithique on peut dire qu’il s’agit d’un côtoiement entre la marche de l’homme et ce qui peut être considéré comme la production d’une marche du temps, l’appropriation intellectuelle par le ‘sujet cogitant’ doit être rudimentaire. Toutefois, comme l’auteur l’indique à partir de – 35000 ans l’art rupestre étudié pourrait laisser apparaître des marqueurs du temps ainsi que les hypothétiques calendriers paléolithiques. Dans ce cas nous aurions des indications d’un processus effectif d’intériorisation du flux du temps, via des procédés symboliques de notation de ce temps, sur la base de la compréhension et de l’intégration de durées. L’appropriation intellectuelle est donc de plus en plus élaborée.

Au milieu du néolithique l’homme attribue de la valeur à des durées temporelles c’est ce qui est présenté dans le paragraphe : « le temps de l’artisan ». Il y a là un investissement du temps par l’homme, il se l’approprie pour lui attribuer sa valeur, par exemple celle de la durée d’une action humaine sur la matière.

Selon J. Guilaine il y eut la volonté de « domestiquer » le temps cosmique. A juste raison, il y voit là, un processus culturel à l’œuvre et donc un ajustement encore plus harmonieux entre une idée intime que se fait l’homme du flux du temps avec celui qui apparaît par l’observation du cosmos. A ce propos on doit comprendre que cette volonté de domestiquer le temps cosmique est illustrative de la volonté de l’homme de se projeter dans le cosmos et donc de l’habiter. Sans chercher à conjecturer au-delà, il est significatif de constater que ce serait le temps qui serait l’intermédiaire, le tremplin de cette projection.

Il n’y a pas matière à conclure quoi que ce soit, avec la lecture de ce livre. Ce livre révèle un magnifique chantier de réflexions sur des indices qui nous aident à comprendre ce qui a contribué à un éveil intellectuel de l’être humain depuis le surgissement dans la nature d’une intelligence première, il y a environ 12 millions d’années. L’’Être de la nature’ a suivi une très longue marche pour devenir aussi progressivement un ‘Être dans la nature’. Contrairement à ce qu’affirme l’auteur, je pense que l’homme moderne ne peut pas se désolidariser complètement de la nature, il y a cohabitation de deux Êtres chez l’Être humain sachant que la place de l’être dans la nature est évidemment de plus en plus prépondérante et la dynamique de ce déséquilibre ne peut que s’accentuer sans qu’une influence de ‘l’être de la nature’ ne soit définitivement extirpée. Dans le cas contraire un représentant d’une nouvelle humanité pourra écrire : ‘La troisième naissance de l’homme’. Les représentants de cette nouvelle humanité seront tellement prothèsés qu’effectivement plus rien de naturel ne les détermineront.

Le problème de la compréhension, ou de la perception, de l’espace et du temps, que nous : sujets pensants, d’aujourd’hui, pouvons avoir, n’est absolument pas figé. Rappelons-nous de la discorde, il y a trois siècles, entre Leibniz et Newton. Selon la conception de Leibniz l’espace et le temps sont des productions du sujet ; par conséquent ils ne sont pas absolument indépendants. Selon Newton l’espace comme le temps n’est ni substance ni accident mais possède une ontologie singulière (sic). Il se rapporte à l’existence des choses et non pas à son essence. Etant l’« affection commune de tout ce qui existe », il faut dire que dès lors qu’un être existe, existe à fortiori un espace qui est comme l’« amplitude de sa présence » ou sa « quantité de présence ». C’est ainsi que l’espace infini et absolu est la suite nécessaire, l’« effet émanant », de l’Être infini qui est premier à exister. Sur cette base, il devient possible d’affirmer de Dieu qu’il est omniprésent. L’espace absolu est ainsi le sensorium (centre de toutes les sensations) de Dieu. Leibniz s’oppose à cette définition de l’espace car : «Si l’espace existait véritablement comme entité, comme substance de fond, Dieu aurait à choisir un endroit où placer l’univers dans cette substance. » Newton, dans ses ‘Principia’ donne comme définition du temps : « Le temps existe dans et par lui-même et s’écoule tranquillement sans référence avec quoi que ce soit d’extérieur. » Ce temps absolu est sans rapport avec le temps relatif : « … apparent et vulgaire qui est cette mesure sensible et externe d’une partie de durée quelconque [ … ] prise du mouvement : telles sont les mesures d’heures, de jours, de mois, etc., dont on se sert ordinairement à la place du temps vrai. »

La variable temps qui s’inscrit dans les équations décrivant la majeure partie des lois physiques que nous maîtrisons actuellement correspond au temps classique conformément à la définition de Newton. Ce n’est qu’en troisième année de physique, à l’Université, que l’on commence à enseigner le temps de la relativité restreinte qui, il est vrai, ne s’applique que dans des conditions particulières extrêmes.

Il y a unanimité chez les physiciens pour considérer que le grand bond théorique espéré à venir impliquera une nouvelle conception du temps et de l’espace.

Quand on lit avec attention un ouvrage comme celui que vient de publier Jean Guilaine on peut s’interroger sur l’obstination des physiciens tel que Carlo Rovelli qui affirme que : « le temps est émergeant et que cela correspond à un fait dans la nature ». Temps émergeant c’est aussi ma conviction mais la cause de cette émergence c’est la ‘Présence’ de l’être cogitant et Guilaine pourrait conforter ma conviction.

Je pense que le temps qui pour nous fait sens est celui qui intimement contribue au développement de la faculté de penser de l’être humain. Toute autre référence de temps me semble chimérique. A ce niveau, l’argument qui fait appel au critère d’une nécessaire objectivité constitue vraiment ce que l’on appelle un faux ami.

Il y a une dizaine d’années, A. Connes et C. Rovelli ont publié des travaux qui tentaient de montrer que la seule flèche du temps qui devrait faire sens pour les physiciens serait celle induite par le refroidissement irréversible du rayonnement fossile. Pourquoi cette flèche serait exhaustive, plus vrai, plus authentique, alors qu’elle est le fruit de l’observation par le sujet pensant ? Pourquoi exclure que le temps qui nous est donné soit autre chose que le temps dont nous avons l’intelligence et qui en est son substrat ?

Depuis deux ans Lee Smolin nous dit avec force que le temps est réel et donné dans la nature, (voir son livre la ‘Renaissance du temps’). On peut considérer que le livre de Jean Guilaine nous offre la possibilité de réfuter la thèse de Smolin car la nature, certes, offre des cycles, offre donc des durées répétitives mais en aucun cas cela n’est, ni ne fait, du temps. Ces durées peuvent ‘faire’ du temps si et seulement si on les additionne (primitif processus mental de l’addition ?), si intellectuellement on les enchaîne. Or il faut qu’il y ait un être cogitant présent dans la nature pour concevoir un enchaînement dit temporel, à partir de là ces durées naturelles peuvent être, de plus, qualifiées de durées temporelles. Le temps n’a de consistance que par la ‘Présence’ de l’être pensant’. Depuis, on comprend que l’être humain a fabriqué des machines marquant des intervalles aux durées contrôlées, des machines de plus en plus sophistiquées qui égrènent le temps. La précision de la mesure de notre temps se rapporte maintenant à la précision avec laquelle on crée des intervalles naturels élémentaires de plus en plus étroits. Nous en sommes aujourd’hui à concevoir l’attoseconde.

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens