Overblog
Suivre ce blog Administration + Créer mon blog
24 septembre 2012 1 24 /09 /septembre /2012 11:35

                   La téléportation quantique, un test pour les neutrinos.

 

En premier lieu je reviens sur le livre de N. Gisin, précédemment évoqué. Il y a dans cet ouvrage un chapitre consacré à la téléportation qui est à l’origine de ce que je vais exposer ci-dessous. On pourra valablement se référer aussi à l’article d’A. Zeilinger : ‘La téléportation quantique’, in ‘Pour la science’, juillet-septembre 2010. Je vous donne ces références car ils expliquent correctement l’état de l’art de cette téléportation, jusqu’où on peut aller actuellement et quelles sont les perspectives au moins jusqu’à moyen terme. Ceci me permet de ne pas m’attarder sur le protocole et les conditions de la réalisation d’opérations de téléportation, mais n’oublions pas que les propriétés de l’intrication y jouent un rôle primordial.

Pourquoi la téléportation quantique est possible ? Parce que un objet est caractérisé par la matière-énergie qui le constitue et l’état physique de celle-ci. Plus précisément à la page 100 du livre de N. Gisin : « Au niveau quantique, la substance d’un électron est sa masse et sa charge électrique (ainsi que d’autres attributs permanents), tandis que ses nuages de positions et de vitesses potentielles constituent son état physique. Pour un photon, particule de lumière sans masse, la substance est son énergie et son état physique est constitué par sa polarisation et par ses nuages de positions et ses fréquences de vibration potentielles. En téléportation quantique, on ne téléporte pas tout l’objet, mais seulement son état quantique… Quand on téléporte l’état quantique d’un objet, l’original doit nécessairement disparaître, sinon on aboutirait à deux copies ce qui contredirait le théorème de non-clonage.

Résumons. En téléportation quantique, la substance (masse, énergie) de l’objet initial demeure au lieu de départ, disons chez Alice, mais toute la structure (son état physique) s’évapore. Par exemple, si Alice téléporte un canard sculpté dans la pâte à modeler, la pâte demeure sur place, mais la forme disparaît : A l’arrivée, disons chez Bob, à une distance en principe arbitraire (et en un lieu qui peut être inconnu d’Alice), une pâte informe initialement présente chez Bob acquiert l’exacte forme du canard initial, exacte jusqu’au moindre détail atomique. »

Ceci étant dit, nous n’en sommes pas là, mais considérons un exemple plus réaliste et plus abstrait : la polarisation d’un photon. Bien sûr que seul l’état de polarisation du photon ou bien, plus généralement, son état quantique est téléporté, et non pas le photon lui-même. Mais n’oublions pas que l’état quantique d’un photon le définit de façon univoque, donc le fait de téléporter son état est équivalent à la téléportation de l’objet en question. Des expériences ont déjà été réalisées avec succès, citons en Europe : à Innsbruck et à Rome.

Maintenant je peux développer et expliciter la deuxième partie du titre de l’article ‘un test pour les neutrinos’. En effet dans celui posté le 27/05/2012, j’ai, en dernière partie, proposé l’hypothèse que le neutrino électronique serait ce qui reste quand l’électron n’a plus de charge électrique de même pour le neutrino muonique, reliquat du muon et du neutrino tauique reliquat du tau. Ce qui fait que d’un point de vue quantique il n’y a que la charge électrique élémentaire qui distingue un électron de son neutrino. On pourrait donc envisager de tester une téléportation quantique avec au départ un électron et à l’arrivée le neutrino électronique à condition de se concentrer, dans le processus de la téléportation, sur les paramètres (hors charge électrique) qui leurs sont communs et qui déterminent leur état physique.

 La faisabilité d’une telle expérience n’est pas si lointaine car la production de neutrinos est de mieux en mieux maîtrisée sur site (voir CernCourier, Mai 2012 : Towards a neutrino production line) et l’intrication d’électrons est aussi une opération qui se banalise.

Si cette expérience était réalisée avec des résultats interprétables, alors on pourra évaluer si mon hypothèse est valable ou au contraire est sans intérêt. Si des indices intéressants étaient obtenus avec : électron à l’origine et neutrino à l’arrivée, il sera évidemment impossible de prévoir l’expérience réciproque toujours avec des électrons intriqués car il n’est pas envisageable de prévoir le surgissement de la charge électrique élémentaire à l’arrivée. Il y aurait là un processus de création, ce qui n’est pas du domaine de la téléportation.  Pour reprendre l’exemple de N. Gisin on peut envisager qu’au départ nous ayons un canard initial entier et à l’arrivée un canard sans tête mais le processus réciproque ne peut pas être envisagé puisque la quantité de pâte informe correspondant à la tête n’est pas à l’origine du processus.

En ce qui concerne l’expérience avec des neutrinos intriqués il me semble que cela est beaucoup plus compliqué car la faisabilité de l’intrication de neutrinos ne semble évidemment pas envisageable concrètement à l’heure actuelle.

Partager cet article
Repost0
20 septembre 2012 4 20 /09 /septembre /2012 11:37

                                      L’homme pressé

J’avais déjà exprimé une sorte d’inquiétude dans l’article du 27/05/2012 de mon blog, à propos des travaux de l’UNIGE et j’avais ajouté dans la note (1) de bas de page : « On constate que pour ces chercheurs l’intrication n’est plus un problème fondamental (toujours inexpliqué) mais un fait dont ils souhaitent exploiter les propriété à des fins technologiques. » Loin de moi de penser que l’attrait de développer des applications à partir de phénomènes, de propriétés, dans/de la nature, non élucidés, soit secondaire, au contraire, mais il faut tirer la sonnette d’alarme lorsqu’il apparaît que l’élan provoqué par l’attrait de ces applications – qui fonctionnent déjà et à coup sûr fonctionneront de mieux en mieux – estompe de plus en plus la curiosité collective des physiciens à l’égard des problèmes fondamentaux restant en suspens.  Cette préoccupation je l’ai déjà exprimé dans la présentation de mon blog lorsque j’affirme : « Dans mon référentiel j’attribue une sacrée (sic) responsabilité au sujet pensant dans sa relation avec la nature et la compréhension de ses propriété physiques. L’homme ne peut être nu de toute contribution lorsqu’il tente de décrypter les propriétés ‘objectives’ de la nature. » Ne plus avoir l’ambition d’élucider des propriétés fondamentales de la nature c’est volontairement laisser dans l’obscurité ce qui constitue une part essentielle de l’être humain, être de la nature et être dans la nature.

Certes, je ne prête pas à Nicolas Gisin[1] cette intention mais il se trouve que son livre récent : ‘L’impensable hasard’, (préface A. Aspect), édit. O. Jacob, sept. 2012, indique une propension qui pourrait être celle du renoncement à élucider ces nœuds de compréhension si fondamentaux à mes yeux. En premier lieu, j’invite tout à chacun à lire ce livre car il y a de la part de l’auteur une vraie volonté d’expliquer le plus clairement possible des choses qui sont quand même compliquées puisque en dehors du sens commun. J’invite aussi à le lire parce qu’il propose un déplacement voire un renversement : l’intrication ne serait pas la cause et la source de l’explication de la non localité et des corrélations non locales. Non ! selon N. Gisin ce serait : « Un hasard vrai capable de se manifester simultanément en plusieurs endroits à la fois. » Dans le chapitre de la conclusion de son livre, p.148, voici ce que l’on peut lire : « Résumons encore une fois l’essentiel. Nous avons vu que les corrélations non locales et l’existence du vrai hasard sont intimement liées. Sans vrai hasard, les corrélations non locales permettent forcément une communication sans transmission (donc à une vitesse arbitraire). Ainsi le concept central de ce livre implique forcément l’existence du vrai hasard, donc la fin du déterminisme. Réciproquement, une fois l’existence du vrai hasard acceptée, l’existence de corrélations non locales ne paraît plus aussi insensée que la physique classique, avec son déterminisme, nous l’a fait croire. En effet, si la nature est capable de vrai hasard, pourquoi les corrélations observées dans la nature devraient-elles être limitées à des corrélations locales ? »

Evidemment cela interpelle de lire l’affirmation : « La nature est capable de vrai hasard ». Quelle est la nature de cette capacité propre de la nature de produire du vrai hasard ? Pour l’auteur, la question ne se pose pas et cela va de soi que la nature est capable d’une production autonome, p.145 : « En revanche, vous avez compris que la nature n’est pas déterministe et qu’elle est capable de réels actes de pure création : elle peut produire du vrai hasard. »

L’intrication et ses conséquences mettent à mal la place de l’observateur, du physicien, parce qu’il est toujours dans l’impossibilité absolue d’expliquer ce qui se passe et pourquoi, il en est ainsi. On peut facilement reconnaître que cela peut mener à éprouver des vertiges existentiels lorsque l’on essaie de creuser la question, car il n’y a pas de réponse ni de début de réponse. L’indiscernabilité des objets quantiques amène à se demander qu’est-ce qui peut bien s’effondrer chez l’observateur qui le rend incapable de discerner ces objets ? Certes, cette indiscernabilité n’est possible que dans certaines conditions physiques de production que l’on maîtrise et explique très bien. Mais qu’à partir de là, que l’indiscernabilité perdure quand les objets sont distants l’un de l’autre de plusieurs dizaines de kilomètres et au-delà, c’est déconcertant. Face à l’impossibilité d’apporter une réponse valable à cette question de l’indiscernabilité (concept jamais utilisé dans ce livre) lorsqu’elle est abordée frontalement, alors la tentation peut être de contourner cette difficulté en apportant une réponse ad hoc qui évidemment échappe à toute possibilité de vérification. N. Gisin, y croit très fort, p. 147 : « Le hasard non local (produit par la nature) est donc un nouveau mode d’explication à ajouter à notre boîte à outils conceptuels, outils nécessaires à la compréhension du monde. Et il s’agit d’une réelle révolution conceptuelle ! Comme la théorie quantique prédit l’existence de corrélations non locales, il faut bien s’y faire et intégrer ce nouveau mode d’explication. »

N’oublions pas que en dehors de la mesure, de l’observation, nous ne pouvons rien dire de juste sur la nature, cela fait partie des fondements de la mécanique, et ceux-ci n’ont pas encore montrés de faille.

A propos de l’espace-temps, l’auteur ne s’attarde pas, je dirais même que sur ce sujet, il botte prestement en touche en mettant l’espace-temps hors-jeu, p.79 : « Cela signifie qu’il n’existe aucune explication sous la forme d’une histoire qui se déroule dans l’espace au cours du temps et qui raconte comment ces fameuses corrélations sont produites. Pour le dire d’une façon crue : ces corrélations non locales semblent, en quelque sorte, surgir de l’extérieur de l’espace-temps ! » Effectivement c’est cru, cela surgit de l’extérieur de l’espace-temps, donc l’espace-temps n’est pas concerné ni avant ni après ce surgissement. Esquive, car si il y a indiscernabilité c’est parce que nous raisonnons incorrectement à propos de l’espace et du temps en mécanique quantique. D’une façon générale l’ensemble des problèmes posés à propos de l’espace-temps à l’échelle quantique ne connaît à l’heure actuelle aucune réponse satisfaisante, et c’est effectivement un obstacle majeur. On peut dire que les corrélations non locales qui ont comme cause l’intrication creuse encore plus l’abîme qui nous sépare d’une (des) réponse(s) scientifiques pertinente(s) à propos de ce sujet. De mon point de vue, c’est en progressant sur la compréhension de l’espace-temps à l’échelle quantique que l’on pourra mieux expliquer la propriété de l’intrication quand je pose la question suivante : « qu’est-ce qui peut bien s’effondrer chez l’observateur qui le rend incapable de discerner ces objets ? » c’est évidemment une question qui concerne, notre perception de l’espace-temps ainsi que le rôle probablement fondamental que joue l’anthrôpos dans la fondation de l’espace-temps. (Voir l’article du blog du 27/08/2012)

N. Gisin attribue à ce fameux « vrai hasard [qui] permet la non-localité sans communication », un caractère : « fondamental, non réductible à un mécanisme non déterministe complexe. En conséquence la nature est capable d’acte de pure création !» et pour bien comprendre la rupture implicite à laquelle nous sommes invités à réfléchir à la lecture du livre ‘l’impensable hasard’, lisons p.74 « Mais l’intrication est bien davantage que le principe de superposition ; c’est elle qui introduit (sic) les corrélations non locales en physique. » Je n’ai pas besoin de vous faire un dessin pour reconnaître que dans ce contexte le mot ‘introduit’ ne signifie pas du tout la même chose que le mot ‘cause’. 

Pourtant quand, p.58, N. Gisin affirme : « Gagner au jeu de Bell revient donc à démontrer que la nature n’est pas locale. », j’aurais tendance à penser la même chose mais rien, rien, …ne nous permet de prétendre à une telle certitude parce que : ce qu’est la nature, comment elle fonctionne, nous est totalement inaccessible. A l’échelle de plus en plus fine à laquelle on scrute la nature, il n’y a pas de production de connaissances possibles sans que le sujet pensant y imprime ce qui le détermine. Or le sujet pensant a besoin de concevoir du local pour construire du sens (l’espace et le temps sont inhérents à l’être humain), il ne peut en aucun cas embrasser la nature instantanément dans sa totalité, sinon il serait omniscient et universel. Il n’y a pas de fin, le genre humain continuera de produire un savoir de plus en plus pertinent en physique mais ce ne sera jamais un savoir détaché de ce qu’il est en tant qu’être humain, être de la nature et être dans la nature. Comme je l’ai écrit à plusieurs reprises dans les articles précédents, c’est la raison pour laquelle nous concevons un univers qui nous correspond (puisque notre entendement actuel peut le décrypter), correspondant à nos déterminations et qui s’inscrit parmi tous les possibles au sein d’une éternité. Le propos de N. Gisin : « … revient donc à démontrer que la nature [intrinsèquement] n’est pas locale. », laisserait entendre qu’il a déjà accès à un savoir sur ‘tous les possibles’. Et jusque là, je suis incapable de l’accompagner, je suis lesté par une trop grande ignorance.

Si on prend au pied de la lettre l’affirmation, p.61, de l’auteur : « Ce (vrai) hasard est fondamental, non réductible à un mécanisme déterministe complexe. Donc, la nature est capable d’acte de pure création ! », nous serions donc en possession d’un savoir pur, exact, concernant une propriété intrinsèque de la nature, puisque c’est la nature qui œuvre. Dans ce cas nous avons accès à une connaissance vraie qui constituerait une pierre, élémentaire, fondamentale, d’un savoir certain, et à partir de là, nous aurions la possibilité de remonter logiquement vers d’autres savoirs purs, certains, et ainsi de suite nous pourrions enfin (re)constituer l’édifice des propriétés certaines de/dans la nature. Une connaissance définitive, complète de la nature est donc, selon N. Gisin, au bout du chemin !

Pour conclure, je dois évoquer un paragraphe qui me gêne beaucoup. Il s’agit p.129 de celui qui s’intitule : « Réalisme », sur ce sujet, pour des raisons qui m’échappent, l’auteur est extrêmement réducteur et expéditif : « Il est aujourd’hui à la mode dans certains cercles (sic) de dire qu’on a le choix entre la non-localité et le non-réalisme. » Est-ce parce qu’il a une vraie admiration pour J. S. Bell ? Est-ce qu’il nous montre ainsi que l’empressement de passer à des applications conduit à exécuter prestement les problèmes fondamentaux ?

Pour réfléchir sérieusement sur ce sujet, je vous suggère de (re)lire dans le dossier : ‘Pour la Science’, juillet-septembre 2010, l’article de Joshua Roebke : Créons-nous le monde en le regardant ? et plus particulièrement p.36 : « Tester le réalisme » où on peut lire : « A. Leggett fait partie des derniers incrédules qui défendent le réalisme contre la mécanique quantique : les photons, par exemple, doivent avoir des polarisations qui existent avant d’être mesurées. Imitant Bell, il élabore des inégalités qui doivent être vérifiées si sa théorie est exacte. Si ces inégalités sont violées par l’expérience, la mécanique quantique a raison et le réalisme est indéfendable : les polarisations de la lumière n’existent pas avant d’être mesurées. » Face à ces résultats, A. Zeilinger est contraint au compromis : « La mécanique quantique est fondamentale, probablement encore plus que nous en avons conscience, mais abandonner complètement le réalisme est certainement une erreur. Pour reprendre les propos d’Einstein, abandonner le réalisme concernant la lune, c’est ridicule. Mais au niveau quantique, nous sommes bien obligés de renoncer au réalisme. »

Enfin même A. Aspect, lui aussi disciple de J. Bell, qui signe la préface du livre est plus rigoureux que son collègue car sous sa plume on peut lire dans la même revue citée, p.30 : « Force est de constater que nous devons renoncer à la vision dite ‘réaliste locale’ du monde que défendait Einstein. »

Je vous souhaite une lecture fructueuse.

 



[1] Déjà cité dans d’autres articles, N. Gisin est physicien théoricien au Dép. de physique appliquée à l’université de Genève, pionnier de l’informatique quantique et de la téléportation quantique. Il est aussi cofondateur de la société ID Quantique, leader en cryptographie quantique. Il a reçu en 2009 le prix J. Bell.

Partager cet article
Repost0
27 août 2012 1 27 /08 /août /2012 15:41

D’infinies précautions.

De Michel Blay[1] : « Le physicien est convaincu qu’un monde extérieur à lui existe. C’est un postulat métaphysique ; ce n’est pas une donnée empirique. On pourrait tout autant postuler que le monde n’est pas et que nous sommes trompés par nos sens. La physique est une construction humaine qui ne dit pas l’absolue vérité du monde. La science n’a jamais prétendu dire la Vérité, hormis dans le scientisme que je tiens pour une forme de théologie

J’ai été étonné et, à vrai dire, déçu que ces phrases de l’interviewé soient celles qui terminent l’article car si le physicien conçoit un monde qui ne lui est pas extérieur, alors la science physique nous informerait plus sur nous même – sujet pensant doué de capacités singulières – que sur un soi- disant monde extérieur. Les lois physiques que nous mettons en avant nous informeraient donc plus sur nos aptitudes à cogiter et les conditions de cette cogitation. C'est-à-dire qu’à travers le développement de la connaissance en physique nous concevons en fait une extension de ce que nous sommes, en décryptant au fur et à mesure, parmi tous les possibles, au sein d’une éternité, ce qui nous correspondrait en tant que sujet pensant et pourvu des sens qui sont les nôtres.

Il est dommage que M. Blay se contente d’évoquer cette problématique au détour d’une phrase sans même indiquer l’extraordinaire chambardement des habitudes de pensée que cela impliquerait. Espérons quand même que se trouve exprimé là, une réelle conviction intellectuelle qui invite à ce que ce sujet soit maintenant aborder frontalement, et non pas une pure expression de style qui paresseusement prépare la chute de l’article. Espérons donc un article qui propose ce sujet comme ouverture. Après tout N. Bohr avait été amené à exprimer cette pensée iconoclaste à l’époque : « La hiérarchie entre observateur et observé n’a pas de sens, ils sont inséparables. » On remarque donc que, au début, les premières propriétés de la mécanique quantique authentifiées ont fait voler en éclats des inhibitions intellectuelles comme l’indique cette affirmation de Bohr, mais celles-ci se sont réinstallées en traçant de nouvelles frontières délimitant un monde du sujet et un monde de l’objet. (Penser, par exemple, aux travaux de B. d’Espagnat sur ‘Le réel voilé’)

Dans deux articles de mon blog, entre autres, j’ai déjà tenté d’ouvrir cette réflexion : celui du 21/12/2011, ‘L’être humain est-il nu…’, et celui du 24/04/2012, ‘Les nouveaux paysages : physiques ?...’ Le fait que l’être humain déposerait au minimum une contribution propre indélébile dans la conception d’un ‘monde physique’ qu’il fait émerger grâce à ses facultés de cogitation se retrouve (selon mon hypothèse) avec la valeur et la place du temps dans cette conception. Evidemment il est toujours délicat d’être seul à émettre cette hypothèse durant plusieurs années. Peut-être que dans un futur pas si éloigné cet isolement sera moindre ? Dans un premier temps cette pointe d’optimisme peut être suscité à la lecture de cette série de questions : « Il faudrait pouvoir identifier et caractériser le véritable moteur du temps : est-il physique, objectif, ou intrinsèquement lié à notre rapport au monde ? Si c’est cette dernière hypothèse qui est la bonne, est-ce la conscience qui joue le rôle de médiatrice entre le monde et nous ? Est-ce elle qui formate et temporalise notre rapport au monde[2] ? » Mon optimisme est très modéré parce qu’il se trouve que l’auteur se contente dans cet article (les pages sont référencées : philosophie), de soulever, d’une façon panoramique, une série de questions relatives à la problématique du temps sans s’engager sur une quelconque piste qui serait identifiée comme fertile. C’était un exercice effectivement nécessaire et utile il y a une bonne décennie mais maintenant il faut ausculter, exploiter, ces différentes pistes, bref intellectuellement s’engager comme cela est le cas dans les autres laboratoires européens.

 Au bas de la page 31, on retrouve des figures de ligne droite (la flèche du temps) plus ou moins segmentée, a priori ces lignes discontinues font penser à celles que j’ai évoquées dans le chapitre IV (Présence I, 2007-2008), mais…il y a une sacrée opposition de conception. Chez E. Klein, on lit (p.30) : « Un instant n’est d’ailleurs qualifié de présent qu’en référence à nous : la seule chose qui le distingue a priori de ses congénères est que cet instant-là accueille notre présence. » L’auteur exprime les choses ainsi parce qu’il suppose que le temps est donné dans la nature, il serait préalable à notre existence. Pour moi, évidemment c’est la ‘Présence’ du sujet qui fonde l’instant… présent.

En ce qui concerne le questionnement de E. Klein sur le rôle de la conscience à l’égard de la temporalisation du temps, j’ai déjà eu l’occasion dans d’autres contextes de critiquer et donc de rejeter cette hypothèse car la notion de conscience est extrêmement instable, versatile, elle est aussi objectivement tributaire de l’histoire de notre évolution dans ce monde. Or, l’ancrage du temps, cet ancrage qui pourrait ‘formater’ effectivement notre rapport au monde est, selon ma conception, la ‘Présence’ du sujet pensant. Cette ‘Présence’ n’est pas tributaire d’une quelconque définition, elle est absolument concomitante au surgissement du sujet pensant dans le monde, qui va de paire avec l’émergence d’une dynamique du langage.

Dans la même revue il y a un article de Craig Callenger, (des pages référencées : physique théorique) : ‘Le temps est-il une illusion ?’, qui est plus original, et comprend des hypothèses avec lesquelles, évidemment, je me trouve bien plus en phase : « Ainsi, même quand le système dans son ensemble est atemporel, les éléments individuels ne le sont pas. Un temps pour le sous-système se cache dans l’équation atemporelle du système total… l’Univers est peut-être dépourvu de temps, mais si on le décompose, certaines de ses parties peuvent servir d’horloges aux autres. Le temps émerge de l’atemporalité. Nous percevons le temps parce que nous sommes, par nature, un de ces éléments de l’Univers. » ; et en conclusion « Le temps pourrait n’exister qu’en éclatant le monde en sous-systèmes et en regardant ce qui les relie. Dans ce tableau, le temps physique émerge parce que nous nous considérons comme distincts de tout le reste. »

Le ‘système dans son ensemble atemporel’ de l’auteur, est équivalent à ce que je désigne comme étant ‘l’éternité au sein de laquelle coexistent tous les possibles’. Craig Callenger dit bien que ‘le temps physique (sic) émerge parce que nous nous considérons comme distincts de tout le reste.’ De mon point de vue, cette distinction a comme signifiant la ‘Présence’ qui engendre cette faculté de ‘surplomb’ que j’ai à plusieurs reprises évoquée dans différents chapitres.

L’article suivant : ‘La disparition du temps en relativité’ de M. Lachièze-Rey, nous renvoie dans le commentaire sans idée neuve (ce n’était pas le but). On ne peut pas faire ce reproche à l’article suivant de Carlo Rovelli qui, coûte que coûte, voudrait apporter la preuve que l’on devrait s’affranchir de tout temps.

Continuons d’analyser, à propos du temps, les questions multiples engendrées par le corpus des propriétés comprises de la mécanique quantique. Elles sont toutes plus ou moins renversantes au regard de notre pensée classique du temps. (A ce titre on peut lire le chapitre 7 : ‘Le temps et le quantum’, du livre de Brian Greene : ‘La magie du cosmos’.(2005) où se trouvent recensées certaines expériences concrètes et expériences de pensée. Voir aussi certains articles de ‘Pour la science’, juillet-septembre 2010) Toujours est-il que ces résultats bizarres qui dépassent notre entendement commun, habituel, sont obtenus grâce à des expériences concrètes réalisés ou pensées. Par exemple : ‘L’expérience du choix retardé’ proposé en 1980 par John Wheeler amène à raisonner que suivant une condition de l’expérience le ‘photon’ est contraint à se comporter comme une particule et dans une autre condition c’est le comportement ondulatoire qui prévaut. Cette expérience du choix retardé poussée à l’extrême (au niveau cosmologique) amène évidemment à se poser de sérieuses questions sur la validité, en quantique, du concept de ‘temps passé’ considéré comme une tranche de temps qui aurait accompli définitivement son cours. Or les raisonnements en question, mis en jeu, sont développés sur des bases plutôt fragiles, ainsi : « Ce qui est frappant dans cette version de l’expérience, c’est que, de notre point de vue, les photons ont pu voyager pendant des milliards d’années. Leur décision de passer d’un côté ou de l’autre de la galaxie – comme une particule – ou de passer des deux côtés – comme une onde – aurait donc été prise très, très longtemps avant que le détecteur ait même existé ! » (Voir, B. Greene, p. 233). Il me semble qu’on ne doit pas oublier de raisonner comme suit : qu’il nous apparaisse comme une particule ou qu’il nous apparaisse comme une onde. Ainsi, avec le verbe apparaître, on replace l’observateur (l’auteur) au cœur de l’expérience et c’est fondamental en mécanique quantique pour éviter tout risque de dérive d’interprétation. On rencontre fréquemment cette instabilité du référentiel à partir duquel on raisonne, et cela concerne aussi des physiciens qui connaissent très, très, bien ce sujet. Ainsi :

Dans la même revue ‘Pour la Science’ juillet-septembre 2010, on peut lire page 8, de A. Zeilinger : « Cela n’a pas non plus de sens de considérer le caractère ondulatoire ou particulaire comme une propriété objective, indépendante de l’expérience effectuée. » et page 44, de M. Brune : « Pendant le vol libre de la particule, avant son impact sur l’écran, il est impossible de lui attribuer une position donnée. La matière est (sic) alors une onde et les probabilités de détection résultent d’interférences entre ces ondes. » Puis de Greene, page 228 : « Si l’on autorise les électrons à cheminer de la source à l’écran sans les observer, leur comportement (sic) ondulatoire sera dominant et produira des interférences. » Ces trois citations ne peuvent pas faciliter la réception de ce que je vais proposer ci-après, bien que A. Zeilinger pourrait laisser entendre – entre les lignes – qu’il y a de la place pour une interprétation subjective. Dans ces citations on évoque : expérience, dispositif expérimental, mais l’observateur qui cogite est estompé avec tout ce qui fait sa spécificité. S’il est évoqué ce n’est pas, à mes yeux, forcément pertinent : « Ou serait-ce que l’observation par l’homme fait partie d’un ensemble d’influences environnementales plus vaste qui montre, quantiquement parlant, qu’après tout nous n’avons rien de spécial ? » (B. Greene, p.226)

Et si toute cette étrangeté n’était que le fruit d’une pensée fondamentalement archaïque de l’observateur qui conçoit une représentation ondulatoire par défaut.

1)      Lorsque l’observateur sait qu’il y a quelque chose dans l’interféromètre (quelque soit cette chose : photons, électrons, neutrons, molécules de fullerènes, virus ?) mais reste parfaitement ignorant du chemin suivi par la chose[3] alors c’est l’aspect ondulatoire (étendue spatiale) qui s’impose à l’observateur. Je propose de considérer que cette part d’ignorance de l’observateur joue un rôle essentiel et donc dans le cadre d’un cheminement archaïque de notre fonctionnement cérébral se trouve comblée l’ignorance spatio-temporelle par l’’illusion’ d’une représentation ondulatoire. Attention parce que l’illusion va jusqu’à une mystification (ou une auto suggestion imposante) car les figures d’interférence sont visibles sur la plaque du détecteur. A ce titre on peut considérer qu’il est absurde et donc rédhibitoire de formuler une telle hypothèse. Pourtant, je propose de continuer à la retenir en laissant cet aspect provisoirement de côté.

2)      Si au contraire l’observateur recueille une information sur le passage par un chemin particulier dans l’interféromètre (information spatio-temporelle) alors c’est l’aspect objet ponctuel qui s’impose à l’observateur. L’investissement cérébral de l’observateur est sollicité d’une manière différente grâce à l’information spatio-temporelle.

Si je souhaite persévérer avec l’hypothèse 1), c’est parce qu’il est peut-être possible de la soumettre à l’expérience. En effet une pensée (représentation) archaïque devrait probablement avoir pour siège une partie archaïque du cerveau. Il existe maintenant grâce aux laboratoires de neurosciences cognitives et d’imagerie cérébrale la possibilité de mettre au point une expérience, avec un protocole certainement très sophistiqué, où on pourrait évaluer si l’ignorance partielle d’un observateur compétent mettrait en jeu une région du ‘cerveau pensant’ différente de celle d’un même observateur qui penserait l’ondulatoire à partir d’un apprentissage acquis (par exemple à partir de la connaissance des équations de Maxwell et de leur résolution.)

J’ai dû, pour formuler cette hypothèse, vaincre mes propres réticences dont l’héritage est évidemment bien connu. Je ne doute pas que les lecteurs de cet article vont éprouver la même réluctance. Sans vouloir provoquer qui que ce soit, j’ai la profonde conviction qu’il faudra dans un temps proche passer par ce stade expérimental.

 



[1] Philosophe, physicien, historien des sciences au CNRS ; in ‘Les dossiers de la Recherche’ : Avril 2012.

[2] De E. Klein, in ‘Pour la science’, Novembre 2010.

[3] Parce que la rétention d’information de la part de la chose est parfaite. A. Zeilinger précise que si la chose émet une information et ce même s’il n’y a pas d’observateur pour la recueillir, eh bien : pas de figure d’interférence.  (Est-ce de sa part une intuition ou une affirmation prouvée ?)

Partager cet article
Repost0
11 juillet 2012 3 11 /07 /juillet /2012 19:04

Faire alliance avec les linguistes pour avancer.

(J’espère que cet article ne sera pas lu comme un article patchwork mais compris comme un article qui met en évidence des relations positives qui peuvent et, à mon sens, devraient être plus souvent expérimentées entre différents domaines scientifiques. Dans cet article je me suis appuyé sur les avancées de la linguistique telles qu’elles sont rapportées aujourd’hui. Selon moi la grande et bénéfique controverse qui a nourri les points de vue antipodiques d’Einstein et de Bohr est essentiellement dû à l’idée très contrastée, que chacun d’entre eux se faisait, de la posture du sujet pensant, habité de toutes ses déterminations, dans sa quête de la compréhension-appropriation des lois qui gouvernent la nature.)     

En dehors de leurs conséquences physiques, je n’ai jamais eu l’occasion de rencontrer une analyse de ce qui a fait l’essentiel des positions antipodiques d’Einstein et Bohr, telles qu’elles se sont affirmées à l’occasion du débat EPR (1935). L’argument EPR étant tellement sur le mode affirmatif que l’on peut entendre l’auteur défier à l’envi celui, (ceux), qui oserait(ent) remettre en cause la logique, le bon sens classique, de ce qui est comme suit énoncé : «Chaque élément de la réalité physique doit avoir un correspondant dans la théorie physique ; [étant entendu que] si sans perturber le système en aucune façon, nous pouvons prédire avec certitude…la valeur d’une grandeur physique, alors il existe un élément de la réalité physique correspondant.» Il est clairement affirmé que la connaissance que nous avons des lois de la nature et de celles que nous devons encore conquérir ne peut déroger à la logique certaine qui est énoncée dans ces phrases ouvrant l’article EPR. C’est probablement excessif que d’établir un lien avec l’instruction cartésienne : ‘que la science nous rende maîtres et possesseurs  de la nature’, mais, selon Einstein, sur le plan intellectuel l’entreprise est déjà bien avancée. En effet, il est convaincu que depuis l’avènement de la physique moderne (Galilée) tous les progrès de la connaissance en physique ont été assurés grâce à des prélèvements concrets sur la réalité de ce qui ordonne la nature et donc à ce titre, lui et ses contemporains ont la mission de poursuivre ce processus d’addition et de mise en rapport logique des lois et des éléments de la ‘réalité’ au fur et à mesure qu’ils sont débusqués par les physiciens. .

On peut comprendre aisément pourquoi A. Einstein conçoit avec cette très forte conviction le processus de la quête intelligente du physicien qui a prise sur la réalité de l’univers car c’est sur ce préalable philosophique qu’il a pu assurer presque solitairement, durant une décennie, la genèse de la loi de la relativité générale. Loi qui est certainement la plus belle création de l’esprit du siècle passé et qui continue de fertiliser la pensée scientifique de ce début du siècle. Mais ce n’est pas un préalable scientifique qui a guidé Einstein, c’est tout simplement un préalable philosophique (métaphysique) car il n’y avait aucun acquis à l’époque qui justifiait de raisonner unilatéralement ainsi. Même Maxwell (qui pour Einstein était une référence certaine et même plus) disait qu’au mieux on pouvait s’appuyer sur une modélisation de la nature, c'est-à-dire de lancer sur la nature des filets – autrement dit des « modèles » - pour en attraper les secrets dont les mailles sont mathématiques, tout en sachant bien que ce sont là des artifices, en ce que ces modèles ne reflètent jamais fidèlement les mécanismes qu’ils servent à représenter.

En contrepartie de la position affirmée d’Einstein celle de N. Bohr est à proprement parler renversante car dans sa réplique au paradoxe EPR exposé, il demande d’admettre que dans le domaine quantique, le physicien n’est plus maître de signification a priori, il ne peut plus anticiper avec certitude un résultat, il lui faut attendre que la mesure soit réalisée dans le domaine qu’il prospecte. Plus humblement, le physicien ne peut que se référer à l’information[1] donnée par la mesure sur les grandeurs qu’il souhaite intégrer dans un ensemble cohérent, significatif. En mécanique quantique, il n’y a pas d’assemblage théorique crédible qui ne soit assujetti au référentiel des conditions et des résultats de la mesure. De N. Bohr : « Les concepts physiques tirent leur seul légitimité de leur capacité à couvrir la situation expérimentale. » Ainsi l’intrication de deux objets quantiques avec ses conséquences est un fait qui s’est imposé à partir du début des années 80 avec l’expérience concluante de A. Aspect. Aucune cause théorique n’est à même d’étayer cette propriété qui est donc, à l’égard de ce qui est notre faculté d’entendement classique, …bizarre, inexplicable.

En conséquence contrairement aux fondements certains de la pensée théorique d’Einstein, il n’y a pas pour le physicien la possibilité d’inférer sur la base d’une réalité effective locale du monde. A l’échelle quantique, aucune pensée scientifique juste ne peut être conçue sur la base de la pensée préalable : il y a une réalité locale du monde. De W. Heisenberg : « Le postulat d’une réalité physique existant indépendamment de l’homme n’a pas de signification. ». J’aimerais qu’il soit plus souvent reconnu l’intuition épistémologique remarquable de N. Bohr[2] qui avec si peu d’éléments disponibles à l’époque, avait annoncé que le sujet pensant était un être si intimement influencé, structuré, formaté, déterminé donc, par son environnement naturel, physique, tel qu’il lui est donné par ses sens, qu’il lestait ses capacités intellectuelles de prospection et de conceptualisation. Le physicien peut en partie constater (mesurer) ce qui est au niveau quantique, mais en aucun cas il ne peut envisager de le conceptualiser, de se l’approprier, par ses propres facultés de représentation selon les modalités à sa disposition en tant que sujet pensant fruit d’un monde classique. A l’échelle quantique le physicien ne peut prétendre accéder à la connaissance du monde tel qu’il est mais seulement développer un discours scientifique à propos des informations obtenues en retour des gestes expérimentaux. De N. Bohr : « La physique est seulement concernée par ce que l’on peut dire sur la nature. »

La langage qui façonne la pensée et qui en est aussi son émanation résulte des facultés créatives, adaptatives, extraordinaires de l’homo sapiens qui a pu développer une conscience de sa singularité en prononçant (construisant) son individualité. Il a su développer un processus de différenciation, d’émancipation, à l’égard de la nature en mettant en œuvre une capacité de désignation, autant que faire se peut, de ce qui compose celle-ci. Désigner consiste entre autre à mettre à distance de soi. Evidemment les ressorts du langage ont puisé dans la perception que nous avons du monde immédiat, extériorisé, ainsi objectivé, donc classique. En conséquence, nous pourrions donc (peut-être) espérer que les linguistes nous aident à comprendre pourquoi nous ne pouvons pas penser ‘quantique’. Reconnaissons que cela n’a jamais été leur préoccupation, trop occupé à tenter d’identifier la ou les structures propres au langage.

Tout récemment (avril 2012) un remarquable ouvrage : ‘Dernières Leçons, Collège de France 1968-1969’ d’Emile Benveniste, a été édité (EHESS, Gallimard, Seuil). La préface de Julia Kristeva est aussi de très grande qualité. Une incursion chez Benveniste (1902-1976)[3] qui fit du langage le chemin d’une vie peut nous éclairer vis-à-vis de la problématique posée. Comment la langue fabrique du sens, comment se constituent les significations ? Habituellement ces questions ne figurent pas dans le programme habituel des linguistes, parce qu’ils supposent le plus souvent le sens donné, et donc ils cherchent à scruter sa transmission plutôt que son émergence. En 1968, Benveniste a cette idée neuve : c’est au sein des phrases, dans la succession des termes, que s’engendre le sens. La signification est générée par ce qui est en train de se dire, par l’énonciation, par les phrases en mouvement, proférées par un sujet singulier. On est fort loin d’avoir tiré les enseignements de cette conception dynamique mais voilà ce qui doit attirer notre attention. .

L’essentiel de la langue, c’est de signifier. Comment ça signifie ? Comment s’engendre la capacité de penser dans l’appareil même du langage ? Ce qui ressort quand on suit Benveniste c’est que le langage sert tout autant à concevoir du sens qu’à transmettre du sens. Et probablement plus à en concevoir. Pour Benveniste : « ça signifie » est synonyme de « ça parle », et c’est donc sans le recours à quelque « réalité externe » ou « transcendantale », mais dans les « propriétés » du langage même, qu’il prospecte et analyse les possibilités de faire sens, spécifiques de cet « organisme signifiant » qu’est l’humanité parlante. (Cela laisserait entendre que le langage construit son monde sans se référer, sans le recours, sans quelque prélèvement à une quelconque réalité externe, qui serait a priori accessible au sujet pensant.) Etudier le « pouvoir signifiant » dans les propriétés mêmes du langage, selon Benveniste, « signifier » constitue un principe interne du langage. Il a cherché à montrer comment l’appareil formel de la langue la rend capable non seulement de « dénommer » des objets et des situations mais surtout de « générer » des discours aux significations originales, aussi individuelles que partageables dans les échanges avec autrui. » « L’organisme de la langue génère aussi d’autres systèmes de signes qui lui ressemblent ou augmentent ses capacités, mais dont elle est le seul systèmes signifiant capable de fournir une interprétation. »

 « Enoncer quelque chose, c’est poser une réalité (sa réalité vécue, conçue) et c’est aussi un acte cognitif : une pensée s’énonce en mots »

La croyance d’Einstein à propos de la réalité qui se laisserait dévoiler par l’intelligence du physicien et de ses outils n’est pas compatible avec la compréhension du ‘sujet pensant-parlant’ qui émerge des travaux de E. Benveniste qui s’est consacré à l’étude de l’humanité parlante…pensante[4]. Le langage, donc la pensée, n’opèrent pas sur la base de prélèvements sur une quelconque réalité, même pas d’un point de vue originel. Quand l’être humain se construit être dans la nature, c’est avec ses propres ressources. 

N. Bohr avait compris très tôt qu’il était difficile de vouloir décrire, penser, les propriétés quantiques au plus près de leur vérité avec des capacités de représentation et des capacités langagières forgées au contact et à l’épreuve de notre monde immédiat. On peut considérer que le principe de complémentarité qu’il a énoncé en 1927 constitue la riposte la plus appropriée pour remédier à ce handicap. Il accepte le principe que quand nous chaussons nos ‘lunettes cérébrales’ pour rendre compte d’un phénomène que nous voyons-pensons comme ondulatoire celles-ci ne peuvent simultanément les voir-penser suivant un aspect corpusculaire et réciproquement. (Pensons à la discussion entre Christiaan Huygens et Isaac Newton à propos de la lumière au XVIIe siècle.) Effectivement les termes onde et corpuscule sont très déterminants, ils sont à l’échelle de notre monde le fruit de perceptions très clivant. N. Bohr admet implicitement que ces deux termes sont profondément prégnants et leurs empreintes intellectuelles sont non seulement inaliénables mais elles sont aussi un véritable obstacle pour ‘voir’, penser, autrement ce qui caractériserait les objets et les propriétés quantiques. Avec son principe de complémentarité, Bohr prend acte de cet héritage et fait preuve de pragmatisme, il installe l’aspect ondulatoire et l’aspect corpusculaire sur deux versants opposés de la description d’une unique entité qui est de l’ordre de l’échelle quantique et qui donc ne nous est pas intellectuellement accessible en tant que telle…et probablement ne le sera jamais (après tout, j’accepterais volontiers de mettre un bémol à cette dernière affirmation).

A ce titre les expériences décrites par A. Ourjoumtsev, in ‘Pour la Science’ juillet-septembre 2010, p.80 sont illustratives. Si on sait qu’il y a quelque chose dans l’interféromètre, l’aspect ondulatoire s’impose si et seulement si ce quelque chose (même macroscopique) ne nous livre aucune information sur le fait qu’il serait quelque chose au cours de sa pérégrination dans l’interféromètre. Il serait intéressant de faire la même expérience mais avec la variation suivante : l’observateur ne sait pas s’il y a ou il n’y a pas quelque chose dans l’interféromètre (cette alternance étant parfaitement aléatoire.) La sophistication suprême de cette expérience serait d’observer simultanément le fonctionnement cérébral de l’observateur grâce aux moyens de l’imagerie cérébrale qui sont maintenant au point.

Afin d’illustrer un peu plus mon propos en ce qui concerne la détermination induite par la prégnance des mots concepts, prenons l’exemple des neutrinos. Nous déclarons depuis une bonne décennie que leurs saveurs (3 identifiées) oscillent alors qu’il serait plus juste de dire que leurs saveurs se substituent mutuellement. Par contre l’expression oscillation des saveurs permet de mettre en jeu ce qui caractérisent les propriétés de l’oscillation d’un point de vue mathématique. Cela permet d’identifier des paramètres propres de l’oscillation et de les valoriser en rapport avec les résultats expérimentaux accumulés. En aucun cas, cela ne nous autorise à continuer d’affirmer que nous voyons les saveurs des neutrinos osciller effectivement. Avec cet exemple nous disposons d’une belle illustration de la thèse de Maxwell en ce qui concerne la modélisation de la nature. Enfin toujours à propos des neutrinos, l’hypothèse du ‘seesaw mechanism’ (bascule, balance), qui est une tentative d’expliquer l’extrême petitesse de la masse des neutrinos recensés, montre encore que ce sont des images du monde classique qui sont convoquées a propos d’une propriété qui doit être encore considérée comme ad hoc.

Pour compléter et actualiser ces réflexions j’invite à étudier l’article suivant : ‘La langue façonne la Pensée  de Lera Boroditsky ; in ‘Pour la Science’, septembre 2011. Cet article relate que depuis 10 ans des linguistes ont montré que des langues différentes transmettent des capacités cognitives différentes ainsi que, par exemple, les représentations spatiales et temporelles. L’apprentissage dépend de la langue que l’on parle.

Ces linguistes ont constaté que les exigences d’une langue peuvent renforcer la capacité à s’orienter dans l’espace. Ils ont aussi constaté que les individus pensant différemment l’espace ont des chances de penser différemment dans le temps. Ce qui, entre autre, ressort de cet article c’est que l’espace et le temps peuvent être, suivant les cultures, les langues, déterminés à partir de repères extrêmement distincts mais il n’en reste pas moins qu’ils sont des cadres fondamentaux appelés par l’humain pour se situer. Ceci semble être une donnée invariante sous toutes les latitudes. En encart, il est précisé : « L’extrême diversité des langues dans le monde serait liée à des différences de cognition, et chaque langue serait associée à une « façon de penser ». Cette idée doit cependant être nuancée. Les variations cognitives observées selon la langue semblent concerner les mêmes domaines, à savoir le nombre, l’espace et le temps d’une part, la mémoire et les relations avec autrui d’autre part. Il est remarquable que ces domaines correspondent à ce que plusieurs scientifiques nomment les connaissances noyaux. Il s’agit de connaissances prélinguistiques, c'est-à-dire qu’elles se développent tôt chez l’enfant, avant même l’apparition du langage. »

Ce qui est cité ci-dessus confirmerait ce que j’ai toujours indiqué (dès les premiers chapitres du cours en 2007) à propos de l’espace et du temps qui seraient inhérent à l’être humain[5]. Coïncidence intéressante dans le même numéro de la revue se trouve un article qui s’intitule : ‘Vivre dans un monde quantique’ où il est écrit qu’à l’échelle quantique : il n’y a pas besoin de se référer à un cadre spatio-temporel. Ce qui laisserait entendre, selon mon hypothèse, que le cadre spatio-temporel est imposé par l’être humain déterminé à cause de son rapport spécifique, exclusif, avec le monde extérieur perçu, décrypté, de l’échelle classique. 

Regardons plus en détail cet article de Vlatko Vedral. Premièrement cet article est très critiquable par ce qu’il l’introduit avec ce titre : « Vivre dans un monde quantique ». Il n’y a pas de monde quantique qui se différencierait particulièrement. Il n’y a qu’un seul monde et une description qui fait appel à des lois quantiques lorsque nous sommes à l’échelle correspondante. N. Bohr avait déjà en son temps lancé un avertissement pour contrer ce type de bévue : « Il n’y a pas de monde quantique. Il n’y a qu’une description physique quantique abstraite. » Une fois que nous sommes avertis de ce genre d’extrapolation erronée on peut analyser ce qui est écrit p. 28 « Par exemple, l’espace et le temps sont en physique deux des concepts les plus fondamentaux, mais qui ne jouent qu’un rôle secondaire en physique quantique. L’intrication est le phénomène quantique essentiel. Elle lie entre eux des systèmes sans référence à l’espace et au temps. S’il y avait véritablement une frontière à tracer entre les mondes quantique et classique (sic) nous pourrions nous reposer sur le cadre spatio-temporel classique pour doter la théorie quantique d’un cadre similaire. Sans cette démarcation – en fait surtout parce que le monde classique n’existe pas – nous n’avons plus besoin de ce cadre. Il nous faut plutôt chercher à expliquer l’espace et le temps comme des phénomènes émergeant d’une façon ou d’une autre d’une physique fondamentale dénuée de cadre spatio-temporel. Cela se prolonge par des interprétations sur l’espace et le temps. »

Pour décrypter le monde qui lui est extérieur, l’être humain a recours aux notions fondamentales qui ont contribué à son émergence singulière de sujet pensant. Pour aiguiser ces notions, ses outils, l’être humain s’est frotté, avec ses sens en développement, à un monde de perception immédiat donc correspondant à ce que l’on nomme l’échelle classique[6]. Parmi ces notions, il y a l’espace et le temps et plus fondamentalement le temps. Dans ce contexte on peut envisager que l’espace et le temps deviennent caducs à l’échelle quantique. Dire que « l’espace et le temps seraient des phénomènes émergeant » voudrait dire alors qu’en deçà du seuil de cette émergence, l’intelligence de l’homme est inopérante, elle est démunie, et on ne peut plus projeter de signification sur une base aussi essentielle que la spatiale et la temporelle. J’ai fait l’hypothèse qu’à propos du temps, la valeur rédhibitoire serait de l’ordre de 10-25s correspondant à τs ou TpS (‘Durée irrémédiable et aveugle de l’intelligence humaine.’) ; (voir articles précédents dont « Si faille il y a, quelle est sa nature ? ») ; nous pouvons en déduire en multipliant par C cette durée irrémédiable que 10-2 fermi est l’ordre de grandeur de distance en deçà de laquelle on perd toute capacité de mesure spatiale. C’est d’ailleurs à cet ordre de grandeur que certains disent que l’électron a effectivement cette dimension géométrique et d’autres disent qu’à partir de cette dimension on doit le considérer comme ponctuel.

Ainsi donc l’intrication, ce lien mystérieux entre deux objets quantiques, qui fait que toute action exercée sur l’un modifie instantanément les propriétés de l’autre, qu’elle que soit la ‘distance’ qui les séparerait, nous renvoie à une de nos déterminations. En fait on ne peut effectivement évoquer la distance qui les séparerait parce que ces objets intriqués au départ le reste après coup et en conséquence ne peuvent être individuellement distingués, localisés. Le repérage spatial et temporel n’est plus opérationnel.

Lorsqu’on étudie l’objet que l’on nomme le photon, il faut remarquer que nous constatons que celui-ci ‘est’ ou n’‘est pas’. Nous sommes incapable d’isoler une durée pendant laquelle on pourrait déclarer qu’il serait en formation. Il en est de même pour ce qui concerne la production d’un état d’intrication de 2 photons par exemple, ou de la production d’un état d’intrication de deux cristaux via des photons déjà intriqués. Ces processus prennent naissance à l’intérieur de τs, l’être humain est aveugle et nous ne pouvons considérer qu’une seule entité.  

 



[1] Par exemple à propos du spin de l’électron ou d’une autre particule l’appareil de Stern et Gerlach nous donne l’information que l’électron peut être considéré comme un objet tournant sur lui-même. Toutefois, il n’est pas possible pour nous de concevoir comment une particule puisse tourner sur elle-même simultanément dans toutes les directions. Le fait que nous le pensions comme objet tournant constitue  certainement un obstacle pour le penser autrement mais il faudrait aussi pouvoir imaginer des instruments de mesure moins classiques.

[2] Etrange quand même qu’il soit toujours associé à la problématique de l’intrication le nom d’Einstein alors qu’il l’avait imaginé pour la réfuter et surtout réfuter les fondements de la mécanique quantique proposés par N. Bohr et l’école de Copenhague.

[3] Les investigations lexicologiques de Benveniste, éblouissent par l’abondance des matériaux mis en œuvre et son aptitude continuelle à intégrer le fait singulier dans un ensemble cohérent, qualités qui éclatent dans sa contribution à l’histoire de « civilisation » […] On constate que le français sert de point de départ à des réflexions et à des définitions qui le dépassent : l’examen d’une langue particulière débouche sur un problème de linguistique générale. C’est chez Benveniste, une démarche essentielle.

[4] Très grand connaisseur des langues et des langues anciennes grâce à son milieu familial, ses voyages et ses études : le grec ancien et moderne, le latin, le sanscrit, le hittite, le tokharien, l’indien, l’iranien, toutes les langues indo-européennes, les langues amérindiennes, l’hébreu, le turque, le russe, l’arabe, le slave…

[5] Le temps n’est pas là par lui-même, il n’est pas donné, il n’est que par la mesure opérée par le sujet fondateur et acteur de la mesure. L’être humain est le seul être qui dispose d’un savoir sur le fait qu’il est …. C’est un spatio-temporel et il peut l’exprimer.

[6] « Ainsi nous créons le monde classique que nous observons en fonction de la sensibilité de notre perception, et comme le dit C. Bruckner : « Il pourrait y avoir d’autres mondes classiques complètement différents du nôtre. » » In ‘Pour la Science’, dossier juillet-septembre 2010, p.37.

Partager cet article
Repost0
27 mai 2012 7 27 /05 /mai /2012 20:57

                                      Lumière/Matière Matière/Lumière

 

L’analyse du compte-rendu de l’expérience réalisée à l’UNIGE (voir article de Techno Science du 06-03-2012) amène à revisiter la compréhension que nous pouvons avoir de l’interdépendance matière/rayonnement.

En premier lieu rappelons ce qui est dit dans cet article : « En effet pour les maîtres de l’intrication quantique, ce phénomène [de l’intrication] possède la désagréable habitude de s’évanouir quand les deux objets quantiques intriqués sont trop éloignés. C’est ennuyeux quand on envisage des réseaux de cryptographie quantique inviolables qui relieraient des interlocuteurs distants de plusieurs centaines voire milliers, de kilomètres.»

L’article nous rappelle le fait que l’intrication de deux photons s’estompe au fur et à mesure de la distance parcourue par ceux-ci. La distance de 200 km constitue une distance limite au-delà de laquelle on ne peut plus constater valablement cette propriété. Il semblerait que l’intrication soit une ressource physique quantifiable : elle est élevée dans certains systèmes, faible dans d’autres ; plus l’intrication est élevée, plus le système est adapté au traitement de l’information quantique. Quand l’intrication s’estompe il faut procéder à une régénérescence de celle-ci. Le procédé mis au point par l’équipe de chercheurs en question consiste à faire interagir avec la matière les photons encore intriqués pour que ceux-ci transfèrent leur propriété à la matière et partant les cristaux constitutifs de cette matière réactivent l’intrication des photons. Grâce à cette propriété de transferts d’intrication entre la lumière et la matière : « … on peut désormais imaginer mettre au point des répéteurs quantiques, explique N. Gisin, autrement dit, des sortes de borne qui permettraient de relayer l’intrication sur des grandes distances. Et puis on pourrait aussi en faire des mémoires dans le cadre d’un ordinateur quantique.[1] »

A travers le résultat de cette expérience on doit, à mon sens, s’interroger sur le processus et sa pertinence de la dissociation qui s’est progressivement opérée entre la  matière et la lumière à l’échelle quantique. Cette dissociation n’aurait jamais dû prendre corps car dès les prémisses de l’acte de naissance du concept (de la représentation) de ‘photon’ avec Planck[2], l’auteur a concomitamment émis une alerte. Planck a introduit ce concept potentiel pour rendre compte de l’échange d’énergie entre la matière et le rayonnement du corps noir. Grâce à cela il put enfin obtenir une expression théorique excellente au regard des résultats expérimentaux accumulés concernant la variation mesurée de la densité d’énergie du rayonnement du corps noir en fonction de la température et de la fréquence. Mais n’oublions pas comme le rappel M. Planck « Mais, même en admettant la validité absolument rigoureuse de la formule du rayonnement, aussi longtemps qu’elle avait simplement le caractère d’une loi découverte par une heureuse intuition, on ne pouvait en attendre qu’elle possédât plus qu’une signification formelle (sic). Pour cette raison dès le jour même où j’eus formulé cette loi, je commençai moi-même, à m’attaquer au problème de sa véritable interprétation physique. »

Cet exemple d’une grande valeur historique, illustre avec force que la conception formelle, peut être déconnectée d’un raisonnement physique canonique, préalable, comme le certifie Planck. Mais n’oublions pas qu’obtenir une expression mathématique construite, argumentée (même partiellement), qui in fine se trouve être en parfaite adéquation avec des résultats expérimentaux qui ont été préalablement et méticuleusement recensés dans la durée, n’est pas fortuit. Le risque c’est qu’a posteriori, emporté par la beauté du résultat on soit moins rigoureux et attentif à la compréhension physique et à la conceptualisation appropriée.

De mon point de vue, ce risque, s’est présentée et a été pris d’une façon définitive, avec les travaux de Bose en 1924, alors que jusqu’à cette date, Einstein avait hésité avant de franchir le Rubicond. Mais effectivement quand il prit connaissance des travaux de Bose il n’hésita point à se rallier à cette conception affirmée du photon considéré comme objet quantique autonome. Avant d’en arriver là, analysons rétrospectivement comment la pensée scientifique éminente sur ce sujet a évolué à partir de 1900.

En 1905, les propriétés relatives à l’effet photoélectrique sont parfaitement et simplement expliquées et les quanta de lumière constituent dans ce cas la meilleure représentation possible pour rendre compte de l’interaction matière/lumière et de cet effet spécifique.

Dès 1907, A. Einstein propose d’inverser la démarche heuristique empruntée par Planck. En effet considérant que cette formule obtenue en 1900 était prouvée et consistante, il considère qu’on pouvait s’adosser sur sa véracité et de là tenter d’approfondir l’étude du rayonnement, en gardant l’objectif de devoir retrouver cette formule en toutes circonstances. Dans toutes les expériences de pensée ou modèles qu’il met en avant il y a toujours de l’interaction matière/rayonnement.

En 1916, toujours avec cet horizon confortable de la validité (bien que toujours fondamentalement inexpliquée) de la loi de Planck, et grâce aux avancées théoriques dues au modèle de l’atome de N. Bohr (1913), Einstein considère l’interaction matière/rayonnement suivant deux modes distincts d’émission qui seront à l’origine de la conception du Maser, puis du Laser.

En 1923, l’effet Compton observé et sa mise en équation fait encore appel à ce concept de photon avec la nécessité de lui attribuer un caractère directionnel. Nous sommes encore en rapport avec des propriétés physiques qui mettent en jeux l’interaction matière/rayonnement. 

C’est dans le mémoire de Satyendranath Bose, en 1924, que le rayonnement du corps noir est traité comme un ‘gaz’ de photons, sans aucune référence à l’interaction matière/rayonnement, et selon des règles, nouvelles, statistiques (quantiques), qui n’ont comme justification que celle de retrouver la loi de Planck. S. Bose convainc Einstein de reprendre ce travail à son compte et de l’amplifier avec des productions qui font référence à la statistique de Bose-Eintein et en creux donne aussi naissance à la statistique de Fermi-Dirac. Ces deux statistiques rendent compte d’un spectre extrêmement ample de propriétés physiques recensées dans la nature. On n’oubliera pas que les choses ont été pensées dans ce sens là. Si au contraire le travail de Bose avait été construit sur un autre référentiel d’objet(s) physique(s) et qu’après coup, le photon y soit intégré, alors mes arguments et mes préventions seraient très atténués voire deviendraient caducs.

Faisons le point : la loi de Planck est reconnue pour sa valeur heuristique, elle est à l’origine d’une représentation, pragmatique, formelle, de l’échange discret d’énergie entre matière et rayonnement, au moyen du ‘photon’. A ce stade on peut considérer que le photon est un vecteur d’informations tout autant de la matière que du rayonnement, il a donc un caractère hybride. La coupure de toute référence potentielle avec la matière est explicitement acceptée avec la reconnaissance de la valeur du raisonnement de S. Bose. Est-ce que cette dissociation entre la matière et son rayonnement est judicieuse ? Il vaut la peine, à l’aune des résultats de l’expérience (UNIGE) citée ci-dessus, de s’interroger sur cet ontologisme, de fait, du photon. En fait le photon ne devrait jamais être considéré ‘en-soi’ car il est certainement notre meilleure représentation de l’échange au niveau quantique entre matière et rayonnement, mais pas plus.

Le questionnement est d’autant plus justifié lorsqu’on fait conjointement référence à un tout autre domaine théorique : la théorie de jauge. Rappelons-nous du raisonnement fondamental à l’origine de cette théorie de l’électrodynamique quantique : soit une particule de matière chargée (électriquement) et appliquons les propriétés d’invariance locale. Il en ressort que ces propriétés sont respectées si, et seulement si, la particule de matière est ‘habillée’ de son champ électromagnétique. Ainsi est inventé et consacré le concept du boson de jauge, qui n’est autre que le photon.

La matière chargée et son rayonnement ne devraient jamais être dissociés, ils constituent un ensemble cohérent, consistant, qui est contraint principalement par la vitesse C et ses propriétés et par la relation d’équivalence E = mc2. Ces contraintes sont constitutives de l’horizon physique de l’univers (voir l’article précédent posté le 24/04), celui que nous pouvons décrypter, qui nous est accessible concrètement et intellectuellement. La constante de Planck est représentative du lien ineffaçable matière/lumière, totalement spécifique à cet ensemble et donc injustifiable a priori.

Au sein de cet ensemble, A. Einstein, pendant des décennies, avec les contributions d’éminents scientifiques : Th. Kaluza, H. Weil, O. Klein, etc. tenta sans succès un pas supplémentaire d’unification qui visait à faire apparaître la matière comme conséquence de l’unification entre l’interaction électromagnétique et l’interaction gravitationnelle. Moi-même, j’ai pensé encore tout récemment que charge électrique et charge de masse pouvaient être les deux versants d’une même entité à identifier. Rien de tout cela n’aboutit. Alors, il reste à considérer que l’unité est là, irréductible, que la matière chargé (de la charge élémentaire) et ses effets constituent une unité indéfectible, il faut la considérer comme telle, elle constitue le socle de ce que ultimement nous sommes à même de décrypter et entendre au sein de notre univers. (« Notre monde premier est celui de le lumière, plus justement celui du rayonnement. Il constitue le fond à partir duquel se décline notre compréhension du monde et de la mise en forme de ses propriétés. On ne peut concrètement s’y situer mais nous pouvons abstraitement, partiellement l’investir, grâce à nos capacités cérébrales. Se décline : implique que le rayonnement et ses propriétés soient considérés comme constituant le paradigme absolu. »)  

Deux domaines de la physique théorique pourraient être considérés comme des confirmations de cette hypothèse : de l’unit é irréductible matière/rayonnement, ainsi que du caractère hybride du photon. Il s’agit notamment de la théorie holographique (voir par exemple les travaux de Raphael Bousso du Laboratoire national Lawrence Berkeley) et des développements théoriques à propos des trous noirs. En effet on est incapable de penser des propriétés physiques de la matière engloutie dans des trous noirs sans le rayonnement de Hawking qui s’appuie sur la notion d’entropie du trou noir. Pour le moment ces caractéristiques n’ont pas été mesurées mais voilà… elles rassurent les physiciens.

Si on accepte cette thèse, immédiatement surgit le questionnement à propos de la matière noire. Soit le vocable matière est approprié et dans ce cas il faut se demander pourquoi est-elle noire ? Deux réponses sont possibles, soit elle ne rayonne pas du tout, soit elle rayonne un rayonnement qui pour nous est non décryptable (provisoirement ou définitivement). Non décryptable parce que (par exemple) la vitesse de circulation de ce rayonnement est inférieur ou supérieur à notre vitesse standard C et il n’est pas régi par la contrainte E = mc2. Dans ce cas, il faudra se demander si ce rayonnement ‘noire’ constitue une donnée nouvelle qui enrichit la compréhension de notre univers ou bien plutôt considérer que nous sommes en présence d’une trace d’un univers différent au nôtre, enchevêtré.

Autres pistes de réflexion :

Le questionnement ne s’arrête pas là, car que penser des neutrinos ? Dans le cadre du modèle standard, ils sont les seules particules de matière élémentaires sans charge électrique, donc, à coup sûr, non rayonnantes. En ce qui concerne ces particules énigmatiques, je formulerais l’hypothèse que le neutrino électronique est ce qui reste quand l’électron a perdu sa charge électrique, de même pour le neutrino muonique, reliquat du muon et du neutrino tauique reliquat du tau. Cela implique de considérer qu’il y aurait une très forte corrélation entre les effets de la charge électrique élémentaire et pour le moins la masse d’inertie (= masse gravitationnelle) des électrons, des muons et des taus[3]. Cela implique de déterminer la nature ‘de la masse‘ résiduel véhiculée par les neutrinos, est-elle purement gravitationnelle, ou d’une nature encore inconnue ? Cette hypothèse renforce le concept de saveur qui distingue chacune des familles de neutrinos. Etant donné que le tau et le muon se désintègrent spontanément vers l’électron, il n’y a pas d’obstacles pour penser une interchangeabilité (oscillation ?) descendante du neutrino tauique jusqu’au neutrino électronique. Mais l’hypothèse que je propose doit être compatible avec le fait que l’interchangeabilité montante des neutrinos est aussi observable. Cette compatibilité est préservée car, par exemple, si on tient compte des modes de désintégration des W+, W- et du Z0, et de leur probabilité d’occurrence, on peut dire qu’il n’y a pas de hiérarchie qualitative entre l’électron, le muon, le tau. Donc la substituabilité est naturellement envisageable d’un point de vue montant et descendant.

Bien évidemment ces neutrinos ne seraient pas régis par la contrainte E = mc2, ce qui n’implique pas, ni n’interdit, qu’ils puissent se déplacer à une vitesse supérieure à C.

De même le neutrino électronique, vecteur parfait de l’interaction faible, deviendrait aussi vecteur de l’interaction électromagnétique dès qu’il lui serait affecté une charge électrique élémentaire pour devenir un électron (évidemment ceci vaut pour les autres neutrinos qui deviennent muon et tau). Ainsi l’unification électrofaible dépasserait le cadre purement formel et deviendrait le résultat d’un processus phénoménologique avec deux substrats-sources différenciés. Dans ce cas de figure la cohabitation théorique, bosons de jauge massifs et boson de jauge non massif ne serait plus matière à circonspection et il n’y aurait plus besoin d’imaginer un mécanisme type Higgs pour rendre compatible cette cohabitation.

Reste à rendre compte, si cela est possible, pourquoi avec la même charge électrique élémentaire, le muon = 105 Mev et le tau = 1776 Mev, alors que l’électron est à 0.511 Mev.

Qu’est-ce qui ferait que chacun de ces neutrinos influencerait de telles différences de masse ?



[1] On constate que pour ces chercheurs l’intrication n’est plus un problème fondamental (toujours inexpliqué) mais un fait dont ils souhaitent exploiter les propriétés à des fins technologiques.

[2] L’introduction de quanta indivisible d’énergie pour l’oscillateur, fut assurée par M. Planck, lors d’une conférence,  le 14/12/1900.

[3] Voir travail engagé par F. Lurçat et J.Y. Grandpeix en l’an 2000 (in ‘Foundations of Physics’, Vol.32, N° 1, January 2002) qui reprenait un processus imaginé dans les années 1950 par J. Frenkel et W.E. Thirring

 

Partager cet article
Repost0
24 avril 2012 2 24 /04 /avril /2012 14:59

Les nouveaux paysages : physiques ? intellectuels ? bref scientifiques, de l’anthrôpos.

 

C’est au sein d’une Eternité, parmi tous les possibles que l’anthrôpos creuse sa connaissance d’un Univers régi par les lois qui correspondent aux déterminations qui nous constituent.

Tous les possibles sont de plus en plus souvent évoqués par les cosmologistes qui découvrent qu’à la pointe de leur crayon nos propres équations annoncent ces éventualités. « Nous ne cherchons pas à tout prix à inventer des mondes multiples et des multivers. Mais les théories que nous mettons au point pour résoudre des problèmes bien terrestres conduisent à ces résultats vertigineux[1]. » Que ce soit avec la théorie des cordes, ou à cause d’une interprétation spécifique de la mécanique quantique de Hugues Everett, ou tout autres théories, ces symptômes : de multivers, d’univers parallèles ou de multitude de paysages,  nous indiquent ce surgissement de possibles probablement illimités que nous, anthrôpos, sommes à même d’appréhender, tout au moins leurs lisières. Il n’est pas nécessaire que ces théories soient classiquement justifiées pour prendre en compte le symptôme qu’elles révèlent. Cet ensemble de convergences n’est pas le fruit du hasard.

‘Au sein d’une Eternité’ : parce que la somme de tous les possibles équivaut à cette éternité Parménidienne (intemporelle, immuable) qui était peut-être celle-là qui constituait le socle du préalable philosophique qui guidait A. Einstein dans sa quête d’un monde réel. Nous devons considérer que l’addition de toutes les déterminations constitue un ensemble où plus aucune de celles-ci ne peut constituer un lien propre avec l’intelligence qui atteindrait l’extraordinaire faculté d’une synthèse authentiquement universelle. Cela pourrait se confondre avec le ‘Rien’ absolu ou le ‘Vide’ parfait qui nous interpelle.

Notre Univers n’est pas factice, il est un de ces possibles, enchâssé au sein de l’Eternité, décrypté et validé par l’être : sujet pensant, que nous sommes, représentant d’une évolution des êtres vivants, des plus sophistiquées et abouties. Mais sujet pensant qui ne peut prétendre à la connaissance universel car déterminé. Maurice Merleau-Ponty, l’avait appréhendé et énoncé dans ses cours du Collège de France (1956-1957) : « Au ‘Je pense’ universel de la philosophie transcendantale doit succéder l’aspect situé et incarné du physicien. »   Ce qui est proposé là est insupportable pour la très grande majorité des physiciens mais cette proposition doit être assumée pour résoudre les apories sur lesquelles butent, depuis plus ½ siècle, les physiciens théoriciens. C’est le prix à payer pour dépasser les bornes actuelles de notre Univers sur le plan conceptuel et sur le plan paradigmatique. Les bornes, provisoires, sont donc plus celles de nos connaissances actuelles que celles d’un Univers ayant une identité irrémédiable.

Notre savoir est déterminé et le sera toujours sans être pour autant limité. (La lecture du livre de H. Zwirn : ‘Les limites de la connaissance’, édit. O. Jacob, 2000, m’a convaincu qu’il ne fallait pas faire ce genre de confusion.)

Ma première confrontation avec l’ambition immédiate, chez le physicien, d’accéder à la connaissance universelle s’est significativement produite lorsque j’ai lu cette affirmation d’Einstein : « Ce qui du point de vue physique est réel… est constitué de coïncidences spatio-temporelles. Et rien d’autre. » (Lettre à Ehrenfest, 1915). Or de mon point de vue ces coïncidences ne nous sont pas accessibles, qu’elles aient lieu ou pas, nous ne pouvons pas développer un discours, sensé, scientifique sur ce sujet. Pour étayer ce propos, je vais me concentrer plus particulièrement sur la coïncidence temporelle. Là encore, sur ce sujet, A. Einstein fut péremptoire (en 1955) : « Pour nous, physiciens croyants (sic), la séparation entre passé, présent et avenir, ne garde que la valeur d’une illusion, si tenace soit-elle. ». On sait que cette affirmation provient des propriétés de la relativité restreinte telles qu’elles sont entendues par son auteur et on peut comprendre que le préalable philosophique d’Einstein en ce qui concerne sa conception : ‘Réaliste’, sans concession, motive ce type de croyance. Mais le fait que cette affirmation soit réitérée et propagée ½ siècle après, d’une façon violente et intransigeante[2] : « Le fait que le passage du temps (le maintenant) ne corresponde à rien dans la réalité physique… » (Voir Thibault Damour conférence en 2000), doit nous laisser perplexe.

D’Einstein à Damour, entre-temps, un autre scientifique avait énoncé : « On pourrait croire que la temporalité est un cadre inné de la pensée. Elle est produite, en réalité, dans et par l’énonciation. De l’énonciation procède l’instauration de la catégorie du présent, et de la catégorie du présent naît la catégorie du temps. Le présent est proprement la source du temps. Il est cette présence au monde que l’acte d’énonciation rend seul possible, car, qu’on veuille bien y réfléchir, l’homme ne dispose d’aucun autre moyen de vivre le ‘maintenant’ et de le faire actuel que de le réaliser par l’insertion du discours dans le monde. » E. Benveniste : ‘Problèmes de linguistique générale’, vol 2, Paris 1974. (Circonstance heureuse : ‘Les dernières Leçons au Collège de France (196861969)’, d’Emile Benveniste, viennent d’être éditées en avril. Edit. EHESS, Gallimard, Seuil.)

Je dis bien « un autre scientifique ». Pourquoi les physiciens prétendent-ils maîtriser le savoir ultime au point de se permettre de négliger, voire de mépriser, le travail de ceux qui ont réfléchi à partir d’autres champs de connaissances mais qui formulent des conclusions recouvrant exactement des domaines qui concernent les physiciens ? Voilà encore un exemple néfaste du cloisonnement entre les disciplines scientifiques. Evidemment ce ne sont pas les disciplines qui sont en cause mais plutôt les acteurs de ces disciplines. Est-ce que nous sommes encore à l’époque de la métaphysique Cartésienne qui prétendait que le tronc de ‘l’arbre de la connaissance’ était constitué de la connaissance en physique ? Les autres connaissances n’étant que des excroissances. Est-ce que, comme l’indique E. Benveniste à propos de la temporalité, il est insupportable pour Th. Damour de considérer que le physicien, quand, par les moyens de ses capacités intellectuelles, il révèle des propriétés de la nature, alors celles-ci sont marquées à coup sûr de l’empreinte indélébile qui caractérise l’identité du sujet pensant ? C'est-à-dire que dans les lois de la physique il y a la marque de l’humain qui les pense. Il ne peut pas être expulsé des lois de la nature. Est-ce que dans une certaine mesure, à travers A. Einstein, Th. Damour veut se distinguer de ses contemporains et situer ailleurs sa vocation de physicien comme le prétendit I. Newton pour lui-même – mais en affirmant au contraire une ontologie du temps – quand dans ses Principia il donne comme définition du temps : « Le temps existe dans et par lui-même et s’écoule tranquillement sans référence avec quoi que ce soit d’extérieur. » Ce temps absolu est sans rapport avec le temps relatif : « … apparent et vulgaire qui est cette mesure sensible et externe d’une partie de durée quelconque [ … ] prise du mouvement : telles sont les mesures d’heures, de jours, de mois, etc., dont on se sert ordinairement à la place du temps vrai. »

Toujours est-il que nous sommes actuellement ballottés d’affirmation péremptoire en affirmation péremptoire : « Non, le temps n’existe pas. », dixit Carlo Rovelli ; « Oui le temps existe. », dixit Lee Smolin.

Ce que l’on appelle le ‘maintenant’ est habité. Il n’est pas, il n’est jamais, réductible à un ∆t = 0., ∆t a toujours une valeur minimale que je désigne par TpS (temps propre du sujet, de l’ordre de 10-25s, voir mon article posté le 21/12/2011). Il est une émanation du socle de la ‘Présence’ du sujet pensant, il est une détermination inexpugnable du sujet pensant. Il est aussi un point aveugle de notre intelligence et de notre faculté de conception.

Peut-être que d’une autre façon, à travers une démarche intellectuelle tout à fait différente, A. Connes dit quelque chose de semblable lorsqu’il affirme dans son référentiel de la géométrie non commutative : « L’espace-temps est très légèrement non commutatif, en fait le point lui-même dans l’espace-temps n’est pas commutatif. Il a une toute petite structure interne qui est comme une petite clé. Le point a une dimension 0 au niveau de la métrique mais avec ma géométrie (non commutative) il a une structure interne et j’ai un espace de dimension 6 non commutatif. »

Cette structure interne repérée par A. Connes mériterait d’être auscultée. Ce mathématicien talentueux devrait toutefois mettre en jeu une capacité d’appréciation qui transcende celle du mathématicien pure pour probablement dévoiler plus avant la nature de la structure interne qu’il a rencontrée à la pointe de son crayon.

Sans provoquer un quelconque abus d’interprétation, je crois que l’analyse, faisant suite, des quelques pages du livre de Lawrence Krauss : ‘A Universe from nothing[3], permet d’illustrer et de conforter les arguments développés ci-dessus.

            A la page 175 de son livre, L. Krauss reconnaît une vraie déception quant à sa vocation de physicien. D’où provient cette déception ? Quelle est cette croyance erronée qui conduit immanquablement à la déception du chercheur ?

En espérant que ma traduction est pour l’essentiel correcte: «L’éventualité que notre univers ne serait qu’un parmi un ensemble infini d’univers distincts et causalement séparés, et qu’au sein de chacun de ceux-ci un nombre quelconque d’aspects fondamentaux relatifs à la réalité physique puisse être différent, ouvre de vastes possibilités inédites de comprendre notre existence.

Comme je l’ai indiqué, ce qu’il y a de plus détestable dans ce cas de figure, avec ses implications concrètes, c’est que la physique, à un certain niveau fondamental, ne soit  plus simplement qu’une science de l’environnement. (Je trouve ceci détestable parce que j’étais porté, motivé, par l’idée que le but de la science était d’expliquer pourquoi l’univers devait être ce qu’il est et comment il devint ainsi. Si tout au contraire les lois de la physique comme nous les connaissons sont simplement des accidents corrélés à notre existence, alors cet objectif fondamental était déplacé. Toutefois, je surpasserai mon préjugé si cette idée devenait vérité. »

Cette déception de L. Krauss provient du fait qu’il a une conception extrêmement  cloisonnée, figée : d’une part l’existence de l’être humain et d’autre part l’univers, la nature. Comme s’il pouvait y avoir un Univers indépendamment de ce que nous sommes, nous, êtres humains avec les déterminations qui nous constituent et que nous véhiculons et nos capacités de décryptage qui ne sont pas universelles. Comme s’il pouvait y avoir une représentation de l’univers en dehors de ce que sont nos capacités d’investissement intellectuel et des déterminations de sujet pensant ? Tout autre serait le sentiment de L. Krauss s’il voulait bien intégrer, dans son activité de chercheur en physique fondamentale, la pensée que : tout savoir nouveau conquis, fiable, est autant un savoir sur la nature qu’un savoir qui contribue à l’émancipation du sujet pensant, qui accroît la faculté de surplomb de ‘l’être dans la nature’ que nous sommes sans perdre de vue ‘l’être de la nature’ que nous sommes aussi[4]. Pour éviter toute nouvelle déconvenue L. Krauss devrait considérer que les connaissances fondamentales sont celles qui ont trait au rapport, à la relation, entre le sujet pensant et la nature. Dans ce cas toute nouvelle conquête de compréhension de cette nature constitue une extension de nos capacités intellectuelles. Cela est donc une émancipation et un enrichissement du sujet pensant. A ce titre, j’invite à considérer qu’il est plus l’auteur de ce qu’il fait apparaître que le découvreur de ce qui serait effectivement dans la nature. Partant, il est l’auteur de ce qu’il est et de ce qu’il devient. En même temps cette dynamique montre à quel point l’être humain a une sacrée responsabilité vis-à-vis de cette nature.

Page 176 : Avec la théorie du multivers, le ‘terrain de sport’ (sic) est largement modifié… « Lorsqu’on réfléchit à la création de notre propre univers et sur les conditions qui doivent être réunies pour que cela arrive.

 «  En premier lieu, la question à propos de ce qui détermine les lois de la nature qui permettent à notre univers de se former et d’évoluer devient moins significatif. Si les lois de la nature sont elles-mêmes le fruit du hasard et des circonstances, alors il n’y a pas de cause prescriptible à attribuer à notre univers. Avec le principe général que ce qui n’est pas interdit est possible, alors nous sommes assurés, dans ce cas de figure, qu’un univers peut survenir avec les lois que nous avons découvertes. Aucun mécanisme et aucune entité n’est requise pour fixer les lois de la nature telles qu’elles sont.  »

Ainsi la première phrase (a priori iconoclaste) de mon article prend tout son sens et dit comment il faut comprendre les choses.

Page 177 : « Il se pourrait qu’il n’y ait absolument aucune théorie fondamentale. »

« Je me réconforte avec la déclaration de Richard Feynman que je présente dans son intégrité : « Les gens me disent : « Êtes-vous à la recherche des lois ultimes de la physique ? » Non, je ne le suis pas. Je cherche à mieux connaître le monde, et si cela conduit au résultat ultime de tout expliquer par une seule loi, alors ce sera ainsi. Ce serait agréable d’obtenir ce résultat. Si cela conduit à la découverte que c’est comme un oignon avec des millions de couches, et que nous devenions déçus et fatigués de ne révéler que des couches successives, alors il faudra s’en contenter…Mon intérêt pour la science est tout simplement : découvrir plus à propos du monde, et le plus que je découvre, le mieux cela est. J’aime découvrir. »

Peut-être qu’il faut aussi ce méfier de ce pragmatisme, de cet empirisme comme si l’être humain n’était qu’une sorte d’ingénieur, qui mène son activité en toute neutralité, sans horizon, sans désir. L’être humain n’est pas un être froid quand il est actif, quand il est ouvertement dans l’existence car en permanence il se fonde.

La thèse que je propose est anthropocentrique, certes, mais l’anthrôpos ne ‘voit’ pas tout, ne sait pas tout, ne décrypte pas tout, n’accède pas à une totalité de ce qui serait. Il ne subit pas ce qui, pour lui, progressivement fait sens, au contraire, il puise là, les ressources pour aller toujours au-delà.



[1] De Aurélien Barrau, du laboratoire de physique subatomique et de cosmologie de Grenoble. Entre autres, écouter (sur Internet) sa conférence donnée à l’I.A.P. le 7 février 2012.

[2] Cela est dit ainsi : « Le XXIe siècle nous apportera donc peut-être (espérons-le) de nouveaux bouleversements de l’appareil conceptuel que l’homme utilise pour comprendre (et dominer (sic)) l’univers. Il est cependant attristant (sic) de constater que malgré l’ancienneté des grandes révolutions conceptuelles du XXe siècle (relativité restreinte 1905, relativité générale 1915, théorie quantique 1925-1930) la plupart de nos contemporains pensent et vivent le monde selon les cadres de pensée du XIXe siècle (qui eux-mêmes remontaient pour la plupart au XVIIe siècle). Par exemple, le fait que le passage du temps (le « maintenant ») ne corresponde à rien dans la réalité physique…comme l’affirmait Einstein…

[3] Free Presse, janvier 2012, New York, London…

[4] A ce sujet les derniers résultats des travaux d’analyse génomique sur l’homme et le gorille, le chimpanzé et l’orang-outang, les quatre espèces qui ont partagé le même ancêtre commun, il y a 10 millions d’années, présentent des conclusions intéressantes (voir site Techno-Sience article du 10/03/2012). Les chercheurs ont découvert que chez ces espèces, les gènes liés à la perception sensorielle, à l’ouie et au développement cérébral, ont montré des signes d’évolution accélérée, particulièrement chez l’humain et le gorille. Contrairement à la suggestion d’autres scientifiques qui considéraient que l’évolution rapide, des gènes humains liés à l’audition, était en corrélation avec celle du langage. En conséquence la Nature a œuvré longtemps avant que l’être humain devienne un être parlant, donc un être explicitement pensant.   

Partager cet article
Repost0
6 février 2012 1 06 /02 /février /2012 11:45

Le conditionnel est toujours de mise.

 

Lu, dans la dernière livraison du Cern-Courier (Janvier/Février 2012) : «[1]Si le boson de Higgs existe suivant les prévisions du Model Standard, alors sa masse est comprise, avec la plus grande probabilité, entre 115,5 et 127 Gev. Pour être plus précis, l’équipe du CMS exclut, avec 95% d’assurance, que ce boson ait une masse supérieure à 127 Gev, tandis que l’équipe d’ATLAS exclut une masse inférieure à 115.5 et supérieure à 131 Gev (avec une possible petite fenêtre de 237-251 Gev pas encore exclue par Atlas). Les limites supérieures de la région d’exclusion sont 468 Gev pour Atlas et 600 Gev pour CMS.

La possibilité d’exclure la région de masse inférieure est contrariée dans les deux expériences par le fait qu’il y ait un excès d’événements au voisinage de 120 Gev. De tels excès pourraient être tout simplement des fluctuations du fond (donc non significatif) ou bien les prémices d’un signal caractéristique de Higgs. Ces résultats sont consistants avec ce qui est attendu avec les statistiques accumulées jusqu’à présent, que le boson de Higgs de masse légère existe ou pas (sic).

La campagne de collecte de données programmée en 2012, attendue pour fournir au moins deux fois plus de collisions que en 2011 (soit dit en passant : 2 fois 300.000 milliards), devrait conduire à résoudre la quête du boson de Higgs du modèle standard – qui dure depuis 40 ans – en nous fournissant la réponse : oui, il est mis en évidence, ou bien, non il est totalement exclu. »

« Les résultats dévoilés au cours des présentations du 13/12 ont montré qu’une compréhension profonde est achevée, par chacune des équipes, des performances respectives des détecteurs et des nombreux bruits de l’arrière-fond. » Dans la même veine, il est écrit plus loin : « Pour le CMS, une bonne résolution de masse est possible grâce en particulier au progrès majeur qui a été finalisé dans la compréhension du calibrage du calorimètre de cristal ; dans l’aire centrale du calorimètre la performance est désormais voisine de la prévision nominale. »

Ces commentaires concernant l’évolution de la maîtrise du fonctionnement des deux détecteurs favorisent l’optimisme en ce qui concerne la fiabilité de ce qui sera détecté ou pas en 2012, mais ceux-ci permettent aussi de comprendre toutes les précautions prises à propos des événements (une dizaine) qui ont été sélectionnés comme pouvant être significatifs.

Voilà pourquoi, plus que jamais, le conditionnel est de mise !

Ce qui peut laisser perplexe c’est le rapport suivant : une dizaine d’événements sélectionnée en aval, 300.000 milliards de collisions en amont. Même avec une plus grande maîtrise du fonctionnement et de la sensibilité des deux détecteurs, annoncée pour 2012, pourra-t-on distinguer significativement un nombre suffisant d’événements au-dessus du bruit de fond ? On ne doit pas oublier que ATLAS et CMS ont en premier lieu étaient conçus avec la perspective prioritaire de la détection irrévocable du boson de Higgs s’il existe.

En fait de ce fameux boson de Higgs, on en a plus besoin qu’il ne se justifie. Il a été véritablement inventé.

a) Besoin de l’inventer pour consolider la construction théorique de l’unification (ou du processus inverse) de l’interaction électrofaible : c'est-à-dire expliquer pourquoi dans ce cas les bosons de jauge W et Z de l’interaction faible ne se différencient pas (ou inversement se différencient), par leur masse, du boson de jauge de l’interaction électromagnétique : le photon.

b) Besoin de l’inventer pour consolider le scénario de la genèse de l’Univers avec Big-Bang, et expliquer qu’à partir d’un Univers constitué exclusivement de rayonnement celui-ci évolue, après de l’ordre de 10-12s, vers un Univers empli de rayonnement et de particules de matière[2].

Que l’on découvre ou pas de boson de Higgs, 50 années après son invention, où cela nous mènera ? Cela nous mènera à un palier d’interrogations plus qu’à un aboutissement. Certes, selon le cas de figure qui s’imposera, les bifurcations seront différentes et référons-nous à celles que préemptent John Ellis (site de Techno-Science le 13/09/2011) :

1     « Toutefois, si le Higgs se trouve dans cet intervalle (114-135 Gev), la théorie du modèle standard reste incomplète ; le vide électrofaible tel que nous le comprenons actuellement serait instable pour un Higgs aussi léger dans le modèle standard, et donc nous devrions produire une nouvelle physique pour le stabiliser. »

2     « Deuxième possibilité : le boson de Higgs est plus lourd que 500 Gev, auquel cas ce pourrait être un Higgs du modèle standard… Dans ce cas, je pense que nous aurions besoin d’une nouvelle physique afin de ‘domestiquer’ ce Higgs lourd. »

3     « La troisième possibilité est que le boson de Higgs se trouve quelque part entre 135 et 500 Gev. Dans ce cas, les couplages ne pourraient être ceux du Higgs du modèle standard….et, là encore, nous aurions besoin d’une façon ou d’une autre d’une nouvelle physique. »

4     « Bien sûr, il existe encore une quatrième possibilité : qu’il n’y ait pas de Higgs du tout ! Eh bien, cela pourrait vouloir dire qu’il n’y a rien qui ressemble à un boson de Higgs du Modèle Standard, ou alors que cette particule est tellement lourde qu’elle se comporte d’une façon que nous ne pouvons pas calculer (pour le moment bien sûr !). J’ai toujours dit que le résultat le plus intéressant pour les théoriciens serait qu’il n’y ait aucun boson de Higgs d’aucune sorte. Cela nous obligerait à abandonner toutes les idées qui inspirent nos théories depuis 47 ans. » Commentaire : n’oublions pas que dans ce cas c’est fondamentalement la théorie quantique des champs qui devra être remise en question.

Il y a-t-il des théories bien nées et d’autres mal nées ?

Dans les années 1930, il n’aura pas fallu plus de trois ans pour que la prédiction théorique remarquable de Dirac sur l’existence de l’antiélectron soit expérimentalement vérifiée. Et de là, c’est le monde de l’antimatière qui prenait de la consistance. Pour ceux qui ont eu la curiosité de connaître l’histoire de cette découverte, la simplicité des arguments de Paul Dirac ainsi que les critères ‘esthétiques’ qui ont guidé ce savant, pour affirmer qu’à la pointe du crayon il dévoilait un monde totalement nouveau, ne manquent pas d’étonner.

La relativité générale relève aussi de considérations premières basiques, ‘naturelles’, qui, malgré l’exploitation d’un arsenal mathématique peu développé à l’époque, a mis en évidence des prédictions confirmées, quatre années après, avec la déflection au voisinage du soleil de la lumière émise par une étoile.

La constante de Planck, pur artéfact mathématique en 1900, selon l’auteur, est consacrée grandeur physique fondamentale en 1905 par Einstein avec cette belle et simple formule E = hν, suite à l’analyse de l’effet photoélectrique.

Le neutrino a été inventé pour les besoins d’une construction théorique. En effet, Pauli a inventé le neutrino pour les besoins de la cause : maintenir le principe de la conservation de l’énergie en mécanique quantique. Celui-ci a été pour la première fois détecté ¼ de siècle après, en 1956, à Savannah River. Depuis on a distingué 3 saveurs et l’énigme des lois physiques qui les caractériseraient est entière. Les neutrinos sont toujours aussi peu saisissables.

Si on prend en compte l’histoire plus ancienne de la pensée scientifique, on constate que dans des situations cruciales, de grands savants (et leurs contemporains) ont été conduits à concevoir de véritables chimères parce que leur entendement ne pouvait dépasser des contraintes imposées par leur propre sens commun de l’époque. Ainsi Newton a eu besoin d’inventer l’éther gravitationnel parce que selon lui il est inconcevable qu’une force puisse se transmettre à travers le vide. Plus tard dans le prolongement de cette ‘inconcevabilité’, ce fut l’éther luminifère qui servira de substrat nécessaire à la propagation de l’onde de lumière.

Aujourd’hui pour que nos modèles théoriques soient consistants nous avons besoin du ou (des) boson(s) de Higgs (et du ou (des) mécanisme(s) qui l’engendre(nt)) pour rendre compte de la transition d’entités immatérielles vers des particules de matière. Puisque, avec le Big-Bang, nous théorisons sur une origine fondamentale, immatérielle, avec une chronologie, nous sommes obligés de projeter dans cette réalité hypothétique un processus qui assurerait une telle transition.

La quête actuelle de ces bosons de Higgs, met en évidence, entre autres, le besoin de cohérence attaché à la conception dominante d’un Univers qui, telle une machine, s’est mis en route il y a 13 milliards 800 millions d’années et il est contraint par le respect de la chaîne de causalité, substrat inaliénable de notre capacité de raisonnement.

Ma conception est toujours de considérer que la matière se décline à partir du rayonnement, pas pour des raisons chronologiques ayant pour cause principal le Big-Bang mais plutôt pour des raisons de capacités conceptuelles propres à l’anthrôpos. Dans mon référentiel théorique il n’y a pas de big-bang chronologique, puisque notre Univers est enchâssé au sein d’une Eternité et il est parmi tous les possibles, celui qui nous correspond, celui que nous pouvons au fur et à mesure[3], élucider, décrypter et structurer. Les autres possibles ne sont pas exclus (ils ne doivent pas l’être) mais tout simplement ils ne sont pas de notre ressort. L’origine que l’on attribue au nôtre correspondrait en fait à la pointe extrême de nos capacités actuelles de conception, là où il n’y a que du rayonnement. Le monde premier que l’anthrôpos perçoit est celui du rayonnement (de la lumière). Il constitue le fond à partir duquel se décline notre compréhension du monde et la mise en forme de ses propriétés. On ne peut s’y situer mais nous pouvons abstraitement, partiellement, l’investir, grâce à nos capacités cérébrales de raisonnement. Se décline : implique que le rayonnement et ses propriétés soient considérés comme constituant le paradigme absolu. C’est à travers ce rapport primordial que nous identifions ce qui constitue la matière avec ou sans mécanisme de Higgs au sens strict.  



[1] Traduction assurée par mes soins, étant donné que la version en français de ce journal a été retirée du circuit depuis plusieurs années quand le directeur général était un français. Pour évaluer les dégâts auxquels contribue  ce type de décision, lire le livre du linguiste Claude Hagège : ‘Contre la pensée unique’, édit. O. Jacob, janvier 2012, notamment p. 119 : « Langue et pensée scientifique ». Pour rappel le CERN a été fondé par la France et l’Allemagne au début des années 1950.

[2] Les cosmologistes sont amenés à distinguer plusieurs champs de Higgs. Champs qui, en prenant une valeur non nulle, donnent des masses aux particules auxquelles ils sont couplés. Ces champs dont il est question sont conçus suivant la même idée générique que celui rechercher au LHC. Ils sont de plus hautes énergies. A chacun de ces champs est  associé une particule de Higgs de masse spécifique.   

[3] Dans ce contexte, l’usage de cette locution mériterait d’être médité, notamment sous le versant : quelles sont les conditions de ces : au fur et à mesure, successifs ?

Partager cet article
Repost0
21 décembre 2011 3 21 /12 /décembre /2011 14:49

L’être humain est-il nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la Nature ?

 

L’être humain est-il nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la Nature ? Ce questionnement acquière toute sa pertinence lorsqu’il s’agit de lois dans le domaine de la physique quantique. A cette question, la très grande majorité des physiciens répondraient : « Oui, il est nu de toute contribution… » Ceci se comprend car effectivement dans le cas d’une réponse négative ce serait l’essence même de l’objectivité qui caractérise la science physique, telle qu’elle est considérée maintenant, qui serait remise en cause. Il y a donc une croyance forte, dominante, que notre rapport avec les entités de la nature (à l’échelle quantique) n’est pas relatif à ce que sont nos capacités d’investissement intellectuel et en conséquence la différenciation absolue, entre ce qui est de l’ordre du sujet pensant et ce qui est de l’ordre de l’objet de l’investigation, peut être, in fine, assurément atteinte. 

Si cette assurance est soupçonnée d’être confrontée à un biais, l’expression de ce soupçon reste marginale et de toute façon, il n’est pas intégré par les physiciens. Ainsi, citons E. T. Jaynes, qui en 1990 exprimait l’avis suivant : « Le formalisme actuel de la M.Q. n’est pas purement épistémologique ; c’est un mélange particulier décrivant, en partie des réalités de la Nature, en partie une incomplète information humaine sur la Nature – le tout mélangé par Heisenberg et Bohr dans une omelette que personne n’a réussi à démêler. Maintenant nous pensons que le démêlement est un pré requis pour envisager une nouvelle avancée en physique théorique fondamentale. En conséquence, si nous ne pouvons pas séparer les aspects subjectifs des aspects objectifs du formalisme, on ne peut pas savoir de quoi on parle ; c’est aussi simple que ça (sic). » Mesurons que le soupçon en question, de E. T. Jaynes, se situe seulement au niveau du formalisme, et en conséquence cela devrait être ‘réparable’.

Pour tous ceux qui n’acceptent pas, ou n’acceptent plus, l’injonction : « Tais-toi et calcule ! » et que leur curiosité de physicien appelle à aller au-delà d’une exploitation passive des capacités remarquables de calcul et de prévision, que permet la mécanique quantique fondée par l’école de Copenhague, et en conséquence cherchent une réponse à la question : pourquoi et comment ?, ceux-ci sont essentiellement guidés par la petite voix einsteinienne : « Mon opinion est que la fonction d’onde ne décrit pas (complètement) ce qui est réel, mais elle nous permet seulement d’accéder à une connaissance maximale empirique au regard de ce qui existe réellement. C’est ce que je veux signifier quand j’avance l’idée que la mécanique quantique donne une description incomplète du réel état des choses. »

Analysons donc les hypothèses et les travaux les plus récents de ceux qui tentent de suivre les recommandations de la petite voix einsteinienne. (A ce stade, il peut être utile de lire ou relire l’article de ce blog : ‘Etonnant’, posté le 19/10). L’article du ‘NewScientist’ du 29/10/2011: « Begone, quantum voyeur… », nous propose un bilan à jour de ces tentatives qui prennent racines dans l’approche appelée GRW (G de Ghirardi, R de Rimini, W de Weber : les 3 auteurs de cette approche proposée en 1983). Article traduit par mes soins : « GRW préconise de considérer que la réduction de la fonction d’onde se produit tout le temps (même en dehors de la situation spécifique d’une opération de mesure au sens quantique du terme), mais cette réduction est extrêmement rare pour une particule individuelle, par contre dès qu’on crée une situation de mesure on force celle-ci à interagir avec le dispositif de mesure. La particule devient intimement liée, ou intriquée, avec les nombreux atomes constituant le système de mesure. Parce que ces atomes sont nombreux, une des fonctions d’onde est forcée de s’effondrer pendant le processus de la mesure. Grâce à l’intrication, cela déclenche la réduction des autres fonctions d’onde ainsi que celle de la particule soumise à l’opération de mesure. Ainsi, la fonction d’onde de la particule s’effondre sans avoir recours à une quelconque fantomatique raison provoquée par l’observateur.

En 1989, Philip Pearle, amende GRW avec une autre hypothèse appelée « Continuous Spontaneous Localisation » : CSL, qui plutôt que d’attribuer l’effondrement de type GRW, fruit du hasard, à un champ de forces, il l’attribue aux fluctuations dans une entité qui occupe (emplit) l’univers, et varie dans le temps et dans l’espace. Quand les physiciens réécrivent leurs équations relatives à CSL afin d’ajuster celles-ci aux prédictions de la relativité restreinte, ils se heurtent à une variation subite de vitesse. D’insaisissables ‘secousses instantanées’ apparaissent  dans les fonctions d’onde et cela introduit des valeurs infinies de l’énergie dans l’univers, ce qui est en désaccord avec ce que nous connaissons de la fonction d’onde.

La contribution de Bedingham est de rendre compatible la CSL avec la R.R. en évitant les termes infinis. Plutôt que d’envisager que ce soit le champ fluctuant qui agisse sur les fonctions d’onde, il introduit un champ intermédiaire qui lisse ses effets et élimine les ‘secousses instantanées’

Au lieu d’une version relativiste de la CSL précédente, l’hypothèse de Bedingham conduit non seulement à la description de particules individuelles mais aussi aux forces qui prévalent entre elles – un ‘must’ pour tous ceux qui cherchent à remplacer la mécanique quantique… Si cela était vrai : ce serait la première modification de la mécanique quantique depuis sa fondation dans les années 1920… »

« Bedingham a posté en ligne, en octobre 2010, le fruit de ses cogitations et a récidivé en mars 2011 avec une version encore plus claire. »

L’exclusion d’une quelconque détermination du sujet pensant ou d’une quelconque trace indélébile de celui-ci dans le résultat de la mesure oblige ces physiciens réalistes à ajouter, et surajouter, des entités théoriques, intermédiaires, comme dans un millefeuilles. Entités qui seraient présentes et actives dans la nature. On peut considérer que cette conception est sécurisante étant donné qu’il y a une mathématisation possible de l’action, de l’influence, de ces entités. Ainsi on se trouve dans la continuité de la démarche scientifique habituelle au sens stricte du terme[1]. A ce niveau-là on mesure l’ampleur de la rupture conceptuelle qu’il faut effectivement entreprendre en acceptant l’idée que dans le résultat dit : ‘physique’, il y a, à l’échelle quantique, une part caractéristique du sujet pensant inexpugnable qui y est inscrite. (Toutefois dans l’article posté, du blog, le 13/10 ‘Si faille il y a, quelle est sa nature ? on a constaté que A. Zeilinger et N. Gisin, par exemple, peuvent dans une réflexion extrême, évoquer, conjecturer, sur cette part du sujet pensant. Et cela me convient, je considère que cela est une avancée.)

Est-ce que cette part inexpugnable est mathématisable ? Il me semble qu’elle devrait être directement ou indirectement quantifiable mais pour l’essentiel cette part du sujet pensant est qualitative dans la mesure où la contribution du sujet ne peut pas être absolument distinguée dans le résultat de la mesure de l’objet quantique. Remarquons au passage que les physicalistes ne connaissent pas ce type d’inhibition.

Dans le référentiel théorique que j’ai commencé à élaborer depuis 5 années, j’ai d’emblée introduit le ‘Temps Propre du Sujet’ : TpS. A ce propos, toutes les références et les accès à ce travail sont donnés dans le 1er article posté le 8/10/2011.

Le TpS annule toute possibilité de mesure de coïncidences temporelles et en conséquence il annule aussi toute possibilité de mesure de coïncidences spatiales au sens strict du terme. Ce qui conduit à méditer sur le postulat einsteinien : « Ce qui du point de vue physique est réel… est constitué de coïncidences spatio-temporelles. Et rien d’autre[2]. »  

L’introduction de ce paramètre TpS a une conséquence immédiate qui est celle de contredire encore l’autre affirmation d’Einstein (en 1955) : « Pour nous, physiciens croyants (sic), la séparation entre passé, présent et avenir, ne garde que la valeur d’une illusion, si tenace soit-elle. », affirmation parfois reprise et propagée d’une façon violente et intransigeante : « le fait que le passage du temps (le maintenant) ne corresponde à rien dans la réalité physique… » (Voir Thibault Damour conférence en 2000). En effet le TpS implique une consolidation du présent, du maintenant, socle de la ‘Présence’, il est donc une détermination inexpugnable du sujet pensant. Le TpS impose de revisiter certains aspects de la relativité restreinte et les propriétés qui en sont la conséquence, essentiellement lorsque on est au voisinage du TpS (de l’ordre de 10-25s), par exemple, le sommet du cône de lumière habituel ne peut pas être ponctuel. On peut y trouver, peut-être, des arguments qui rendent compte de l’intrigante phénoménologie de l’intrication.

L’impossibilité de discerner dans la structure, la plus fine, la plus intime, du rapport sujet/objet, ce qui relève de l’entité naturelle de ce qui relève de l’être humain est particulièrement difficile à admettre, angoissante voire révoltante sur le plan intellectuel et existentiel. On peut comprendre qu’il y ait une extraordinaire censure, qu’il y ait une extraordinaire inertie, pour aborder ce sujet.

La durée de TpS est la durée du retrait de l’être dans la Nature, elle est la condition de la mobilité de la pensée, elle est la durée de l’oscillation primordiale, elle est donc la source de la temporalisation du temps. A ces titres TpS est un ‘existential’. Cette conception affirme une/la singularité de l’être humain et contredit ceux qui prônent et annoncent la fin de l’exception humaine. Cette conception affirme aussi une distance raisonnable avec les chantres du cognitivisme. La  relation de l’être humain avec la Nature est une relation exceptionnelle, primordiale, elle n’a pas d’origine : elle a toujours été. Elle est la source du développement d’une connaissance réciproque, sans fin, de l’un et de l’autre.



[1] De E. Kant « Dans toute théorie particulière de la nature, on ne peut trouver de science à proprement parler que dans l’exacte mesure où il peut s’y trouver de la mathématique. » ; ou encore de B. Russel « La physique est mathématique, pas parce que nous connaissons si bien le monde physique, mais parce que nous connaissons si peu : ce sont seulement les propriétés mathématiques que nous pouvons découvrir. Pour le reste notre connaissance est négative. »

[2] Lettre à Ehrenfest du 26 décembre 1915.

Partager cet article
Repost0
8 novembre 2011 2 08 /11 /novembre /2011 13:38

Qui se permettra de le dire ?

 

A-t-on bâti le L.H.C. seulement pour trouver le Higgs ? Cette question a été récemment posée, parce que commence sérieusement à poindre l’idée qu’il pourrait ne pas y avoir de boson de Higgs à détecter contrairement à ce que le modèle standard des particules élémentaires prévoit. D’ailleurs, est-ce à titre préventif que Rolf Heuer, l’actuel directeur général du CERN dit en juillet de cette année : « En ce qui concerne le boson de Higgs, en particulier, si on le trouve ou si on l’exclut ce sera une grande découverte. »

Rappelons-nous, ce fameux boson a été inventé, il y a une cinquantaine d’années, par le physicien Peter Higgs, pour rendre compte pourquoi certaines particules ont une masse. En septembre 2000 dans le cadre du L.E.P., l’ancêtre du LHC, des physiciens avaient pensé l’avoir décelé dans le détecteur Aleph. Trop peu d’évènements fiables (autour de 115 GeV) pour tirer des conclusions définitives. Obligation fin 2000 d’arrêter le LEP pour commencer la construction du LHC. Ce qui fut une source de tension importante au sein de la communauté scientifique. Mais l’espoir avait été qu’à partir de 2008-2009, on aurait des niveaux d’énergie des faisceaux de protons ainsi que des niveaux de sensibilité de nouveaux détecteurs (Atlas et CMS, auxquels à chacun de ceux-ci sont attachés près de 3000 chercheurs) qui permettront de détecter à coup sûr ce boson s’il existe. Les déconvenues regrettables à propos de la mise en route laborieuse du LHC ont renvoyé à courant 2010 le début des expériences de détection. Et toujours rien ! Encore rien ! C’est selon le degré d’impatience.

En mai 2006, (dans les Dossiers de la Recherche, n° 23), l’actuel Président du Conseil du CERN, Michel Spiro déclare : « L’enjeu principal à court terme est donc la découverte du boson de Higgs. On ne l’a pas trouvé au CERN avec le LEP ; on le cherche maintenant au Fermilab. D’après les prédictions théoriques, on a de bonnes chances de le trouver au LHC. Si on ne le trouve pas au LHC, c’est qu’il y a un vrai problème avec le modèle standard. »

Au Fermilab, arrêté ce mois d’octobre, on a rien détecté durant toute cette période, on a par contre restreint le domaine de sa masse possible. Un peu plus loin dans le même article M. Spiro affirme : « Il ne faut pas perdre de vue qu’il est possible que ce boson soit plus difficile à détecter que prévu, voire qu’il n’existe pas… »

Il y a quelques jours, Fabiola Gianotti, porte-parole de l’expérience Atlas, a confirmé : « Nous sommes parvenus à circonscrire le boson de Higgs dans la partie basse de la gamme de masses dans laquelle il est susceptible de se trouver (115–150GeV). C’est là que les théoriciens et les expérimentateurs s’attendaient à ce qu’il soit, mais cette zone est la plus difficile à étudier. Dans les jours et les semaines à venir, les équipes des expériences LHC analyseront la totalité des données 2011… » Certains sont plus précis, ils le situeraient dans la gamme 114-135GeV.

Il se trouve que ce domaine de masse a déjà été sérieusement ausculté. Dans le ‘Monde’ du 16/01/2007, dans un article intitulé « Les équipes du Fermilab de Chicago se replacent dans la chasse au boson de Higgs », M. Spiro reconnaît que « les Américains ont une chance de trouver le Higgs si sa masse est comprise entre 114 et 130GeV ».

 Est-ce que la fuite en avant est judicieuse ? (Voir dans le ‘Monde’ du 24/9),  dans les cartons reposent déjà les plans des futurs accélérateurs pour pousser plus loin les limites de la connaissance. Pour les en sortir, il faudra accepter de financer pour plusieurs milliards d’euros de nouvelles machines. « La société sera prête à nous soutenir, même s’il n’y a pas d’applications concrètes immédiates. Mais il faudra être très clair sur nos objectifs et très sérieux dans notre travail (sic) », pense Guido Tonelli, porte-parole de CMS.

A propos des particules supersymétriques ? Là encore, les résultats cumulés depuis le début du fonctionnement du LHC, indiquent qu’il n’y a aucune particules supersymétriques produites. Pas le moindre frémissement.

La théorie de la supersymétrie s’est imposée il y a une bonne trentaine d’années pour que le processus de l’unification des interactions fondamentales puissent être prolongé. Après le succès de l’unification de l’interaction électromagnétique avec l’interaction faible en une même interaction électrofaible, il était légitime de considérer que dans certaines conditions celle-ci s’unifie avec l’interaction forte. Pour sortir du milieu du gué ce processus d’unification il a fallu introduire une nouvelle hypothèse, celle de la supersymétrie. A la supersymétrie correspond des particules symétriques (sparticules) qui devraient si elles existent pouvoir être détectées au LHC. Le fait que l’on ait encore rien identifié ne permet pas de remettre en cause cette hypothèse. Cela indique que l’édifice théorique est fragile. En plus il y avait l’espoir de réaliser avec une pierre deux coups, car une de ces sparticules, la plus légère et stable, pourrait être un constituant élémentaire de la matière noire appelé neutralino.

John Ellis, au CERN, le 13/09, a déclaré en répondant à la question : Et si le LHC ne trouve rien du tout ? « Eh bien, cela pourrait vouloir dire qu'il n'y a rien qui ressemble à un boson de Higgs du Modèle standard, ou alors que cette particule est tellement lourde qu'elle se comporte d'une façon que nous ne pouvons pas calculer (pour le moment, bien sûr !). J'ai toujours dit que le résultat le plus intéressant pour les théoriciens serait qu'il n'y ait aucun boson de Higgs d'aucune sorte. Cela nous obligerait à abandonner toutes les idées qui ont inspiré nos théories depuis 47 ans. »

Depuis 47 ans ? Non ! Depuis plus longtemps que ça, c'est-à-dire depuis l’avènement de la Théorie Quantique des Champs (TQC), depuis donc les années 1930-1940. Dans l’article précédent : ‘ETONNANT’, j’avais mis en exergue ce jugement radical de J. Bell à dessein : « Les conventions sur les formulations de la théorie quantique, ainsi que de la théorie quantique des champs en particulier, sont vagues et ambigus, à cause d’un manque de professionnalisme. Les physiciens théoriques, professionnels, doivent être capables de faire mieux. D. Bohm, nous a montré le chemin. »

Le mécanisme de Higgs et la théorie de la supersymétrie, sont des productions directes de la TQC. Qui se permettra de dire qu’il faudrait remettre en cause ce bagage théorique, avec ses concepts, ses outils et ses mécanismes mathématiques ? Cela provoquerait un sacré tremblement que de remettre en cause radicalement la TQC. Pourtant celle-ci est à la fois bien née avec la conception de l’électrodynamique quantique…jusqu’à l’unification électrofaible, mais elle est concomitamment mal née avec la nécessité de la renormalisation. Cette renormalisation incontournable a été à l’origine d’une bifurcation dans la manière de travailler, de réfléchir, de la part des physiciens, parce que à cette occasion s’est mis en route l’engrenage de la résolution par le calcul, une sorte d’ingénierie pour contourner les apories potentielles, au détriment de l’approfondissement conceptuel et du formalisme, au détriment de la nécessité de placer sur un socle consistant et cohérent les fondements des propriétés physiques que l’on veut mettre en évidence. Ainsi on peut s’interroger : pourquoi a t’on laissé se propager l’incompatibilité entre l’impossibilité absolue pour un électron, ou toute particule de matière chargée d’ailleurs, d’être nu, c.-à-d. sans qu’il soit paré de son champ électromagnétique, comme nous l’indique l’invariance de jauge ? et le fait que la densité lagrangienne de l’électrodynamique quantique résulte de la somme des trois densités suivantes, celle du champ, celle de la particule de matière nue (sic), celle de l’interaction champ-charge.  

Partager cet article
Repost0
19 octobre 2011 3 19 /10 /octobre /2011 11:55

                                            ETONNANT

 

Le ‘Cern Courier’, du mois de juin 2011, a annoncé la création d’un réseau européen qui se consacrera à la mécanique quantique et ses problèmes fondamentaux et fascinants. Sous la direction de A. Bassi de l’université de Tiestre, un des groupes de travail, mis en place, s’intitule : « La théorie quantique sans observateurs. » Il sera animé par N. Zanghi de l’université de Gênes. La problématique de ce groupe de travail me plaît beaucoup puisqu’elle est exactement orthogonale à la mienne. Et la comparaison de résultats peut-être (très) contrastés sera toujours utile pour progresser. Mais ce choix unilatéral est étonnant, quand on se souvient que les avancées les plus remarquables de la connaissance en physique, comme dans les autres domaines de connaissance, se sont produites dans la confrontation de thèses qui s’opposaient. Pensons à cette période remarquable de débats entre N. Bohr et A. Einstein. Mon propos n’est pas de plonger dans la nostalgie mais de considérer cette période comme emblématique et quitte à organiser des réseaux à l’échelle européenne voire mondiale il faut rejeter le monolithisme des points de vue. Mon étonnement est d’autant plus grand que fondamentalement l’inspirateur de ce groupe de travail est J. Bell, cité par l’animateur du groupe. J. Bell est un physicien, logicien, qui exprime une philosophie de la connaissance en physique qui est dans la continuité des réalistes sans nuance. On sait que ses raisonnements rigoureux et logiques lui ont permis de mette en évidence les fameuses inégalités qui portent son nom et qui ont pu être exploitées (par A. Aspect, notamment) pour révéler que c’est la conception fondamentale de la mécanique quantique, opposé à la sienne, c'est-à-dire celle de l’école de Copenhague (Bohr, Heisenberg, Born, etc.…) qui est pertinente jusqu’au jour d’aujourd’hui. On sait qu’il y a beaucoup de physiciens qui ont du mal à admettre les conséquences de cette fondation. Ils ont raison de le faire puisqu’ils ont une conviction philosophique, métaphysique, (consciente ou inconsciente), qui répugne à y adhérer. Mais pas chacun dans sa forteresse !

 

Ci-joint un extrait du point de vue de John Bell contre ‘l’opération de mesure’

Avertissement, ce texte est traduit par mes soins.

Il semblerait que la théorie quantique soit concernée exclusivement par le « résultat de la mesure », et n’a rien à dire sur quoi que soit d’autre. Qu’est-ce qui qualifie un système physique de jouer le rôle de « mesureur » ? Est-ce que la fonction d’onde du Monde a attendu des milliers de millions d’années, jusqu’à ce que une première cellule vivante apparaisse, pour se réduire ? Ou bien faut-il patienter, jusqu’à la constitution d’un système plus qualifié…avec un Ph.D., pour que cette réduction ait lieu ? Si la théorie consiste à appliquer à tout objet des opérations hautement idéalisées, ne sommes-nous pas alors obligés dans ce cas d’admettre, que se produisent, plus ou moins, des processus semblables de mesure, plus ou moins tout le temps et plus ou moins partout ? Est-ce que nous n’avons pas réduite cette fonction d’onde tout le temps ?

La première charge contre l’axiome du « processus de la mesure » parmi les axiomes fondamentaux de la mécanique quantique c’est cette division louche du monde entre « système » et « appareil ».  

La seconde charge est que le mot vient avec le sens constitué à partir de la vie ordinaire quotidienne, sens qui est entièrement inapproprié dans le contexte quantique.

Quand il est dit que quelque chose est « mesuré », il est difficile de ne pas penser au résultat en se référant à une propriété préexistante de l’objet en question (sic). Ce propos met à distance l’insistance de Bohr qui affirme que dans les phénomènes quantiques, l’appareil de mesure tout autant que le système sont impliqués. Si nous ne le faisions pas, comment pourrions-nous comprendre, par exemple, que la mesure d’une « composante » du ‘moment angulaire’…dans une direction arbitraire…nous conduise à une série de valeurs discrètes ? Quand on oublie le rôle de l’appareil, comme le mot « mesure(ment) : opération de mesure » le suggère fortement, on désespère la logique ordinaire… et en conséquence la ‘logique quantique’. Quand on se souvient du rôle de l’appareil, la logique ordinaire est valable. Dans d’autres contextes, les physiciens ont été capables de prendre des mots du langage ordinaire et de les utiliser en tant que termes techniques sans provoquer de dommages. Prenez par exemple l’ « étrangeté », le « charme », et « beauté » de la physique des particules élémentaires. Personne  n’est piégé par ce « babillage »… Le serait-il avec « mesurement ». En fait le mot a eu un effet tellement dommageable dans la discussion que je pense qu’il faudrait maintenant complètement le bannir en mécanique quantique.

Ci-joint le texte original.

It would seem that the theory [quantum mechanics] is exclusively concerned about "results of measurement", and has nothing to say about anything else. What exactly qualifies some physical systems to play the role of "measurer"? Was the wavefunction of the world waiting to jump for thousands of millions of years until a single-celled living creature appeared? Or did it have to wait a little longer, for some better qualified system ... with a Ph.D.? If the theory is to apply to anything but highly idealized laboratory operations, are we not obliged to admit that more or less "measurement-like" processes are going on more or less all the time, more or less everywhere. Do we not have jumping then all the time? The first charge against "measurement", in the fundamental axioms of quantum mechanics, is that it anchors the shifty split of the world into "system" and "apparatus". A second charge is that the word comes loaded with meaning from everyday life, meaning which is entirely inappropriate in the quantum context. When it is said that something is "measured" it is difficult not to think of the result as referring to some preexisting property of the object in question. This is to disregard Bohr's insistence that in quantum phenomena the apparatus as well as the system is essentially involved. If it were not so, how could we understand, for example, that ``measurement'' of a component of ``angular momentum" ... in an arbitrarily chosen direction ... yields one of a discrete set of values? When one forgets the role of the apparatus, as the word ``measurement'' makes all too likely, one despairs of ordinary logic ... hence "quantum logic". When one remembers the role of the apparatus, ordinary logic is just fine. In other contexts, physicists have been able to take words from ordinary language and use them as technical terms with no great harm done. Take for example the ``strangeness'', "charm", and "beauty" of elementary particle physics. No one is taken in by this "baby talk". ... Would that it were so with "measurement". But in fact the word has had such a damaging effect on the discussion, that I think it should now be banned altogether in quantum mechanics.

JOHN BELL, AGAINST "MEASUREMENT"

 

 Autre point de vue J. Bell, sur lequel j’aurai l’occasion de revenir car je suis pleinement d’accord avec ce qu’il dit à propos de la théorie quantique des champs.

            Les conventions sur les formulations de la théorie quantique, ainsi que de la théorie quantique des champs en particulier, sont vagues et ambigus, à cause d’un manque de professionnalisme. Les physiciens théoriques, professionnels, doivent être capables de faire mieux. D. Bohm, nous a montré le chemin.

 

            Bilan. Si on fait le bilan, sur ces 30 ou 40 dernières années, de toutes les tentatives des ‘réalistes’ visant, dans le prolongement et avec les moyens de la mécanique quantique et de la théorie quantique des champs, à isoler effectivement un monde physique indépendant doté des propriétés révélées par ces deux corpus théoriques, on peut dire que ces tentatives n’ont pas abouti ou sont restées en suspens. Peut-être même allons-nous devoir renoncer au boson de Higgs ! Et devoir renoncer avec encore une plus grande probabilité aux particules supersymétriques !

R. Penrose a tenté d’introduire la contribution du sujet pensant pour expliquer la Réduction Objective  (OR) de la fonction d’onde en mettant en jeu par le biais d’une conception physicaliste le fonctionnement cérébral. Sa conviction se trouve être exprimée par les propos suivants : « C’est pourquoi j’affirme qu’il faut que quelque chose, dans le cerveau, soit suffisamment isolé pour que la nouvelle physique OR ait une chance de jouer un rôle important. »

Evidemment, la théorie des cordes, dans ses multiples versions, ainsi que la théorie de la gravité quantique à boucles, sont des tentatives théoriques réalistes.

N’est-il pas temps de reconnaître, d’admettre, que nous sommes à un carrefour remarquable et qu’une révolution scientifique nécessaire ne peut survenir que si conjointement on accepte de considérer une nouvelle figure de l’homme. Dans l’histoire de la pensée et de la philosophie, ces phases historiques ont été recensées et analysées par F. Wolff, dans un livre très intéressant : « Notre humanité », ‘d’Aristote aux neurosciences’ (2010, fayard). Je cite : « Ce nouvel homme est en fait requis par la nouvelle science : une science qui ne se propose plus de formuler les définitions des êtres naturels afin d’en déduire les attributs essentiels et de les situer à leur place dans un cosmos ordonné, mais des lois générales reliant les événements ou les phénomènes, grâce à la mathématisation de la nature – autrement dit, la science de Galilée et de Descartes, puis celle de Newton. A nouvelle science, nouvel homme. »

  Enjeu majeur, défi majeur. Etonnant que dans le cadre du réseau européen COST, on ne soit pas en mesure de décloisonner les thèmes de recherche et que l’on soit encore à ressasser : « Quantum theory without observers. »

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens