Overblog
Suivre ce blog Administration + Créer mon blog
16 décembre 2015 3 16 /12 /décembre /2015 15:30

Space-time has a source… but not a quantum source.

I refer to the 2015-11-16 article, published on the ‘Science’ site with the following title: “The quantum source of space-time”. The author: Van Raamsdonk report us that on the entanglement base he can explain that with a reduction process until 0 step that lead to the emergence of space-time. For him, entanglement might be the basis of geometry.

That is an original theoretical conception, and the author got noticed: ‘crackpot’, when he submitted first a paper in 2010. But through sheer willpower and rewriting his final paper is published in: ‘General Relativity and Gravitation’, journal.

Much of this work rests on a discovery announced by physicist J. Maldacena. His research has led him to consider the relationship between two seemingly different model universes. One is a cosmos similar to our own. Although it neither expands nor contracts, it has three dimensions, is filled with quantum particles and obeys Einstein’s equations of gravity. Known as anti-de Sitter space (AdS), it is commonly referred to as the bulk. The other model is also filled with elementary particles, but it has one dimension fewer and doesn’t recognize gravity. Commonly known as the boundary, it is a mathematically defined membrane that lies an infinite distance from any given point in the bulk, yet completely encloses it, much like the 2D surface of a balloon enclosing a 3D volume of air. The boundary particles obey the equations of a quantum system known as conformal field theory (CFT).

Maldacena discovered that the boundary and the bulk are completely equivalent. Like the 2D circuitry of a computer chip that encodes the 3D imagery of a computer game, the relatively simple, gravity-free equations that prevail on the boundary contain the same information and describe the same physics as the more complex equations that rule the bulk.”

As many other physicists V. Raamsdonk worried about the central unsolved questions posed by Maldacena’s discovery: exactly how does a quantum field on the boundary produce gravity in the bulk? There had already been hints that the answer might involve some sort of relation between geometry and entanglement. But it was unclear how significant these hints were. He first considered an empty bulk universe, which corresponded to a single quantum field on the boundary. This field, and the quantum relationships that tied various parts of it together, contained the only entanglement in the system. But now, Van Raamsdonk wondered, what would happen to the bulk universe if that boundary entanglement were removed?

He was able to answer that question using mathematical tools introduced in 2006 by Shinsei Ryu, and Tadashi Takanagi. Their equations allowed him to model a slow and methodical reduction in the boundary field’s entanglement, and to watch the response in the bulk, where he saw space-time steadily elongating and pulling apart. Ultimately, he found, reducing the entanglement to zero would break the space-time into disjointed chunks, like chewing gum chunks.

Better read the original article to support for the demonstration. Anyway for the author there is no doubt: “Entanglement is the essential ingredient that knits space-time together into a smooth whole – not just in exotic cases with black holes, but always.”

Since 2013, in addition to this result, J. Maldacena and L. Susskind claim that E.R. = E.P.R. and if two particles are connected by entanglement, then they are effectively joined by a wormhole. The connection that physicists call a wormhole is equivalent to entanglement. They are different ways of describing the same underlying reality.

A wormhole: a tunnel through space-time was probably introduced first by Einstein and N Rosen (E.R.). Still it is a very enigmatic concept. There is a way to suppose that in that case the proper constraints of special relativity like causal connection and the C. limit velocity are not any more relevant. Anyway physicists do not know how to manage this concept.

Now I refer to my article viXra: 1511.0012 submitted on 2015-11-02: ‘The world is not so Weird if…’, paper in which I recall that with my hypothesis of the subject’s own time τs (or TpS: Temps propre du Sujet) which magnitude is of the order of 10-23 to 10-25s, it is then possible to explain why entanglement’s phenomenon appears to the observer: “Effectively the duration of the entanglement’s production of two quantum objects is very short, quasi instantaneous, and then the duration is Δti < τs. Strictly, quantum physics tell us that the wave function of the entangled objects remains one and indivisible after the operation. We can consider that the observer, being incapable to distinguish each one of the objects which entangle at the beginning, cannot any more recover any ability for distinguish and identify each one of the elements. It’s what we named the non-localisation. We don’t know which is which, although we know that their spatio-temporal histories are very different.” In fact, to be more exhaustive, I must precise that consequently none of the spatio-temporal relationship might relate to the entangled objects because inside the blind duration τs no space and no time can be founded by the observer. So the phenomenology that I advocate since ten years does not need the ‘wormhole’ subterfuge to explain the entanglement phenomenon.

To remind, I have introduce the τs hypothesis because we must take account of the generic ‘Proper time of the thinking Subject’ and so the present moment, the present instant, of the observer is an irremediable duration and must be considered as a physical fact. The absolute instantaneousness is not graspable by the observer. This additional hypothesis must be enrolled in the special relativity equations, and of course is in opposition to the Einstein’s realism statement: ‘The separation between past, present, and future is a great illusion, even so much tenacious it is”. We note that this postulate lead straight forward as a boomerang effect to the ‘Wormhole’, thought up in 1935, but it is still dazzling physicists and it is why they are not yet capable to specify it. In fact the wormhole like entangled phenomenon tells us that the causal connection principle is a principle with reference of the human’s mind. Could be the same thing for C velocity unsurpassable!

Partager cet article
Repost0
9 décembre 2015 3 09 /12 /décembre /2015 15:21

L’espace-temps a une source… mais pas quantique.

Je me réfère à l’article, du 16/11/2015, publié sur le site de ‘Science’ qui a pour titre : « La source quantique de l’espace –temps ». L’auteur : Van Raamsdonk nous propose de rendre compte qu’à partir de la propriété de l’intrication il est possible d’expliquer dans un processus de réduction de celle-ci, jusqu’à zéro, cela conduit à l’émergence d’espace-temps.

C’est une construction théorique originale qui valut à l’auteur lors d’une première soumission à publication de son article, en 2010, d’être qualifié de ‘cinglé’. A force de persévérance et de réécriture, son article finit par être publié avec en prime une distinction dans la revue : ‘Relativité Générale et Gravitation’. Sa construction théorique prend largement appui sur les travaux de Maldacena datant de 2005 qui ont, à cette époque, favorablement étonné la communauté scientifique. Bien sûr, le résultat théorique fut obtenu sur la base de conditions théoriques qui ne correspondent pas à une situation réaliste. J. Maldacena avait réussi à établir que la force de gravitation naîtrait, dans notre monde tridimensionnel, des interactions de particules dans un espace bidimensionnel et dépourvu de gravité. Dans ce cas, le problème de l’unification entre l’interaction gravitationnelle et les interactions quantiques fondamentales c’est-à-dire le problème de la gravité quantique ne se pose plus car il y a une équivalence parfaite entre la physique du volume à 3 dimensions et celle de la surface à 2 dimensions qui l’enveloppe. Il est aisé de se représenter cette conception, il suffit de considérer le circuit d’une puce d’ordinateur (2 dimensions) qui encode les images (3 dimensions) d’un jeu sur ordinateur. Ceci avait amené à publier l’article avec les titres suivants : « La gravité est-elle une illusion ? », « Notre univers est-il un hologramme ? » (Voir article dans ‘Pour la Science’, janvier 2006).

Comme beaucoup d’autres physiciens, V. Raamsdonk est préoccupé de mettre en évidence le fait qu’un champ quantique sur la surface produise de la gravité dans le volume enveloppé. Selon la théorie de la relativité générale : produire de la gravité c’est produire de l’espace-temps puisqu’il y a une complète équivalence. Aussi il réduit son modèle théorique à des conditions simples : a) il considère que le volume de son univers est vide ; b) cela correspond à un seul champ quantique sur la surface. Puis, il modélise ce qui se produit concernant le volume de son univers si le lien d’intrication est éliminé. Pour ce faire, il exploite des outils mathématiques qui ont été développées en 2006 par Shinsei Ryu et Tadashi Takanagi. Leur équation permet de modéliser une lente et méthodique réduction du champ d’intrication de la surface et partant la réaction induite dans le volume où il observe l’espace-temps graduellement s’allonger et se séparer. Finalement, réduire l’intrication à 0 provoque la rupture de l’espace-temps en deux morceaux disjoints.

Evidemment, il faut lire l’article original pour peut-être adhérer à cette démonstration résumée, mais pour l’auteur il n’y a plus de doute la relation entre l’intrication et la géométrie est une relation générale. « L’intrication est l’ingrédient essentiel qui tricote l’espace-temps ensemble en un tout lisse – pas seulement dans des cas exotiques avec trous noirs, mais toujours. »

Complémentairement à ce résultat, Maldacena et Susskind qui considèrent que E.R. = E.P.R. conjecturent en 2013 que si 2 particules sont connectées par intrication, elles se joignent effectivement par un ‘trou de ver’ et vice versa : la connexion que les physiciens imaginent se réaliser au moyen d’un ‘trou de ver’ est équivalente à celle d’une intrication. Elles représentent des voies différentes pour décrire la même réalité sous-jacente.

Le ‘trou de ver’ serait comme un tunnel qui raccourcirait les distances apparentes, selon notre conception habituelle, à travers l’espace-temps et qui assurerait la connexion entre deux objets (par exemple entre deux trous noirs). On attribue à A. Einstein et N. Rosen (E.R.) la première acception de ce concept de trou de ver qui est encore un concept très énigmatique et laisserait supposer que les contraintes propres de la relativité restreinte (par ex. C indépassable) ne vaudrait plus avec celui-ci. Les physiciens ne savent toujours pas comment traiter ce sujet.

Ci-après je me réfère à l’article du 29/10 : ‘L’univers n’est pas si étrange si…’, article dans lequel je rappelle qu’avec mon hypothèse du point aveugle de l’intelligence humaine : TpS, il est possible d’expliquer le phénomène de l’intrication : « En effet la durée de la réalisation physique de l’intrication de deux objets est extrêmement courte, quasi instantanée, et donc se produit sur une durée Δti < TpS. Formellement, la mécanique quantique nous dit que la fonction d’onde des objets intriqués reste une et indivisible après coup. On peut considérer que l’observateur étant incapable d’identifier chacun des objets qui s’intriquent au départ, il ne peut plus, après coup, récupérer une capacité de différenciation et d’identification de chacun des éléments, c’est ce que l’on exprime par la non-localisation. » En fait pour être plus exhaustif, je dois préciser que conséquemment aucune relation spatio-temporel ne peut accompagner les objets intriqués car en l’occurrence le point aveugle l’est aussi pour la fondation de l’espace et du temps de références de l’opération d’intrication. La phénoménologie que je préconise depuis une décennie n’a pas besoin du subterfuge du ‘trou de ver’ pour rendre compte du phénomène de l’intrication.

Pour rappel, j’ai introduit l’hypothèse de TpS parce qu’il faut prendre en compte le ‘Temps propre du Sujet’ pensant générique et l’instant présent ‘le maintenant’ du sujet est irréductible et doit être considéré comme un donné physique. L’instantanéité absolue n’est pas saisissable par l’observateur. Cette hypothèse supplémentaire doit s’inscrire dans la loi de la relativité restreinte, et elle s’oppose au postulat du réalisme d’Einstein : « la séparation entre passé, présent et avenir, ne garde que la valeur d’une illusion, si tenace soit elle. » On constate que le prix à payer de ce postulat c’est le ‘Trou de Ver’, tel un effet boomerang, inventé en 1935 mais qui aveugle encore les physiciens car ils ne savent pas encore comment le caractériser.

Partager cet article
Repost0
10 novembre 2015 2 10 /11 /novembre /2015 09:58

Principe de causalité : construction de l’esprit ou loi de la Nature ?

Dans l’article du 29/10 : l’univers n’est pas si bizarre si…, j’ai affirmé : « Ma réponse est évidente : le processus de l’enchaînement causal est la conséquence d’une projection déterminante de l’esprit humain à l’endroit de la nature. » Dans le présent article, je propose de justifier les fondements de cette affirmation.

Comme déjà précisé, cette proposition n’est pas neuve, depuis 3 siècles on la pense. L’’empiriste critique’ : D. Hume, est évidemment le plus cité à propos de la défense de cette thèse.

David Hume : l'empiriste qu’il est, considère que la connaissance se fonde sur l'accumulation d'observations et de faits mesurables, dont on peut extraire des lois générales par un raisonnement inductif, allant par conséquent du concret à l'abstrait. Il ‘montre’ que nous n’avons pas de connaissance a priori de la causalité, qu’elle est une projection de notre esprit et que l’ordre manifesté par les lois de la physique résulte d’une nécessité intérieure à la pensée elle-même. En 1748, il publie : ‘l’Enquête sur l’entendement humain’. Le point capital de la pensée humienne réside dans sa critique de l’idée de cause. A cette époque le principe de causalité tenait une place essentielle dans la philosophie cartésienne (R. Descartes, 1596-1650) où les effets sont censés résulter des causes.

La critique de la causalité est le plus souvent illustrée par l’exemple brut suivant : « Quand je vois par exemple, une boule de billard qui se meut en ligne droite vers une autre ne puis-je pas concevoir que cent évènements différents pourraient aussi bien suivre cette cause ? Les billes ne peuvent-elles toutes deux rester en repos absolu ? La première bille ne peut-elle retourner en ligne droite ou rebondir de la seconde dans une ligne ou une direction quelconque ? Toutes ces conceptions sont cohérentes et concevables. Alors pourquoi donner la préférence à l’une d’elles qui n’est ni plus cohérente, ni plus concevable que l’autre. » Comme il est dit toutes les conceptions sont cohérentes, ce sont donc plus des conceptions que des observations inconditionnées et c’est donc le conditionnement empirique qui rend l’observateur aveugle vis-à-vis de toutes les autres possibilités. Pour nous, il est quand même difficile de suivre, d’adopter, le point de vue critique de Hume, nous qui sommes intellectuellement formatés par la logique cartésienne et la philosophie kantienne qui considèrent la causalité comme une composante a priori de l’entendement, conditionnant la possibilité même de construire l’expérience humaine à partir des données brutes des sens.

Pas simple de concevoir en dehors de ce moule ! Toutefois, au fond, ce schéma kantien est cohérent si les phénomènes eux-mêmes – la cause et l’effet – sont considérés comme mentaux plutôt que physiques. Alors… ?

Il y a une autre raison qui m’amène à penser que le principe de causalité est une construction de l’esprit et non pas une loi naturelle car dans ce cas il faudrait considérer que la nature est structurée par un ordre préétabli, par des structures réelles mais qui ne peuvent être que finis et qu’il y aurait une harmonie préalable entre la réalité et l’esprit humain. Cela suppose une bonne dose de croyance métaphysique qui me semble aujourd’hui dépassée.

Il est remarquable que la science physique ait atteint un niveau de connaissances et d’énigmes très pointues au point que nous sommes objectivement interpelés sur la problématique : la causalité construction de l’esprit à cause l’empirisme expérimental ou bien règle logée au sein de la Nature ? Voilà la problématique posée par la phénoménologie de l’intrication.

Pour construire une réponse pertinente à ce type de questionnement, il me semble qu’il est approprié d’avoir recours à des connaissances scientifiques dans d’autres disciplines. Je pense plus particulièrement à la paléoanthropologie qui dispose à l’heure actuelle de matériaux très riches et de techniques d’analyses très diversifiées.

J’ai déjà eu l’occasion de citer dans l’article du 21/07/2015 : ‘La seconde naissance de l’homme’, les travaux de J. Guilaine : « Au paléolithique archaïque, aux alentours de 1,9 millions d’années, l’analyse de la documentation fournie par plusieurs sites africains montre une gestion des matières premières fondée sur un certain rapport à l’espace (et donc au temps). A Oldowaï (en Tanzanie), les matériaux bruts nécessaires à la taille ont été apportés de sources distantes de 3 km. De gîtes plus lointains, entre 9 et 13 km, on n’a ramené que des outils finis…

L’histoire des temps paléolithiques, dans leur extrême durée, est précisément caractérisée par une maîtrise de l’espace toujours plus élargie, par des déplacements sans cesse portés vers des frontières plus lointaines. Ces pérégrinations impliquent donc une maîtrise minimale du temps… Dans ce cas, le temps nécessaire pour parvenir aux gîtes est une notion intellectuellement assimilée. » Ce qui est ici signifié : c’est que dans la contrainte de la survie, la corrélation de la distance de déplacement nécessaire avec la durée de ce déplacement s’impose empiriquement. Cette corrélation fait partie de la vie primordiale consciente (Il y a de l’instinct mais il y a aussi du calcul. Il y a de l’instinct parce que tout observateur de la vie animale sauvage peut constater que ces animaux suivent quotidiennement leur parcours dédié à la collecte de nourriture en fonction de la lumière du jour qui est donc instinctivement modifié suivant les saisons). Etre encore sur le chemin du retour une fois la lumière solaire disparue, c’est pour l’Homo (Erectus ou Ergaster) en question, prendre le risque de devenir une proie. Ce conditionnement qui conduit à articuler distance (espace) et durée (temps) vient de loin, il serait donc inscrit dans le cerveau Homo depuis au moins cette époque.

Les paléoanthropologues sont dorénavant presque unanimes pour considérer que le changement climatique serait un facteur important dans l’évolution humaine. Ce serait donc à cause des phases successives de changements climatiques que l’évolution (mise en évidence par Darwin) des différents Homo ce serait produite. Un N° spécial de ‘Pour la Science’ : ‘L’odyssée humaine, les moteurs cachés de notre évolution’, Novembre 2014, de très bonne qualité est très instructif. Plus particulièrement je me réfère à l’article : ‘Le climat, moteur de l’évolution’, du professeur Peter de Menocal, qui en résumé nous dit : « Ces derniers millions d’années, l’Afrique de l’Est a connu plusieurs changements climatiques. La végétation s’est modifiée et, dans la lignée humaine, seules ont survécu les espèces ayant une certaine capacité d’adaptation. » Je conseille fortement de le lire ainsi que tout le N° dans son ensemble. Les théories associant les variations climatiques et l’évolution remontent à Darwin (1809 – 1882). Il postula que des grands changements du climat modifient de façon importante, la végétation et donc l’alimentation, les abris et les différentes ressources disponibles. Les espèces devaient s’adapter, disparaître ou évoluer. L’environnement, déterminé par le climat, favorise les espèces dotées de certains traits. Avec le temps, ces organismes et leur héritage génétique deviennent dominants parce qu’ils survivent en plus grand nombre au changement. Lucy et son espèce (Australopithecus afarensis) se sont éteintes, il y a 2,9 – 2,4 millions d’années, laissant la place notamment aux premiers membres du genre Homo. Ceux-ci présentaient les premiers traits modernes, y compris des cerveaux volumineux. Ces individus ont fabriqué les premiers outils (et peut-être sont-ils les premiers initiateurs d’une forme de langage, au moins d’une faculté de communication au moyen de sons ? Voir article du 10/10/2013).

Il est donc scientifiquement établi que la cause principale de l’évolution des êtres vivants jusqu’à ce que l’on atteigne le stade désigné ‘Odyssée humaine’ soit le climat. Et qu’au sein de cette odyssée ce soit la faculté d’adaptation à cette cause qui a conduit l’homo sapiens à s’installer sur la terre.

Cette cause est d’emblée franchement extérieure à ce qui est à l’origine de l’ordre de la nature humaine. Mais cette nature humaine naissante a dû savoir composer avec les éléments de cette cause extérieure pour obtenir en retour un effet de survivance et de développement. Il y a donc eu un processus d’intériorisation charnelle et cérébrale de ce qui naturellement, extérieurement, s’imposait. Quand je dis processus d’intériorisation cérébrale donc ‘intellectuel’, il ne faut pas exclure processus inconscient (de l’ordre de l’instinct par exemple) et processus conscient. On peut facilement envisager que la part du conscient (élaboration de stratégies adaptatives) est devenue plus importante au fur et à mesure de l’évolution Homo, jusqu’à ce que nous sommes présentement. Conscient ou inconscient, l’empreinte de ce processus reste gravé dans notre cerveau, car nous n’avons pas changé de cerveau, celui-ci s’est enrichi jusqu’à ses développements ultimes. A ce propos, en janvier 2011 des chercheurs du Muséum d’Histoire naturelle ont communiqué une étude des modifications du cerveau au cours de l’évolution de notre espèce Homo sapiens ces 30.000 dernières années : ‘Plus petit, réorganisé, notre cerveau a évolué depuis 30.000 ans’.

En résumé, je propose de considérer que le principe de causalité est un principe sélectionné, élaboré, témoin de l’intelligence humaine embryonnaire, sélection et élaboration qui ont été validées au cours d’un processus empirique et conduisant à la capacité de survivance. Ce principe ne serait donc pas dans la Nature, il correspondrait à une spécialisation sélective de l’intelligence humaine qui doit être franchement identifiée pour être dépassée. Ce principe doit être considéré comme un déterminant de ce qui constitue la nature humaine.

Il faut faire le pari que c’est en approfondissant les propriétés de la Nature que ce dépassement sera possible. Déjà on peut considérer que l’élucidation du phénomène de l’intrication constitue une telle opportunité et que d’autres phénomènes qui se présentent actuellement à notre perplexité vont nous conduire à une capacité de réflexion moins conditionnée.

Plus particulièrement, je pense à un article tout récent : voir Phys.org, le 4/11 : « Des processus quantiques démontrent la superposition d’évènements ordonnés. » avec le commentaire suivant : « Dans une superposition quantique, un objet quantique peut être en même temps dans 2 états quantiques incompatibles, ce qui est illustré par le chat de Schrödinger mort et vivant. Des recherches récentes ont montré qu’il était possible d’avoir une superposition non seulement d’états incompatibles mais aussi d’évènements dans des ordres incompatibles. Nous pensons souvent à des évènements se produisant dans un ordre chronologique définitif, avec l’évènement A se produisant (et causant) l’évènement B, ou vice-versa. Mais dans certains processus quantiques, les évènements ne se produisent pas dans un ordre simple et défini, mais au contraire dans les deux ordres (A avant B, et B avant A) en même temps. Ce phénomène de semblable superposition contre intuitive est appelé ‘non séparabilité causale’. »

Il faut attendre pour en savoir plus sur cette situation et savoir si la fabrication de ces 2 évènements s’est produite dans une durée < TpS car dans ce cas nous avons une explication à proposer.

Si on obtient des preuves tangibles que le principe de causalité est vraiment un principe empirique, un principe déterminant profondément nos capacités intellectuelles, cela ne conduira pas automatiquement au dépassement de cette détermination. Peut-être que cela sera indépassable ? Chaque étape en son temps ! Il est trop tôt pour se poser des questions abyssales. Nous avons tous lu des articles récents mettant en évidence une plasticité cérébrale jusqu’alors ignorée. On verra si cela pourra contribuer au dépassement.

Partager cet article
Repost0
29 octobre 2015 4 29 /10 /octobre /2015 08:21

L’univers n’est pas si bizarre si…

J’ai déjà eu l’occasion de préciser que mon hypothèse de l’existence de TpS (point aveugle de l’intelligence humaine) pouvait expliquer le phénomène de l’intrication. En effet la durée de la réalisation physique de l’intrication de deux objets est extrêmement courte, quasi instantanée, et donc se produit sur une durée Δti < TpS. Formellement, la mécanique quantique nous dit que la fonction d’onde des objets intriqués reste une et indivisible après coup. On peut considérer que l’observateur étant incapable d’identifier chacun des objets qui s’intriquent au départ, il ne peut plus, après coup, récupérer une capacité de différenciation et d’identification de chacun des éléments, c’est ce que l’on exprime par la non-localisation. On ne sait pas qui est l’un et qui est l’autre bien que l’on sache qu’ils suivent des histoires spatio-temporelles franchement différenciées.

Par contre, selon mon hypothèse, ce qui apparaît intriqué dans le référentiel où est réalisée l’intrication, peut très bien ne pas l’être dans un autre référentiel, il suffit que l’autre se déplace à une vitesse relative suffisamment importante par rapport au premier. En effet, étant donné que la réalisation d’une intrication est une opération technique, celle-ci obéit à la loi de la dilatation du temps. En effet, si Δti < TpS, il est possible que le Δt’o soit > Tps dans l’autre référentiel en mouvement, il suffit que la valeur de ϒ le permette : Δt’o = ϒ Δti et donc l’intrication n’est pas observée dans ce référentiel. De cette façon on peut valider ou invalider l’hypothèse de TpS. Je dois préciser avec insistance que ceci vaut uniquement du fait que la réalisation de l’intrication est le fruit d’une opération technique. Le TpS est une grandeur intrinsèque au sujet pensant et donc évidemment le même quel que soit le référentiel dans lequel il se trouve.

Tout récemment, le 22/10/2015, dans Phys.org, un article est publié avec le titre : ‘L’univers est réellement bizarre, et une expérience quantique de référence le prouve.’ Voici l’essentiel de ce qui est écrit :

La causalité locale est considérée comme une supposition scientifique naturelle et elle gouverne toutes les théories scientifiques modernes, la mécanique quantique faisant exception. La causalité locale est sous-tendue par deux suppositions. La première est liée au principe de la causalité relativiste d’A. Einstein qui nous dit qu’aucune influence causale ne peut se déplacer à une vitesse supérieure à celle de la lumière.

La seconde est liée au principe du sens commun proposée par H. Reichenbach qui nous dit sommairement que si on pouvait connaître toutes les causes d’un événement potentiel, on connaitrait ainsi tout ce qui est nécessaire pour prédire s’il se produira ou non.

Alors que la mécanique quantique est une théorie aux succès remarquables, elle n’est toujours qu’une théorie puisque des prédictions de cette théorie découvertes par J. Bell en 1964 ont été soumises à l’expérience pendant toutes ces décennies.

Maintenant, on peut considérer que toutes les failles expérimentales qui pouvaient être mises en avant à l’occasion des expériences successives sont définitivement levées (voir article dans le blog du 13/10/2011) grâce à l’expérience remarquable réalisée ces derniers temps par R. Hanson et ses collègues dans les laboratoires hollandais.

Nous pouvons maintenant valablement et définitivement nous interroger à propos de l’intrication et de sa signification scientifique : est-ce que l’influence causale se propage à une vitesse supérieure à celle de la lumière ? ou est-ce que la notion du sens commun qui se rapporte à ce que signifie le mot « cause » est faux ?

L’expérience de R. Hanson n’apporte aucune information qui permettrait de choisir entre une réponse ou une autre. Physiciens et philosophes sont toujours divisés sur cette question, et sur ce que cela signifie en ce qui concerne la réalité de la nature.

La conclusion de l’article induit que la levée de toutes les failles éventuelles relatives au constat de l’intrication nous conduit à devoir apporter maintenant une réponse au questionnement suivant : « La causalité au sein des choses ? La causalité dans l’esprit humain ? » Voir article du 08/09/2015 : « La conquête de tous les possibles »

C’est donc une propriété physique qui nous amène à ce que nous apportions une réponse fondamentale à propos du sujet pensant. Ma réponse est évidente : le processus de l’enchaînement causal est la conséquence d’une projection déterminante de l’esprit humain à l’endroit de la nature. Et la vitesse de la lumière est une contrainte de vitesse limite qui n’a de sens que dans l’univers que nous sommes actuellement en mesure de concevoir et de projeter... jusqu’à ce qu’une nouvelle dynamique intellectuelle s’impose permettant de dépasser cette contrainte afin de transcender les apories qui sont aujourd’hui les obstacles majeurs à notre progression de la découverte des propriétés dans la nature

Ce type de préoccupation n’est pas nouveau déjà D. Hume (1711-1778) en son temps, après J. Locke, G. Berkeley, étudie essentiellement les idées de relation, et il soutient que mis à part l'espace et le temps qui nous sont donnés (sic), les relations (dont celles de causalité) n'ont rien d'objectif, mais reposent principalement sur les dispositions cognitives d'un sujet connaissant. Ce qui était pur thème philosophique à cette époque devient aussi, 3 siècles après, un thème de la science physique et par nécessité nous sommes au bord de devoir le traiter comme tel (voir article du 18/03/2015 : Décrypter la physique comme science de l’interface de l’être humain et de la Nature) et d’apporter une réponse.

L’autre sujet qui pourrait justifier la thèse ‘Faire de la physique en ‘Présence’’, est l’effet Zénon. Cet effet est l’objet d’une récente publication du 23/10 dans Phy.org et le 2/10/2015 dans ‘Physical Review Letters’ : ‘Effet Zénon vérifié. Les atomes ne bougent pas pendant que vous les regardez’. L’expérience est probante et confirme les prédictions théoriques et expérimentales de G. Sudarshan et B. Misra de l’université du Texas en 1977. Le supplément d’originalité de cette expérience, c’est de constater pour la première fois l’effet Zénon concernant l’immobilisation spatiale des atomes ultra froids, alors que jusqu’à présent l’observation de cet effet était constatée sur la composante temporelle avec le blocage de la désintégration des objets quantiques observés avec une particulière insistance par le sujet pensant.

Partager cet article
Repost0
23 octobre 2015 5 23 /10 /octobre /2015 10:57

La connaissance en physique doit enchanter… avec ses controverses

Dans cet article je me réfère au livre de Carlo Rovelli qui vient de sortir : « Sept brèves leçons de physique. », édit. O. Jacob.

En premier lieu, nous ne pouvons avoir que de la sympathie pour l’exercice que représente la publication de ce petit livre de sept leçons brèves de physique. Initier, contribuer à la diffusion d’une culture initiale scientifique est très louable, mais pour que cet objectif soit respecté, il ne faut pas que cette offre soit conditionnée à ce point par la pensée scientifique de l’auteur. Sinon il faut que le titre de l’ouvrage en question soit : « Sept brèves leçons de ma conception du monde physique. » Eh oui ! Aujourd’hui les sujets de controverse dans ce domaine sont tellement multiples et amples qu’il y a matière à des conceptions clivées, qui sont actuellement sources d’émulations qu’il ne faut pas estomper car elles sont intellectuellement très stimulantes.

Pourquoi celui qui a conçu et conçoit les propositions constituant la matière du discours de C. Rovelli, est systématiquement exclu dans les conclusions de celui-ci. Il n’est pas possible d’exclure le fait que le fil de la pensée du sujet pensant ne contribue en rien au fil du temps. Pourquoi cet ostracisme ? Pourquoi aller chercher systématiquement dans la nature une cause de l’émergence du temps qui serait plus tangible ? Ainsi on lit p.66 : « Cette question ouverte nous conduit au cœur du problème du temps : la direction du temps apparaît seulement (sic) quand il y a de la chaleur… La chaleur est la vibration statistique de n’importe quoi… y compris de l’espace-temps même… Il n’y a pas de temps dans la gravité à boucles… Qu’est-ce que donc enfin que le temps, et son écoulement » ?

La proposition de Rovelli énonce l’idée que le monde de la physique tel qu’il est élucidé à notre époque serait doté des moyens d’une chronologie propre grâce à des références parfaitement stables, doté d’une histoire propre donc d’une existence finie propre et nous ne serions que des spectateurs, des décrypteurs passifs. Cette pensée exclusive véhiculée notamment par C. Rovelli, est portée par une vielle histoire pour ne pas dire la métaphysique Platonicienne qui fut réactivée avec force par Galilée au XVIIe siècle. Toutes les lois de la physique sont appelées à évoluer et c’est l’acuité intellectuelle de plus en plus perspicace de l’être pensant qui imprime le tempo de cette évolution. Ainsi on peut lire dans un article de Lisa Zyga du 12/10/2015 dans Phys.org, que maintenant on sait différencier ce qui est spécifique à un système thermodynamique quantique comparé à un système thermodynamique classique : ‘What is quantum in quantum thermodynamics ?’. De même dans le même site un article du 19/10/2015 nous annonce que des scientifiques démontrent expérimentalement une prédiction datant de 140 ans, de L. Boltzmann : ‘un gaz en perpétuel non-équilibre’. On ne peut considérer qu’il y a des vérités scientifiques définitivement établies, que l’on peut prendre appui sur celles-ci pour avancer des propositions définitives, comme le fait C. Rovelli, à propos du temps qui rappelons-le considère que la notion de temps est une notion émergente et c’est le refroidissement inexorable du rayonnement fossile dans notre univers qui est la cause de cette émergence, et cela imprime la flèche du temps et donc l’irréversibilité. Or le rayonnement fossile a été découvert en 1965. Il est à l’origine du concept du Big-Bang et partant du temps cosmique. Qui peut assurer que ces connaissances sont définitives et qu’elles peuvent servir de support stable pour concevoir une ontologie du temps.

Revenons à un problème posé par Einstein et souvent cité. La question, posée par celui-ci au physicien Abraham Païs au cours d’une promenade, fut la suivante : « Peut-on croire réellement que la lune existât seulement lorsqu’on la regarde ? » La réponse que je propose est la suivante : « Si simultanément tous les humains habitant la terre tournait le dos à la lune, il n’y aurait personne pour en parler, pour la penser, en conséquence pour le genre humain elle n’aurait pas d’existence. » C’est à la lumière de l’existant réflexif, intelligent, que nous sommes, que nous pouvons dire que tels objets, tels phénomènes, telles lois de la nature, nous accompagnent (je ne dis surtout pas : existe réellement) dans notre existence. Cela n’annule en rien tous les autres possibles mais il faudra aux sapiens que nous sommes les rencontrer dans le champ de nos aptitudes intellectuelles à venir, aptitudes qui n’ont pas, présentement, de raison d’être bornées. Je crains que mon propos soit encore très minoritaire si l’on considère la pensée dominante comme a pu brutalement l’exprimer B. d’Espagnat pour récuser l’anthropocentrisme dans ‘le réel voilé’ en 1994, p.27 : « Une telle vue est absurde puisque, comme nous le savons tous (sic), la terre, les étoiles, l’univers, avec tous les phénomènes qui s’y produisent, existaient déjà en un temps où ni les hommes ni même les êtres vivants n’existaient. » Il est clair que je n’ai jamais fait partie de ce ‘tous’ convoqués comme témoin par d’Espagnat. Peut-être que je me trompe mais il me semble que depuis 1997, bien que je manque de repères à ce propos, ils sont moins nombreux à partager ce point de vue.

Pour nous, humains, rien ne prend forme tant qu’il ne peut être dit au moins une première fois, tant qu’il ne peut être soumis à notre pensée, tant que notre pensée n’a pas atteint un niveau d’acuité qui fait passer de l’ombre à la lumière cette partie du rien. Donc ce qui était ‘rien’ juste avant, juste avant qu’il n’apparaisse, effectivement à notre pensée, dans notre discours, ne peut pas être déclaré comme étant, pas plus que comme étant en soi autonome, parce que ce que nous pouvons dire : c’est qu’il nous accompagne maintenant dans notre existence mais pas plus. Les modalités et la place de cet accompagnement peut aussi subir des réarrangements extrêmement importants. Pensons à l’évolution de notre pensée de l’univers dans lequel nous avons très concrètement pris position ; évolution qui a rapidement imposée l’idée de la nécessité d’une matière noire, puis ensuite l’idée d’une énergie sombre au point que ce que nous pensions connaître au début des années 1980 ne représente plus que 5% de notre savoir identifié.

Ce n’est qu’après avoir dépassé un stade de connaissance que l’on évalue la part de l’arrangement subjectif intrinsèque antérieur qui a contribué à la croyance de la chose. On en rencontre de parfaites illustrations quand on pense aux cosmogonies qui se sont succédées dans l’histoire de la pensée humaine. Ce qui est remarquable c’est que dans presque toutes, il y a un début, il y a une origine. Pour l’être humain c’est rassurant et c’est fonctionnel, pratique, que de pouvoir poser sa pensée sur une origine et à partir de ce point d’appui pouvoir la déployer et par la suite la dépasser. Dans la cosmogonie la plus contemporaine, celle qui est relative au déploiement de notre univers, depuis les années 1970, nous avons situé une origine, c’est ce que l’on nomme le Big-Bang, jusqu’à ce que nous puissions nous en émanciper pour penser autrement, plus lointainement. Cela est en fait déjà engagé car la conception de l’univers que l’on commence à identifier comme n’étant que le nôtre parmi d’autres univers possibles n’a pas obligatoirement l’origine que l’on croit. Toutes ces nouvelles connaissances affaiblissent la conception anthropique et selon moi, c’est un progrès.

Plus prosaïquement, l’explication de l’effet tunnel connaît aussi une évolution récente très significative car maintenant les physiciens ont acquis la maîtrise de la mesure de l’intervalle de temps de l’attoseconde (10-18s) et en conséquence on peut mesurer le fait qu’un électron a besoin de cette durée pour échapper d’un atome par effet tunnel. Auparavant, on s’appuyait sur le formalisme de la mécanique quantique éprouvée pour rendre compte de cette propriété physique. Dans ce cadre le temps associé à ce processus était imaginaire (sic), voir l’article du 17/06/2015. Dans sa quête de connaissance des propriétés de la nature, la ‘Présence’ du sujet pensant est dorénavant effective à l’échelle de l’attoseconde et nous avons là l’occasion d’apprécier la valeur du saut qualitatif que cela représente.

Comme j’ai eu souvent l’occasion de le dire et de l’écrire il n’est pas du tout banal de constater que c’est à propos de l’espace et du temps que la connaissance en physique théorique fait du sur place. La question de l’ontologie du temps et partant de l’espace se pose non parce qu’un matin des physiciens se sont demandés : quid du temps ? mais parce que c’est l’avancée des connaissances en physique qui est en jeu. La question est lancinante depuis plusieurs décennies.

Je pense avoir choisi suffisamment d’exemples qui montrent que la proposition de C. Rovelli n’est pas la bonne. Ma conviction est encore plus grande lorsqu’il traite du thème du présent, à partir de la page 67 : « Une autre manière de poser le même problème (sic) consiste à se demander ce qu’est le « présent » ».

Lee Smolin, son collègue et partenaire au temps (il y a une quinzaine d’années) de la conception de la gravité quantique à boucles, nous a proposé il y a deux ans un ouvrage : « La Renaissance du Temps. Pour en finir avec la crise de la physique. » J’avais accueilli cet ouvrage par l’article du 02/05/2013 : « Bienvenu au ‘Moment Présent’ de Lee Smolin » avec grand intérêt car c’était la première fois que je rencontrais un partenaire qui partageait la thèse que je développe depuis une décennie. Mais ceci avec un sérieux bémol car L. Smolin prétend que le temps est réel, est donné dans la nature, alors que selon moi il est émergent et c’est l’ancêtre de l’être humain qui en est le fondateur. Mais la grande nouveauté c’est l’hypothèse du ‘Moment Présent’ de Smolin. Ainsi : « Mais l’univers réel a des propriétés qui ne sont pas représentables par un quelconque objet mathématique (sic). Une de celles-ci est qu’il y a toujours un moment présent. Les objets mathématiques, étant intemporels, n’ont pas de moment présent, n’ont pas de futur ni de passé. Toutefois, si on embrasse la réalité du temps et voit les lois mathématiques comme des outils (sic) plutôt que des miroirs mystiques de la nature, d’autres faits têtus, inexplicables, concernant le monde deviennent explicables… » A cela la réponse de Rovelli n’est pas original elle date de 1905 : « La relativité a montré que la notion de « présent » est subjective elle aussi. » Car effectivement si on en croit les lois de la relativité restreinte ce qui est une coïncidence dans un référentiel : Δt = 0, ne l’est pas obligatoirement dans un autre. Ces relativistes-là considèrent que : Δt = 0 est une mesure assurée, à la portée de l’observateur, alors qu’actuellement depuis peu notre performance extrême nous porte à la mesure de 10-18s. En dessous de la valeur de cet intervalle de temps nous sommes aveugles. Présentement, les particules, les résonnances, qui ont une durée vie de l’ordre 10-20 et moins ne sont pas décelables, c’est par reconstruction et le calcul que nous obtenons ces valeurs.

Mon hypothèse c’est qu’en tant qu’observateur nous ne pourrons jamais atteindre Δt = 0, c’est inhérent à notre nature humaine, au mieux nous pourrons peut-être atteindre 10-25s, ainsi l’intrication pourrait s’expliquer. Il y a donc toujours une durée de temps occupée par une ‘Présence’… du sujet pensant qui est une durée d’une cogitation car la nature ne se pense pas par elle-même. Le refus de cette hypothèse, d’un revers de main, du fait que l’on introduise un élément de subjectivité dans une science qui doit conserver la pureté objective, est périmé.

Nous ne pouvons plus ignorer que nous accédons maintenant à une connaissance objective, quantifiée, de certaines facultés les plus spécifiques de l’homme. Les travaux et les résultats annoncés par S. Dehaene sont crédibles, voir, entre autres, article 26/05/2015, ‘Académie des sciences : ‘A la recherche du temps’. « Le cerveau ne perçoit pas instantanément les évènements du monde extérieur. Il lui faut au moins un tiers de seconde, et souvent bien plus, avant qu’une information sensorielle élémentaire accède à la conscience… » Les facultés de l’observateur deviennent quantifiables. Cette grandeur objective ainsi mise en évidence, ne peut pas être sans conséquence à propos de l’explication de notre relation et de nos capacités de détection des propriétés de la nature. Les points aveugles de notre conscience immédiate, doivent nous amener à considérer que notre fonctionnement intellectuel et observationnel, ne peut être que discontinue. C’est ce que j’ai intégré en faisant l’hypothèse du point aveugle de l’intelligence humaine de l’ordre de 10-25s. Cet intervalle de temps définit le tic-tac fondamental du temps de la connaissance possible de la physique.

Avant de terminer cet article je veux dire que j’en ai gré à C. Rovelli d’avoir dans ce petit livre rétabli une vérité historique. En effet, je fus étonné voire choqué que dans son premier livre en 2007 : « Anaximandre de Milet ou la naissance de la pensée scientifique. », il fasse apparaître Heisenberg comme le fondateur de la mécanique quantique et N. Bohr est à peine dans son ombre. C’est rectifié, par exemple, dans la deuxième leçon : « N. Bohr, patiemment, expliquait à Einstein les idées nouvelles. Einstein objectait… Bohr, au bout du compte, parvenait toujours à trouver la réponse et à repousser les objections. Le dialogue s’est poursuivi… »

Partager cet article
Repost0
14 octobre 2015 3 14 /10 /octobre /2015 13:24

Nouveau prix Nobel pour les neutrinos !

Est-ce que le prix Nobel 2015 a été attribué aux neutrinos ? Est-ce que leurs résistances à nous délivrer leurs secrets depuis maintenant 80 ans ont été primées ? C’est ce que pourrait laisser penser quelques titres peut-être volontairement goguenards sur les sites de la semaine passée : ‘Prix Nobel de physique 2015 : les neutrinos sont à l’honneur’ ou encore : ‘Comment le neutrino pourrait résoudre de grands mystères cosmiques et gagner ses prochains prix Nobel

Les deux bénéficiaires de ce prix 2015, ont considéré, grâce aux résultats mis en évidence, avoir obtenu des preuves (autour de l’an 2000) permettant de valider l’hypothèse de l’oscillation de la saveur des neutrinos (initialement proposée par analogie, par B. Pontecorvo en 1969). Je suis convaincu qu’il faut conserver l’idée que ce soit seulement une hypothèse car l’idée de l’oscillation implique de fait un enjambement de beaucoup d’ignorances en amont qui ne doivent pas être effacées. De S. Peeters, dans PHYS.Org le 09/10/2015 : « Pendant qu’il se déplace dans l’espace, le neutrino apparemment (sic) oscille continument entre différents ‘types’ de neutrinos, changeant ainsi la façon dont il interagit avec la matière. » Ainsi la problématique de la saveur des neutrinos n’est pas banal car elle laisse penser que le neutrino n’est pas une particule à part entière, il n’a pas une identité propre et pourtant on lui attribue le caractère d’une particule fondamentale. Un lien intangible est à mon avis clairement exprimé par G. Drexlin de l’expérience KATRIN lorsqu’il nous dit : « Un électron : version chargée du neutrino (de la saveur correspondante). » Voir article du 27/05/2012 où je propose : « Je formulerais l’hypothèse que le neutrino électronique est ce qui reste quand l’électron a perdu sa charge électrique… », et voir article du 24/09/2012 : ‘La téléportation quantique, un test pour les neutrinos’.

Ceci m’amène à proposer de considérer que l’électron est une particule composée d’une charge électrique élémentaire quantique irréductible qui est à mettre en évidence avec sa quantité de matière irréductible et effectivement quantique qui est amalgamé avec un substrat constitué de son neutrino attaché ainsi qu’il nous apparaît. En résumé : charge électrique quantique (Chequ) + Neutrino électronique attaché = électron. En conséquence ‘Chequ’ a une masse d’inertie mais pas le neutrino correspondant. Cette hypothèse met à mal le formalisme mathématique qui prétend rendre compte de l’oscillation des neutrinos.

S. Peeters, dans son article, exprime clairement que la masse des neutrinos est de nature différente à celle des autres particules fondamentales recensées : « Les masses des autres particules de matières générées par couplage avec la fameuse particule de Higgs…sont tellement plus massives… que nous croyons que la masse des neutrinos est générée d’une façon différente… » Par contre, malheureusement, aucune hypothèse n’est proposée qui étayerait ce doute.

Attribuer à des particules élémentaires sans charge électrique une masse d’inertie comme on l’observe pour des particules élémentaires avec charge électrique constitue là encore un enjambement qui ne doit pas être accepté comme tel. Il en est de même pour ce que l’on appelle la matière noire, autre domaine qui refuse de nous fournir la moindre indication du bien-fondé de nos hypothèses traditionnelles. (Les conférences internationales de l’été 2015 ont fait le constat qu’effectivement aucune trace de matière noire n’a été jusqu’à présent observée)

L’attitude de la communauté scientifique n’est pas, face à ces résistances qui durent, de se dire : « Posons-nous, prenons les crayons et réfléchissons ! » Non, l’attitude spontanée est : « Dans la continuité de nos convictions, persistons, concevons des expériences plus sophistiquées et convoquons les technologies les plus en pointent pour éclairer nos ignorances. » Ceci correspond à un renversement complet de la démarche scientifique car pour l’essentiel durant tout le 20e siècle ce sont les théories fondamentales produites préalablement qui ont orienté les expériences qui validaient ou invalidaient ces théories (au point qu‘Einstein considérait que la vérification expérimentale était secondaire quand la théorie était bien pensé). Aujourd’hui, la Théorie Quantique des Champs nous mène dans une sorte d’entonnoir dans lequel la pensée scientifique dominante est recroquevillée. Il y a 15 ans dès que fut formulée l’idée que les neutrinos devaient avoir une masse, on a sans coup férir ajouté des termes à la densité Lagrangienne du Modèle Standard établi, sans penser autrement : « Pour que les neutrinos deviennent massifs (sic), il suffit (sic) d’introduire les champs des antineutrinos gauches (ou des neutrinos droits) et d’ajouter les termes de couplage de Yukawa avec le champ scalaire de Higgs. » Cette Théorie Quantique des Champs qui façonne le Modèle Standard est tellement effective qu’elle est devenue avec le temps un mille-feuille d’hypothèses qui ne peuvent plus s’entrechoquer, se conforter, se contredire. Alors que son acte de naissance grâce à P. Dirac avait mis en évidence une puissante capacité de prédiction avec premièrement celle de l’antiélectron.

La croyance en la toute-puissance technologique induit une paresse intellectuelle collective évidente et déplace d’une façon significative la méthode ainsi que les contraintes de la production scientifique (rappelons-nous du silence scientifique abyssal consécutif à l’absence de résultat début novembre 2013, à propos de la matière noire, avec le détecteur LUX, il n’y avait pas de plan B, il n’y a toujours pas de réflexion et encore moins de conceptions alternatives). Au tout début d’avril de cette année, je fus ironique lorsqu’on annonçait la liste des découvertes qui allaient survenir grâce à la remise en route du LHC. Il tomba en panne quelques jours après ! En fait c’est beaucoup plus inquiétant car en ce mois d’octobre, il ne fonctionne toujours pas comme attendu, loin s’en faut (autant que je sache la reproduction du boson de Higgs n’a pas encore été obtenue : luminosité insuffisante et non maîtrisée). Il va falloir peut-être renoncer à ce qu’il fonctionne comme prévu dans le cahier des charges des performances initiales annoncées il y a 15 ans. Etrangement, c’est sur des sites Américains que l’on trouve premièrement l’information des ratés. L’autre jour, un responsable du CNRS, distillait sur une chaîne de télévision française que la NASA survendait sa découverte d’eau saumâtre sur Mars, parce qu’ils ont besoin de beaucoup d’argent. A contrario, le CERN masque ses difficultés, parce qu’il ne souhaite pas perdre ses budgets.

Le CERN est maintenant bien plus qu’un organisme, c’est une institution, il est un foyer de pouvoir technologique, de pouvoir économique et de pouvoir politique (voir la ronde presqu’hebdomadaire de ministres de toutes les parties du monde) et on est bien obligé de constater que cette situation parasite la rigueur qu’appelle une authentique démarche scientifique du plus haut niveau. Début 2014, le Cernbulletin a cru devoir mettre en exergue le fait que le nom de Ralph Hauer (patron du CERN) corrélé avec le nom : boson de Higgs, fut internationalement le plus cité en 2013, dans les médias (édifiante usurpation du travail des chercheurs).

S’il arrivait que l’on puisse isoler : ‘Chequ’, on isolerait certainement du même coup une quantité de matière quantique irréductible. Cette quantité de matière qui correspond au fait qu’il n’y a pas de charge électrique nue de toute matière. Alors, nous aurions isolé un objet quantique avec une seule identité qui nous apparaît sous deux versants : celui de la charge électrique unitaire et celui de la charge de matière unitaire. Ceci nous engagerait à reprendre un cheminement de pensée qu’Einstein n’a jamais pu conclure favorablement et qui l’a beaucoup préoccupée et occupée, c’est-à-dire l’unification possible de l’interaction gravitationnelle et de l’interaction électromagnétique

Partager cet article
Repost0
26 septembre 2015 6 26 /09 /septembre /2015 13:29

Non, on ne pense pas quantique. Pas encore !

Etant donné ce que j’ai écrit p.4 dans l’article du 19/08 : ‘Fondamentalement : Renoncer’, je fus alerté lorsque j’ai découvert que le mensuel ‘Science et Vie’ d’octobre annoncé en couverture, d’une façon affirmative et au présent : ‘On pense tous quantique’. Or ce que j’ai exprimé le 19/08 est un futur avec l’idée suivante : ‘Cet encore indique qu’il faut accepter l’idée que le sujet pensant évolue et évoluera et qu’ainsi : ‘penser quantique’ pourra devenir progressivement, quelque peu, plus naturel. Personne ne saurait dire, encore combien de générations (2, 3 ou 1 ou 10 ?), mais en effet on peut être assuré que cette conquête intellectuelle en marche doit avoir en retour une influence sur notre culture scientifique collective et partant induire une intelligibilité de plus en plus affûtée de ce qui est de l’ordre du quantique. Au sens propre du terme, notre bagage intellectuel s’enrichit et la pratique du raisonnement propre à la mécanique quantique dans des domaines de plus en plus variés ne peut que progressivement nous accoutumer et rendre plus naturel une pensée quantique.’

Dans ce genre de situation, ne renonçons pas à un peu d’humour en mettant en relief que à peine 2 mois séparant mon article et la première de couverture de la revue ne peuvent être confondus avec : 2, 3 ou 1 ou 10 générations. Mais les circonstances sont ainsi, une génération c’est toujours de l’ordre de 25 ans et non quelques semaines, heureusement que j’ai pris les devants à 2 mois près. Alors que penser de cette annonce à propos de la cognition quantique ? Il faut que chacun se fasse une opinion propre en lisant le N° d’octobre. Quant à moi, je considère que les travaux de S. Dehaene sont la bonne référence pour rendre compte de la richesse et de la complexité du fonctionnement cérébral du sujet pensant qui cogite (voir article du 2/11/2012 : ‘Thomas Bayes dans le cerveau’, celui du 01/01/2013 : ‘Un Monde en Présence II’ et celui du 14/10/2014 ‘Stanislas Dehaene et suite.’).

Nous ne sommes qu’aux prémices de la compréhension de ce qui se passe dans le cerveau quand le sujet pensant cogite et vouloir proposer des explications de types quantiques est clairement précipité, abusif, elles sont le fruit d’extrapolations et d’interprétations qui ne peuvent qu’être erronées. Pour résumer et avec ironie on pourrait dire : « Ce n’est pas parce que c’est multiple et complexe que cela est automatiquement quantique. Il ne faut molester ni notre cerveau ni la mécanique quantique. »

Je reste convaincu que dans la durée nous serons à même de décrypter d’une façon de plus en plus pertinente les propriétés fondamentales de la mécanique quantique et que, au moins, certains de ses postulats pourront être dénoués et deviendront directement explicites, sans pour autant qu’il y ait une cognition quantique qui soit obligatoirement à l’œuvre. Cette évolution est à mettre au compte de notre apprentissage de la mécanique quantique depuis un siècle, des succès de celui-ci, de l’enregistrement et in fine de l’adoption de ses spécificités par ceux qui plus spécifiquement la pensent, de l’accoutumance de plus en plus large de ses applications. Grâce à l’éducation profonde qui est en cours, grâce à l’évolution culturelle technologique, il en résulte et il continuera d’en résulter un enrichissement évolutif de notre cerveau et penser quantique devient et deviendra progressivement, quelque peu, plus naturel.

A côté des articles qui se veulent démonstratifs d'une soi-disant cognition quantique, il y a un article interview de M. Bitbol : directeur de recherche au CNRS (historien de la physique quantique et philosophe de la connaissance.) Il dit que « la mécanique quantique est une théorie générale (sic) de la connaissance, qui concerne toutes sortes d’objets et toutes sortes de domaines… » Non pas, répondrais-je car elle est toujours une théorie pragmatique, empirique, qui a été élaborée, au fur et à mesure, pour rendre compte de connaissances iconoclastes (quand on se réfère à la physique classique) mises en évidence lorsque l’intelligence humaine a acquis les moyens de progressivement prospecter le monde matériel infiniment petit.

Les réponses de Bitbol aux questions de l’interview sont accompagnées d’une succession de franchissements de Rubiconds du type : « Mais cet écart majeur entre les sciences de la nature et les sciences de l’homme disparaît (sic) presque entièrement avec la physique quantique, où on ne peut plus établir de séparation nette entre les propriétés des objets et l’effet que produit l’instrument servant à les mesurer.»

Je partage les commentaires de M. Bitbol, lorsqu’il s’agit d’évoquer l’histoire de l’avènement de la mécanique quantique ainsi que les commentaires à l’endroit des fondateurs de l’école de Copenhague mais malencontreusement, il exploite ceci pour affirmer une conviction systématique qu’il ne justifie pas : « Cette situation est semblable à celles des sciences humaines (sic), et il n’y a plus rien d’étonnant à ce que des propriétés analogues y soient observées. »

Ces différentes critiques et observations m’amènent à considérer que l’article du 18/03/2015 : « Décrypter la physique comme science de l’interface de l’être humain et de la Nature » est approprié car cela situe correctement le positionnement de la contribution de ce qui est de l’ordre de l’humain en ce qui concerne la production d’un savoir sur la Nature sans qu’il y ait le moindre amalgame possible. Dans cette situation, la distinction entre sciences de la nature et sciences de l’homme est claire tout en rappelant que les connaissances sont le fruit des cogitations humaines et produire des nouveaux savoirs fondamentaux de la nature c’est corrélativement mettre en évidence de nouvelles facultés ou de nouvelles aptitudes de l’être pensant.

Parmi ces aptitudes, il y a celle que je nommerai : ‘humilité tactique et savante’. Pour illustrer mon propos, je reprends l’exemple, déjà cité, des états d’âme de H. Lorentz qui un jour de la semaine, enseignait en physique classique que l’électron dans un mouvement circulaire rayonnait de l’énergie et quittait sa trajectoire, et l’autre jour de la semaine, enseignait que l’électron de l’atome d’hydrogène était parfaitement stable. La parade qui fut proposée par les initiateurs de la mécanique quantique a consisté à prendre du recul et de ne prendre en compte que l’atome d’hydrogène en tant qu’objet quantique et de le caractériser par son état : d’énergie, par exemple. Finis les états d’âme de H. Lorentz, puisqu’on a pris un recul intellectuel suffisant pour ne plus avoir à se préoccuper du ou de l’absence de rayonnement de l’électron. En évacuant ce problème insoluble, l’observateur se place dans une nouvelle situation favorable car avec le mot état quantique il y a l’idée de permanence, de stabilité, de constance, bref il faut du temps pour que l’observateur reconnaisse et déclare : l’objet est dans un état quantique. Ce terme, donc cette prise de position, est un pis-aller, le fruit d’un renoncement nécessaire à propos du comportement physique de l’électron mais aussi un gain tactique car il est bien connu qu’un physicien peut reprendre la main, peut dire quelque chose sur des objets lorsqu’il y a de l’invariance, de la constance, et c’est impératif.

En conséquence, cette modestie-là, ce provisoire (qui a commencé il y a un siècle), Einstein aurait peut-être pu l’accepter si ce provisoire lui avait été proposé par Bohr ou d’autres collègues. Qui sait !

Partager cet article
Repost0
8 septembre 2015 2 08 /09 /septembre /2015 12:57

~~La conquête de tous les possibles

C’est un ersatz d’effet papillon qui m’a amené à écrire l’article que je vous propose.

Premier battement : j’ai ressorti de ma bibliothèque le livre que je vous ai recommandé dans le précédent article du 02/09 : ‘Les fondements philosophiques de la mécanique quantique’ de Grete Hermann que j’avais analysé en 1996. J’ai relu dans la préface p. 9 de B. d’Espagnat (décédé il y a quelques semaines et reconnaissons qu’il nous a laissé une réflexion riche sur la science et sur la philosophie quoi qu’on en pense) : « Pour s’en rendre compte, il suffit de se rappeler qu’aussi bien les penseurs qui plaçaient la causalité au sein des choses que ceux qui la mettaient avant tout dans l’esprit humain l’identifiaient au déterminisme et voyaient dans ce dernier une condition sine qua non de la possibilité de la science. » Adopter l’un des points de vue : la causalité au sein des choses ou dans l’esprit humain, permet toujours de concevoir une pensée scientifique mais conduit à avoir un rapport avec la connaissance scientifique totalement clivé et partant conduit à concevoir des représentations du monde totalement divergentes.

Deuxième battement : je me suis remémoré, le cours de S. Dehaene, il y a 3 ans au Collège de France, qui précisait qu’il était possible d’affirmer qu’un bébé intégrait très précocement l’ordre cause- effet (voir article du 24/03/2013 : ‘Scientifiques, façonnés dès la naissance’). L’état de la recherche effectuée ne pouvait pas encore dire si cela était inné ou un des premiers acquis post-natal. Il me semble que depuis aucune précision n’a été apportée. Ce sera sans doute difficile de fournir une réponse finale tranchée car il est assuré maintenant que la communication avec le monde extérieur est précoce pour un bébé bien avant la naissance, de facto, il y a donc un apprentissage qui est engagé in utero. Mais n’excluons pas que nous pourrions finir par être capable de prouver scientifiquement que l’une des possibilités exclusive de l’autre est la bonne, en ce cas le point de vue philosophique de la source de la causalité n’aura plus lieu d’être, il sera relégué par celui de l’anthropologie, de la science.

Troisième battement : je me suis empressé de retrouver un article de septembre 2008 dans ‘Pour la Science’ que je n’ai jamais évoqué (et pour cause !) depuis sa lecture : ‘L’univers quantique auto-organisé’ de J. Ambjorn, J. Jurkiewicz, R. Loll. Dans cet article il y a un passage qui m’a évidemment fait sursauter, au moment de la lecture, car inacceptable selon mon point de vue : p.49 «… nous avons alors imaginé incorporer la structure causale à un stade plus précoce. Nous considérons que la causalité est une propriété fondamentale de la nature (sic) plutôt qu’une propriété émergente. » Voilà qui est dit sans coup férir ! Mais pas vraiment pensé quant aux conséquences vertigineuses de leur hypothèse si on se réfère à leur présentation : « Quel est donc le problème de la gravitation quantique euclidienne ? Nous avons fini par identifier l’ingrédient (sic) indispensable qui manque à la recette (sic) : la construction doit intégrer la causalité. En d’autres termes, l’espace-temps vide doit avoir une structure qui permet de distinguer naturellement et sans ambiguïté les causes et les effets. » Ceci permet aux chercheurs de modéliser par une approche nommée triangulation dynamique causale un espace-temps quantique qui à grande échelle devient l’espace-temps de la relativité générale. Pour conforter la pertinence de leurs travaux les auteurs précisent : « A ce jour, l’introduction de la causalité dans les modèles de gravitation quantique est le seul remède connu aux instabilités des géométries d’espace-temps superposés. »

Il n’est pas rassurant de constater que la pensée de physiciens puisse être réduite à trouver le bon ingrédient pour que la recette fournisse le bon modèle. Il m’est arrivé assez fréquemment de pointer ce type de dérive provoqué par un usage abusif des moyens techniques (ici, informatiques) qui permet d’éviter de penser aux fondements des hypothèses formulées : on calcule puis on pensera (peut-être) après. Qui a pu formuler ce type d’injonction ? : « Calcule et tais-toi ! »

Il ne faut pas oublier, comme le rappelle W. Heisenberg en 1934 : « Que nos formes d’intuition spatio-temporelle et le principe de causalité ne sont pas indépendants de toute expérience si l’on entend par là qu’elles devraient nécessairement demeurer à tout jamais des éléments constitutifs du contenu de toute physique. D’autre part, comme Bohr l’a tout particulièrement souligné, même dans la physique moderne (quantique) l’applicabilité de ces formes de l’intuition et du principe de causalité est présupposée pour toute expérience scientifique objective. », que l’espace-temps tel que le sujet pensant ‘l’intuite’ et principe de causalité comme le fonde le même sujet pensant sont liés.

Bien que l’espace-temps est de l’ordre de l’intuition du sujet pensant et la causalité d’un autre ordre c’est-à-dire d’un ordre un peu plus réflexif, l’interdépendance ne fait pas de doute. En fait, selon mon hypothèse, la causalité est dans l’esprit humain, elle met en évidence la spécificité de l’intelligence humaine, qui n’est pas universelle mais génère des règles fondamentales à l’aune de ses déterminations. La causalité serait de fait plus représentative des modalités du fonctionnement de notre cerveau qu’un prélèvement, une adoption, de ce qui existerait déjà dans la nature avant l’émergence d’une intelligence primordiale. Si la causalité était dans les choses naturelles, il faudrait admettre que la Nature bénéficie d’une guidance, qu’elle est marquée par un dessein. Or selon mon point de vue, la Nature ne peut comprendre la moindre détermination. Elle comprend tous les possibles, sans limite.

Grâce aux moyens nouveaux propres à l’imagerie cérébrale nous observons et nous comprenons que lorsqu’une pensée chemine (cause première), il y a concomitance avec des flux physiques induits qui cheminent effectivement dans notre cerveau. Il est observé aussi qu’il y a toujours une vitesse finie de cheminement. Il y a donc un début et un aboutissement de ce cheminement qui se distinguent clairement. A un avant, il y a un après qui lui est corrélé. Il y a donc un ordre temporel explicite qui s’impose étant données les spécificités physiques de notre cerveau comme support de notre faculté de penser. C’est cet ordre-là qui sous-tend l’ordre causal qui caractérise l’être humain.

Selon ma conception je m’inscris en opposition aux auteurs de l’article : « L’univers quantique auto-organisé ». Non seulement, je considère que la causalité est émergente et non pas fondamentalement dans la nature, j’ajoute que ceci est aussi évidemment ma conviction en ce qui concerne le temps et l’espace (avec une nuance pour l’espace car je pense que l’espace référent de la nature à l’échelle de l’émergence physique humaine induit la représentation de l’espace que l’être humain véhicule effectivement. (Voir article du 26/08/2014 :’Un authentique Big-Bang’))

La nature ne comprend aucune détermination, elle est la somme de tous les possibles. Notre univers tel que nous le concevons actuellement est un de ces possibles, il est la conséquence de la projection de nos déterminations, donc de nos capacités actuelles de concevoir mais il y aura dépassement et par extension nous accèderons à d’autres possibles dont certains ont déjà été potentiellement évalués et ne sont pas tabous (Multivers, les mondes multiples d’Everett, les paysages multiples de la théorie des cordes). A ce propos, je cite Jean-Philippe Uzan (directeur de recherche au CNRS) : « Tout d’abord, je pense qu’il ne faut jamais avoir peur de penser plus grand que ce que l’on connaît. L’homme a toujours décrit un Univers représentant ce qu’il était capable d’observer et de concevoir à une époque donnée. Au fil du temps, notre vision s’est élargie – de la planète Terre au Système solaire, puis à notre galaxie… –, et l’on peut finalement penser, à chaque étape, que cette structure que nous appelons « Univers » n’est pas une structure finale mais plutôt un élément dans un ensemble plus grand. Parce que si l’on veut donner sens à cette structure, la seule façon de le faire est de l’inclure dans quelque chose de plus large. C’est une démarche intellectuelle tout à fait naturelle et qui permet de poser des questions sur la « naturalité » du système que l’on décrit (est-il commun ou bien très particulier dans l’ensemble des univers théoriques que l’on se permet d’imaginer ?), questions que l’on ne peut pas aborder avec un objet unique. » p.37-38 dans ‘Multivers. Mondes possibles de l’astrophysique, de la philosophie et de l’imaginaire’, édit. ‘La ville brûle’, 2012.

Plus précisément, ma métaphysique s’exprime ainsi :

La somme de tous les possibles est l’Eternité. Lorsque le sujet pensant aura atteint la connaissance de tous les possibles, ce qui demandera un temps infini, il rejoindra l’éternité qui est celle de la Nature. En fait Eternité et Nature sont consubstantielles. L’éternité c’est équivalent à l’atemporalité, l’absence de chronologie.

Cet aboutissement demandera au sujet pensant un temps infini. Le concept de temps, est un concept qui est le symptôme existentiel de la nécessité d’avoir un support intelligible pour projeter devant soi l’infini. L’infini n’est pas l’expression d’une ignorance, il est l’expression d’une finalité perçue, conçue, mais à jamais accessible. Quand l’éternité est hypothétiquement atteinte, quid du temps ? Plus d’écoulement, le sujet pensant a non seulement rejoint l’éternité mais il en est son représentant. L’éternité est le tout qui est embrassé.

Quid de l’espace ? Idem, il n’y a plus d’espace car l’omniprésence est de fait tout autant spatiale que temporelle. Ainsi l’espace et le temps sont des concepts ‘transitoires’ et émergents et cela les détermine. Par conséquent toutes nos équations sont imprégnées de ces déterminations et les lever les unes après les autres est le défi permanent du sujet pensant. Toujours est-il que c’est la condition pour qu’émergent de possibles nouveaux paradigmes en science physique.

Comme le suggère Ph. Uzan, la vraie genèse que nous mettons en évidence n’est pas celle de l’univers à partir de son Big Bang, nous avons plutôt sous la pointe du crayon, dans nos formules, la dynamique du développement de nos connaissances à partir du Big Bang du surgissement d’une intelligence primordiale, il y a 10 millions d’années, qui est à l’origine de l’intelligence humaine. Il ne faut pas exclure que dans d’autres lieux, d’autres intelligences totalement distinctes de la nôtre, développent d’autres scénarios de conquête de l’Eternité.

Partager cet article
Repost0
2 septembre 2015 3 02 /09 /septembre /2015 15:37

~~ Il ne faut pas raboter les beaux reliefs de l’histoire de l’avènement de la physique quantique

. J’ai beaucoup hésité avant de me décider d’écrire cet article parce que j’ai déjà traité le sujet dans l’article du 28/07/ et l’article du 06/08. Ainsi, je risque d’être accusé de radotage manifeste. Mais j’ai posté le 18/03/2015 : ‘Décrypter la physique comme science de l’interface de l’être humain et de la Nature !’ et cela signifie à mes yeux qu’une errance manifeste dans la compréhension et l’interprétation des lois physiques peut conduire à une régression de la compréhension des capacités du ‘sujet pensant’ à investir les propriétés de la nature ainsi qu’à développer favorablement la compréhension de ses capacités propres qui sont en jeux.

L’article qui me fait réagir provient du site du ‘NewScientist’, le 29/08 : ‘Quantum weirdness proved real in first loophole-free experiment’ c’est-à-dire : ‘L’étrangeté (la bizarrerie) quantique prouvée réelle (sic) dans l’expérience de la première faille-libre’. Je joins l’article original à la fin du présent. En fait cet article confirme les propriétés de l’intrication, reconnues depuis l’expérience d’Alain Aspect (1982), dans cette première faille. Comme cela est rapporté par Sandu Popescu dans l’article : « La plupart des personnes s’attendaient au résultat que l’expérience (d’intrication) a confirmé. » A propos de l’hypothèse de (des) faille(s), j’ai abordé ce sujet dans un article le 13/10/2011 : « Si faille il y a, quelle est sa nature ? »

Ce qui est contestable dans cet article c’est l’affirmation répétée qu’il y aurait un monde quantique réel et par exemple la propriété de l’intrication confirmerait cette réalité. Il est aussi attribué d’une façon abusive à N. Bohr la pensée que : « Nous devrions accepter la nouvelle réalité quantique. » Affirmer ceci est évidemment lourdement trompeur puisque cela laisse entendre que le problème du statut ontologique de ce qui a été identifié par les voies de la mécanique quantique n’a pas été posé et qu’il serait résolu. Cela est faire fi de la richesse remarquable des confrontations intellectuelles qui se sont engagées entre les physiciens depuis son avènement. Il n’est pas possible de considérer que ce débat est tranché, loin s’en faut, et les propos qui visent à banaliser une pensée générale, définitivement établie, d’une réalité quantique sont des propos qui falsifient l’histoire et la science physique quantique.

On peut comprendre depuis la découverte des lois quantiques et les applications remarquables et multiples qui sont mises en œuvre et cela n’est pas clos, peut conduire, grâce à cette familiarisation, à considérer que le monde quantique est… réel. Cette familiarisation objective n’autorise pas pour autant à tomber dans la facilité intellectuelle. Nous ne devons pas nier nos déterminations comme le rappel A. Zeilinger : « La notion du réalisme locale est tellement enracinée dans notre pensée quotidienne (sic), même en tant que physicien, qu’il est très important de fermer définitivement toute les failles (à propos de la propriété de l’intrication) » Zeilinger nous dit pourquoi cette vigilance intellectuelle est nécessaire : parce que en tant que ‘sujet pensant’ nous ne pouvons pas échapper à nos déterminations qui se sont forgées au cours de nos rapports constitutifs avec la nature à l’échelle classique. A l’origine nous sommes un ‘Être de la nature’. C’est par un lent processus de ‘dénaturation’ (l’évolution) que cet être de la nature est devenu ‘Être dans la nature’ que nous sommes, installé en surplomb sur un socle, et il n’y a pas de raison de considérer que cette évolution a atteint son stade ultime. (Voir l’article du ‘Monde’ du 02/09 : ‘L’humain « augmenté » ad vitam aeternam.’)

En septembre 1927, à Côme, N. Bohr exposa que d’une part la théorie quantique apporte une limitation essentielle aux concepts de la physique classique dans leur application aux phénomènes atomiques ; mais d’autre part, elle exige que les données expérimentales soient interprétées à l’aide de ces mêmes concepts classiques. Pourquoi ? Simplement parce que les expériences sont nécessairement faites à l’aide d’appareils de dimensions macroscopiques, c’est-à-dire à l’échelle humaine. Bohr précisera plus tard, dans son compte rendu de ses discussions avec Einstein, qu’à son avis cette description classique est même nécessaire. Le mot « expérience » légitime « une situation où nous pouvons dire à d’autres hommes ce que nous avons fait et ce que ne avons appris ». Cela veut dire que nous pouvons décrire le dispositif de l’expérience et ses résultats. Or les concepts de la physique classique sont particulièrement intelligibles, dans la mesure où ils se réfèrent à notre expérience quotidienne (sic). Bohr en vient au cœur de la question, à ce qu’il appelle le postulat quantique. Selon ce postulat, toute observation des phénomènes atomiques entraîne une interaction avec l’instrument d’observation qui ne peut être négligée. « On ne peut par conséquent attribuer une réalité indépendante, au sens physique ordinaire de ce mot, ni aux phénomènes ni aux instruments d’observation. » Autrement dit, par exemple, on ne peut attribuer ni à l’électron ni à l’instrument d’observation une réalité physique autonome.

Ainsi, est explicitée la raison pour laquelle je m’insurge à propos de l’écrasement de l’histoire des problèmes soulevés par l’avènement de la physique quantique. Mon propos n’est pas de défendre une histoire passée mais tout simplement de rappeler que nous n’avons toujours pas présentement les moyens de trancher ces problèmes qui ont été soulevés. En tous les cas l’affirmation de l’existence d’une réalité quantique est le résultat d’une falsification intellectuelle, d’autant plus inacceptable lorsqu’elle est attribuée à des physiciens qui n’ont jamais dit, ni put penser, une telle chose, au contraire.

Présentement, malgré un siècle de développement de connaissances en mécanique quantique nous ne nous pouvons pas identifier les systèmes qu’elle décrit à des ondes ou à des particules proprement dites, bien qu’on ne puisse se passer de tels concepts pour ordonner la diversité de nos perceptions. Nous devons toujours rapporter toutes les connaissances physiques à leurs conditions d’obtentions (telles qu’ils nous apparaissent). En ce sens, l’objectivité définie comme ce qui concerne l’objet lui-même en tant qu’isolé des moyens dont dispose le sujet pour le connaître, est toujours bannie de la représentation quantique.

Il y a beaucoup d’ouvrages qui restituent sérieusement l’histoire de l’avènement de la mécanique quantique. Je peux conseiller celui de ‘Grete Hermann : ‘Les fondements philosophiques de la mécanique quantique.’, de Léna Soler, préfacé par B. D’Espagnat, édit. Vrin, 1996. Ou encore : ‘La partie et le tout’ de W. Heisenberg, notamment pages : 168 – 173. Flammarion, 1990.

A l’occasion, je rappelle que dans l’article précédent du 24/08 : ‘Où se trouve la vérité ?’, j’ai exprimé une sérieuse inquiétude à propos des ambiguïtés sur la vérité du fonctionnement du LHC. Un nouvel article sur le site ‘Techno-Science’, le 27/08, lève un peu plus le voile sur le fait que 2015 sera quasiment une année blanche : « Nous n'en sommes encore qu'au début, ajoute Mike Lamont. Nous savions qu'exploiter l'accélérateur à 13 TeV serait un défi. Mais 2015 est vraiment une année de remise en service. Même si l'année sera courte pour la physique des protons, nous jetons déjà les bases pour 2016 et pour le reste de la deuxième période d'exploitation. »

Quantum weirdness proved real in first loophole-free experiment

Welcome to quantum reality (sic)

It’s official: the universe is weird. Our everyday experience tells us that distant objects cannot influence each other, and don’t disappear just because no one is looking at them. Even Albert Einstein was dead against such ideas because they clashed so badly with our views of the real world.

But it turns out we’re wrong – the quantum nature of reality means, on some level, these things can and do actually happen. A groundbreaking experiment puts the final nail in the coffin of our ordinary “local realism” view of the universe, settling an argument that has raged through physics for nearly a century.

Teams of physicists around the world have been racing to complete this experiment for decades. Now, a group led by Ronald Hanson at Delft University of Technology in the Netherlands has finally cracked it. “It’s a very nice and beautiful experiment, and one can only congratulate the group for that,” says Anton Zeilinger, head of one of the rival teams at the University of Vienna, Austria. “Very well done.”

To understand what Hanson and his colleagues did, we have to go back to the 1930s, when physicists were struggling to come to terms with the strange predictions of the emerging science of quantum mechanics. The theory suggested that particles could become entangled, so that measuring one would instantly influence the measurement of the other, even if they were separated by a great distance. Einstein dubbed this “spooky action at a distance”, unhappy with the implication that particles could apparently communicate faster than any signal could pass between them.

What’s more, the theory also suggested that the properties of a particle are only fixed when measured, and prior to that they exist in a fuzzy cloud of probabilities.

Nonsense, said Einstein, who famously proclaimed that God does not play dice with the universe. He and others were guided by the principle of local realism, which broadly says that only nearby objects can influence each other and that the universe is “real” – our observing it doesn’t bring it into existence by crystallising vague probabilities. They argued that quantum mechanics was incomplete, and that “hidden variables” operating at some deeper layer of reality could explain the theory’s apparent weirdness.

On the other side, physicists like Niels Bohr insisted that we just had to accept the new quantum reality, since it explained problems that classical theories of light and energy couldn’t handle.

Test it out

It wasn’t until the 1960s that the debate shifted further to Bohr’s side, thanks to John Bell, a physicist at CERN. He realised that there was a limit to how connected the properties of two particles could be if local realism was to be believed. So he formulated this insight into a mathematical expression called an inequality. If tests showed that the connection between particles exceeded the limit he set, local realism was toast.

“This is the magic of Bell’s inequality,” says Zeilinger’s colleague Johannes Kofler. “It brought an almost purely philosophical thing, where no one knew how to decide between two positions, down to a thing you could experimentally test

.” And test they did. Experiments have been violating Bell’s inequality for decades, and the majority of physicists now believe Einstein’s views on local realism were wrong. But doubts remained. All prior experiments were subject to a number of potential loopholes, leaving a gap that could allow Einstein’s camp to come surging back.

“The notion of local realism is so ingrained into our daily thinking, even as physicists, that it is very important to definitely close all the loopholes,” says Zeilinger.

Loophole trade-off

A typical Bell test begins with a source of photons, which spits out two at the same time and sends them in different directions to two waiting detectors, operated by a hypothetical pair conventionally known as Alice and Bob. The pair have independently chosen the settings on their detectors so that only photons with certain properties can get through. If the photons are entangled according to quantum mechanics, they can influence each other and repeated tests will show a stronger pattern between Alice and Bob’s measurements than local realism would allow.

But what if Alice and Bob are passing unseen signals – perhaps through Einstein’s deeper hidden layer of reality – that allow one detector to communicate with the other? Then you couldn’t be sure that the particles are truly influencing each other in their instant, spooky quantum-mechanical way – instead, the detectors could be in cahoots, altering their measurements. This is known as the locality loophole, and it can be closed by moving the detectors far enough apart that there isn’t enough time for a signal to cross over before the measurement is complete. Previously Zeilinger and others have done just that, including shooting photons between two Canary Islands 144 kilometres apart.

Close one loophole, though, and another opens. The Bell test relies on building up a statistical picture through repeated experiments, so it doesn’t work if your equipment doesn’t pick up enough photons. Other experiments closed this detection loophole, but the problem gets worse the further you separate the detectors, as photons can get lost on the way. So moving the detectors apart to close the locality loophole begins to widen the detection one.

“There’s a trade-off between these two things,” says Kofler. That meant hard-core local realists always had a loophole to explain away previous experiments – until now.

“Our experiment realizes the first Bell test that simultaneously addressed both the detection loophole and the locality loophole,” writes Hanson’s team in a paper detailing the study. Hanson declined to be interviewed because the work is currently under review for publication in a journal.

Entangled diamonds

In this set-up, Alice and Bob sit in two laboratories 1.3 kilometres apart. Light takes 4.27 microseconds to travel this distance and their measurement takes only 3.7 microseconds, so this is far enough to close the locality loophole.

Each laboratory has a diamond that contains an electron with a property called spin. The team hits the diamonds with randomly produced microwave pulses. This makes them each emit a photon, which is entangled with the electron’s spin. These photons are then sent to a third location, C, in between Alice and Bob, where another detector clocks their arrival time.

If photons arrive from Alice and Bob at exactly the same time, they transfer their entanglement to the spins in each diamond. So the electrons are entangled across the distance of the two labs – just what we need for a Bell test. What’s more, the electrons’ spin is constantly monitored, and the detectors are of high enough quality to close the detector loophole.

But the downside is that the two photons arriving at C rarely coincide – just a few per hour. The team took 245 measurements, so it was a long wait. “This is really a very tough experiment,” says Kofler.

The result was clear: the labs detected more highly correlated spins than local realism would allow. The weird world of quantum mechanics is our world.

“If they’ve succeeded, then without any doubt they’ve done a remarkable experiment,” says Sandu Popescu of the University of Bristol, UK. But he points out that most people expected this result – “I can’t say everybody was holding their breath to see what happens.” What’s important is that these kinds of experiments drive the development of new quantum technology, he says.

One of the most important quantum technologies in use today is quantum cryptography. Data networks that use the weird properties of the quantum world to guarantee absolute secrecy are already springing up across the globe, but the loopholes are potential bugs in the laws of physics that might have allowed hackers through. “Bell tests are a security guarantee,” says Kofler. You could say Hanon’s team just patched the universe.

Freedom of choice There are still a few ways to quibble with the result. The experiment was so tough that the p-value – a measure of statistical significance – was relatively high for work in physics. Other sciences like biology normally accept a p-value below 5 per cent as a significant result, but physicists tend to insist on values millions of times smaller, meaning the result is more statistically sound. Hanson’s group reports a p-value of around 4 per cent, just below that higher threshold.

That isn’t too concerning, says Zeilinger. “I expect they have improved the experiment, and by the time it is published they’ll have better data,” he says. “There is no doubt it will withstand scrutiny.”

And there is one remaining loophole for local realists to cling to, but no experiment can ever rule it out. What if there is some kind of link between the random microwave generators and the detectors? Then Alice and Bob might think they’re free to choose the settings on their equipment, but hidden variables could interfere with their choice and thwart the Bell test.

Hanson’s team note this is a possibility, but assume it isn’t the case. Zeilinger’s experiment attempts to deal with this freedom of choice loophole by separating their random number generators and detectors, while others have proposed using photons from distant quasars to produce random numbers, resulting in billions of years of separation.

None of this helps in the long run. Suppose the universe is somehow entirely predetermined, the flutter of every photon carved in stone since time immemorial. In that case, no one would ever have a choice about anything. “The freedom of choice loophole will never be closed fully,” says Kofler. As such, it’s not really worth experimentalists worrying about – if the universe is predetermined, the complete lack of free will means we’ve got bigger fish to fry.

So what would Einstein have made of this new result? Unfortunately he died before Bell proposed his inequality, so we don’t know if subsequent developments would have changed his mind, but he’d likely be enamoured with the lengths people have gone to prove him wrong. “I would give a lot to know what his reaction would be,” says Zeilinger. “I think he would be very impressed.”

Partager cet article
Repost0
24 août 2015 1 24 /08 /août /2015 17:43

~~Où se trouve la vérité ?

Le 21/08, un article pessimiste a été écrit à propos du redémarrage du LHC : « High-energy LHC plans held up by UFOs and electron clouds » sur le site du NewScientist. L’original est à la fin de l’article et je vous en propose une traduction avant de commenter cette situation.

‘Le programme du LHC retardé par des ‘UFOs et des nuages d’électrons’

« Remettre en route le LHC s’avère être plus difficile que prévu. Les chercheurs du LHC disent que le programme des ‘runs’ pour réaliser des expériences à plus haute énergie sera retardé jusqu’à l’année prochaine.

Le LHC a été relancé en avril, après un arrêt de 2 années, pour améliorer la machine. Durant le run 2, il doit être capable de nous fournir des données physiques à l’énergie de collision de 13 Tev, niveau jamais atteint jusqu’à présent. Mais les chercheurs en charge d’assurer cette entreprise et ces performances, ont annoncé cette semaine dans une conférence à Ljubjana, que cela ne se déroule pas comme prévu.

« Le processus est plus lent que ce que nous avions espéré. » nous dit Paul Collier, le responsable des faisceaux. Des nuages d’électrons et des particules de poussières microscopiques tombantes non identifiées (UFOs) interrompent les faisceaux et rendent plus difficile la mise en route pour réaliser les expériences de physique.

Ces effets étaient déjà présents dans le run 1, mais l’accroissement de l’énergie et les efforts pour accroître le nombre de collision en rapprochant les paquets de protons, accroissent les difficultés pour le lancement du run 2.

P. Collier dit que l’équipe avait anticipé ces difficultés mais le temps pour traiter ces problèmes est plus long que prévu. « Nous sommes très près de la limite de ce que la machine peut faire, donc la machine est moins indulgente. » dit-il.

Réamorcer le problème.

Ce n’est pas le premier problème cette année : un court-circuit en mars avait retardé la relance. L’équipe est en retard de quelques semaines pour préparer les faisceaux. Mais comme la qualité de ceux-ci devient meilleure et les faisceaux sont plus stables avec la durée des runs, il ne sera pas possible cette année d’atteindre le bon niveau pour faire significativement de la physique (sic). « Chaque étape est largement supérieure en difficultés à ce que nous avons affronté auparavant, et c’est seulement à la fin de ce processus que nous produisons massivement des données. »

Les chercheurs espèrent maintenant atteindre seulement 3/1 fembtobarns (3 fb-1), l’ésotérique mesure de la qualité du faisceau, pour cette année, au lieu de 10 planifiés. (Cette grandeur permet d’évaluer la probabilité des collisions p-p au cœur des détecteurs). Pour préciser le contexte, la découverte du boson de Higgs a été obtenue à 12 fb-1, nous sommes donc loin du compte.

« J’ai bon espoir pour 2016. » dit Collier. »

Il est étonnant que cet article alarmant provienne d’un site Américain, alors qu’aucun site Français n’informe de cette situation. Je crains même qu’il y ait comme une politique de l’autruche qui soit à l’œuvre. En effet le 11/08, un site Français : ‘Techno-Sciences’ a publié un article : Dernières nouvelles du LHC : le développement de la machine. Laissant croire que tout se déroulait comme prévu :

« Le calendrier de fonctionnement du LHC prévoit des semaines de "développement de la machine" pendant lesquelles les équipes étudient de façon fine et optimisent la performance de la machine. La première session de développement de la machine de la deuxième exploitation s'est terminée le samedi 25 juillet. Malgré divers contretemps, elle a permis aux opérateurs de réaliser de grands progrès en vue de l'amélioration de la performance du LHC à long terme. » Ensuite, l’article se termine ainsi : « À la fin de la période de développement de la machine, le LHC est entré dans sa deuxième campagne de nettoyage, une période de deux semaines qui vise à préparer complètement la machine pour l'exploitation avec des paquets espacés de 25 nanosecondes, prévue pour les premières semaines d'août.(sic) »

L’ensemble de l’article laisse entendre que tout est sous contrôle et l’abus du terme : développement, vise à masquer les difficultés révélées dans l’article du N.S. On est en droit d’espérer une véritable objectivité. Est-ce que le CERN, en tant qu’institution, a besoin que soient occultées ses difficultés ? Si l’article du N.S est juste, cela veut dire que nous allons connaître une troisième année blanche, malgré les énormes investissements consentis. N’oublions pas qu’il n’y a pas d’équivalent au LHC dans le monde qui soit en activité. Est-ce que la stratégie des super-machines en un seul exemplaire est une bonne stratégie ? Alors que l’on fait déjà les études d’un super LHC de 100km de diamètre.

High-energy LHC plans held up by UFOs and electron clouds

Kicking the world’s largest machine into overdrive is turning out to be harder than expected. Researchers at the Large Hadron Collider at CERN, near Geneva in Switzerland, say that plans to run their physics experiments at higher energies are likely to be delayed until next year.

The LHC was rebooted in April, after a two-year shutdown to upgrade the machine. In the second run, it should be able to gather physics data at energies of 13 teraelectronvolts, the highest-energy collisions of particle beams ever. But researchers in charge of getting it up and running again, who this week presented the first report on the LHC’s performance at a conference in Ljubljana, Slovenia, have revealed that things haven’t quite gone as planned.

“The process is slightly slower than we would have hoped,” says Paul Collier, the LHC’s head of beams. Clouds of electrons created by ionised gas in the beam chamber and microscopic dust particles – playfully known as unidentified falling objects, or UFOs – are interrupting the beams and making it harder to get the LHC running consistently.

These effects were present in the LHC’s previous run, but the higher energies, plus efforts to produce more frequent collisions by bunching particles in the beam closer together, make them a larger problem than before.

Collier says the team had anticipated such potential issues, but they have taken some time to deal with. He compares it to driving a car at high speed: although you might be fine at 50 kilometres per hour, things start rattling when you reach 150 kph. “Everything is much closer to the limits of what the equipment can do, so the machine is less forgiving,” he says.

Reboot hitch

It’s not the first problem this year: a short circuit in March delayed the reboot. The team is only a few weeks behind schedule in preparing beams for the LHC’s various experiments. But because the quality of the beam gets better and more stable the longer it runs, there won’t be time this year to reach peak physics. “Each stage is vastly superior to everything that happens before it, so it’s only towards the end of this process that you’re really mass-producing data,” says Collier.

The researchers now expect to only reach 3 inverse femtobarns (3 fb-1) – the esoteric measurement of beam quality – this year, down from a planned 10. To put this in context, the long-sought Higgs boson was discovered after the LHC reached 12 fb-1.

But they are still on target to reach 30 fb-1 next year, once they understand how to handle their souped-up collider. “We’re learning an awful lot that will help us run the machine even better,” says Collier. “I have good hopes for 2016.”

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens