Overblog Suivre ce blog
Administration Créer mon blog
29 octobre 2017 7 29 /10 /octobre /2017 07:44

L’étrangeté quantique de la lumière survit après un aller et retour dans l’espace

Avec cet article je contribue à enrichir notre documentation concernant les énigmes de la mécanique quantique. Cet article nous dit que dans une expérience extrême, réalisable étant donné les moyens technologiques dont nous disposons aujourd’hui, nous avons une confirmation de la problématique que révèle le photon : onde ou particule. Problématique qui est posée depuis un siècle et que j’ai traitée dans l’article du 05/08/2017 dans lequel je propose une expérience de résolution éventuelle de cette énigme.

            L’article nouveau est du 25/10 sur le site du Newscientist, je joins l’original en dernière page, et j’en propose une traduction des parties essentielles :

            « L’étrangeté quantique de la lumière survit après un aller et retour dans l’espace. »

La mystérieuse dualité onde particule du monde quantique a été testé en utilisant les satellites – instaurant un nouveau record de distance de plus de 3000 km pour une détection de cette conduite bizarre.

            Nous savons que les photons sont des quanta d’énergie, ou des particules (corpuscule), mais dans quelques expériences les particules peuvent agir comme des ondes. Selon la physique du modèle standard, nous pouvons observer soit la nature ondulatoire ou la nature corpusculaire de ce système quantique, mais jamais les deux au même moment. De quelque façon que nous essayons, l’action de la mesure du photon oblige celui-ci à se comporter d’une façon ou d’une autre.

            En 1978, le physicien J. A. Wheeler suggéra une expérience dite du choix différé, dans laquelle la décision de chercher soit la nature ondulatoire ou corpusculaire du photon est retardée jusque après que le photon soit déjà entré dans le dispositif expérimental.

            Si on suppose que le photon pénètre dans un dispositif expérimental conçu pour l’observer en tant que corpuscule et que l’on décide au dernier moment de faire un changement soudain de dispositif de détection dans sa nature ondulatoire, qu’est-ce que fera (sic) le photon ? La théorie dit que le photon doit apparaître sous l’aspect ondulatoire.

            Où est-ce que l’étrangeté quantique s’arrête ?

            Ces deux dernières décennies, des expériences ont testé les idées de Wheeler et ont indiqué qu’elles étaient correctes. Mais les plus longues distances parcourues par le photon dans ces expériences étaient de l’ordre de 140 km.

            Maintenant, Paolo Villoresi et ses collègues ont réalisé cette expérience en utilisant les satellites pour tester la mécanique quantique au-delà des milliers de km, ouvrant la voie à des applications de niveau spatial. « Comme Galilée, qui était professeur à Padoue, nous l’a enseigné, vous devez vérifier vos lois aux frontières [de l'endroit où] vous pensez les utiliser. »

Initialement, à sa mise en place, un pulse de lumière laser entre dans un dispositif appelé un séparateur de faisceau, qui crée deux chemins à prendre pour la lumière. Un chemin est droit et l'autre a un détour, de sorte que la lumière sur le chemin droit a une distance plus courte à parcourir. Ensuite, la lumière sur le chemin de détour rejoint le chemin droit et les deux pulses parcourent le même route vers un satellite en orbite basse terre, l’un des pulses étant en retard vis-à-vis de l'autre.

Le satellite renvoie par réflexion les pulses de lumière vers la terre, où ils rencontrent un dispositif au hasard et permet une des deux choses : soit il ne fait rien, soit il retient le premier pulse de lumière suffisamment de sorte que la paire émerge en même temps et donc atteint un détecteur au même moment. Cette décision correspond au choix retardé de Wheeler. Ne rien faire laisse les longueurs des chemins inégales, tandis que l'ajout d'un délai sur un chemin équivaut à rendre les longueurs des chemins égaux.

Les interférences émergent.

Lorsque les chemins sont inégaux et que les photons arrivent l'un après l'autre, nous pouvons dire quel chemin ils ont pris. Dans ce cas, ils se comportent comme des particules.

Lorsque les deux chemins sont égaux en longueur, les détecteurs ne peuvent pas dire quel chemin chaque photon aura pris. Dans ce cas, chaque photon finit dans une superposition pour avoir pris les deux chemins à la fois, et interfèrera avec lui-même, montrant sa nature ondulatoire - même si, dans notre façon de penser classique, il aurait dû entrer et quitter l'expérience comme un corpuscule. Faites cette expérience beaucoup, beaucoup de fois, et émerge une figure d'interférence caractéristique des ondes.

Sur le site phys.org, deux jours après celui du NewScientist, un article sur le même sujet a été publié, je le joins aussi dans sa forme originale et j’en commente quelques extraits, pour montrer une latitude d’interprétations qui est révélatrice d’une impossibilité toujours actuelle de penser juste sur les causes de cette étrangeté.

1e extrait : « … la lumière se comporterait à la fois comme une particule et une onde, mais les expériences subséquentes semblaient montrer que la lumière se comportait différemment selon la façon dont elle était testée, et bizarrement, semblait savoir comment les chercheurs la testerait, en changeant son comportement en conséquence. »

A mon sens, il n’est plus possible d’utiliser ‘et’ car on ne sait rien de ce qu’est la lumière avant qu’on la teste, elle nous apparaît d’une façon ou d’une autre qu’au moment du test. Penser la lumière avec ce et conduit à imaginer que la lumière aurait un comportement de cache-cache avec l’observateur, ce qui est absurde. 

2e extrait : « Il (J. Wheeler) a également considéré les possibilités d’une lumière provenant d'un quasar lointain faisant son chemin à travers l'espace, et étant soumise à l’effet lentille gravitationnel. Était-il possible que la lumière puisse en quelque sorte choisir de se comporter comme une onde ou comme une particule en fonction de ce que les scientifiques, ici sur terre, décident au dernier instant pour essayer de la détecter ? Dans ce nouvel effort, l'équipe en Italie a entrepris de vérifier les idées que Wheeler avait proposées. »

Avec cet exemple d’expérience de pensée on est amené à considérer fortement que c’est l’action-détection de l’observateur qui détermine la façon dont apparaît la lumière.

3e extrait : « L'équipe rapporte que la lumière s'est comportée exactement comme l'avait prédit Wheeler, se montrant sous un aspect corpusculaire ou un aspect ondulatoire, selon les choix de ceux qui l'étudiaient. »

Dans ce commentaire final, on retrouve l’idée que c’est l’observateur qui conditionne la façon dont la lumière apparaît.

De plus, il faut souligner, et c’est à mon sens dans ce soulignement que tout se détermine, lorsque l’observateur connaît complètement le cheminement spatio-temporel du photon, celui-ci apparaît corpusculaire. Lorsqu’à l’inverse, l’observateur est ignorant du cheminement spatio-temporel du photon c’est l’apparaître ondulatoire qui s’impose, c’est-à-dire la dispersion spatio-temporelle.

En conséquence, c’est dans le cerveau de l’observateur que se détermine la façon dont nous apparaît la lumière. Cf article du 05/08/2017.

Arrivé à ce stade de l’écriture de l’article, samedi matin je m’apprêtai à le poster lorsque je décidai d’aller vérifier si par hasard il n’y aurait pas un 3e article en plus sur ce sujet. Et paf ! il y en avait un sur le site de Sciencemag.org signé : Adrian Cho, avec le titre fort évocateur et selon mon point de vue proposant une bonne compréhension du sujet : « Quantum experiment in space confirms that reality is what you make it », soit : « Une expérience quantique dans l’espace confirme que la réalité est comme vous la faites. »

Ce nouvel article propose aussi un angle d’analyse supplémentaire de l’expérience, preuve de l’intérêt d’étudier plusieurs articles sur un même sujet pour forger une compréhension complète de celui-ci. Présentement, je ne vais pas le développer mais signaler en synthèse ce qui est proposé : l’analyse de l’expérience est enrichie en indiquant qu’il y a de plus une interrogation qui émerge si on prend en compte dans ce cas expérimental les contraintes de la Relativité Restreinte qui contient le principe que la cause précède toujours l’effet.  Peut-être dans un autre article j’évoquerai ce thème.  Advertisement

Article du NewScientist : Light’s quantum weirdness survives after going to space and back

Duality might sound off beam, but it has passed another, grander test

By Anil Ananthaswamy

THE mysterious wave-particle duality of the quantum world has been tested using satellites — setting a new distance record of more than 3000 kilometres for a detection of this bizarre behaviour.

We know that photons are quanta of energy, or particles, but in some experiments the particles can act like waves. According to standard quantum physics, we can observe either the wave nature or the particle nature of this quantum system, but never both at the same time. Whenever we try, the act of measuring the photon forces it to behave as one or the other.

In 1978, the physicist John Archibald Wheeler suggested a so-called delayed choice experiment, in which the decision of whether to look for the photon’s wave or particle nature is delayed until after the photon has already entered the experimental set-up.

Advertisement

Suppose the photon entered an experiment designed to look for its particle nature, and you chose at the very last instant to do a switcheroo and look at its wave nature. What would the photon do? Theory says that the photon should act like a wave.

Where does quantum weirdness end?

Over the last two decades, experiments have tested Wheeler’s ideas and shown them to be correct. But the longest distance travelled by a photon in these experiments was about 140 kilometres.

Now, Paolo Villoresi of the University of Padua in Italy and his colleagues have done this experiment using satellites to test quantum mechanics over thousands of kilometres, paving the way for space-based applications. “As Galileo, who was a professor at Padova, taught us, you have to check your laws at the boundaries [of where] you are thinking of using them,” says Villoresi.

In their set-up, a pulse of laser light enters a device called a beam splitter, which creates two paths for the light to take. One path is straight and the other has a detour, so the light on the straight path has a shorter distance to travel. The light on the detour route rejoins the straight path and both pulses head along the same route towards a satellite in low Earth orbit, with one lagging behind the other.

The satellite bounces the pulses of light back to Earth, where they encounter a device that randomly does one of two things: it can either do nothing, or it can hold up the first pulse a bit so the pair emerge at the time and therefore arrive at a detector at the same moment. This decision corresponds to Wheeler’s delayed choice.

Doing nothing lets the path lengths remain unequal, while adding a delay in one path is equivalent to making the paths lengths equal.

Interference emerges

When the paths are unequal and the photons arrive one after another, we can tell which path they took. In this case, they act like particles.

When the two paths are equal in length, the detectors cannot tell which path each photon takes. In this case, each photon ends up in a superposition of having taken both paths at once, and will interfere with itself, showing its wave nature – even though, in our classical way of thinking, it ought to have entered and left the experiment as a particle. Do this experiment many, many times, and an interference pattern characteristic of waves emerges.

Because satellites in low Earth orbit are travelling at about 7 kilometres per second, the mathematics has to account for a “relativistic boost” given to the reflected photons, says Villoresi, which wasn’t the case in Earth-based experiments.

Giulio Chiribella, a quantum physicist at the University of Oxford, is impressed. “This experiment shows that, at least on a distance of approximately 3500 kilometres, the predictions of quantum theory are still valid,” he says. “This result is likely to be the first of a series of experimental tests where the fundamental features of quantum mechanics will be probed at increasingly large scales.”

 

Article dans Phys.org :

A team of researchers with Università degli Studi di Padova and the Matera Laser Ranging Observatory in Italy has conducted experiments that add credence to John Wheeler's quantum theory thought experiment. In their paper published on the open access site Science Advances, the group describes their experiment and what they believe it showed.

The nature of light has proven to be one of the more difficult problems facing physicists. Nearly a century ago, experiments showed that light behaved like both a particle and a wave, but subsequent experiments seemed to show that light behaved differently depending on how it was tested, and weirdly, seemed to know how the researchers were testing it, changing its behavior as a result.

Back in the late 1970s, physicist Johan Wheeler tossed around a thought experiment in which he asked what would happen if tests allowed researchers to change parameters after a photon was fired, but before it had reached a sensor for testing—would it somehow alter its behavior midcourse? He also considered the possibilities as light from a distant quasar made its way through space, being lensed by gravity. Was it possible that the light could somehow choose to behave as a wave or a particle depending on what scientists here on Earth did in trying to measure it? In this new effort, the team in Italy set out to demonstrate the ideas that Wheeler had proposed—but instead of measuring light from a quasar, they measured light bounced from a satellite back to Earth.

The experiment consisted of shooting a laser beam at a beam splitter, which aimed the beam at a satellite traveling in low Earth orbit, which reflected it back to Earth. But as the light traveled back to Earth, the researchers had time to make a choice whether or not to activate a second beam splitter as the light was en route. Thus, they could test whether the light was able to sense what they were doing and respond accordingly. The team reports that the light behaved just as Wheeler had predicted—demonstrating either particle-like or wavelike behavior, depending on the behavior of those studying it.

  More information: Francesco Vedovato et al. Extending Wheeler's delayed-choice experiment to space, Science Advances (2017). DOI: 10.1126/sciadv.1701180

Abstract Gedankenexperiments have consistently played a major role in the development of quantum theory. A paradigmatic example is Wheeler's delayed-choice experiment, a wave-particle duality test that cannot be fully understood using only classical concepts. We implement Wheeler's idea along a satelliteground interferometer that extends for thousands of kilometers in space. We exploit temporal and polarization degrees of freedom of photons reflected by a fast-moving satellite equipped with retroreflecting mirrors. We observe the complementary wave- or particle-like behaviors at the ground station by choosing the measurement apparatus while the photons are propagating from the satellite to the ground. Our results confirm quantum mechanical predictions, demonstrating the need of the dual wave-particle interpretation at this unprecedented scale. Our work paves the way for novel applications of quantum mechanics in space links involving multiple photon degrees of freedom.

Repost 0
Published by mc2est-cesuffisant
commenter cet article
24 octobre 2017 2 24 /10 /octobre /2017 15:33

Les lois mathématiques : outils, et non pas miroirs mystiques de la nature.

Peut-on continuer de considérer que les futures propriétés physiques de la Nature qui seront découvertes le seront encore grâce exclusivement à des équations mathématiques ?

Pour aborder ce sujet, avec précaution, c’est-à-dire d’une façon progressive, sans obligatoirement clore cet article avec une conclusion forte, je reprends un commentaire de C. Rovelli que j’avais archivé il y a une dizaine d’années et qui est un résumé proposé dans Arte-Sciences-Paroles de chercheurs.

Selon C. Rovelli : L'évolution des notions d'espace et de temps.

« Elles n’ont jamais cessé d'évoluer ! Nous nous représentons l'espace comme une boite dans laquelle se trouvent les choses et nous croyons que cette représentation est naturelle, mais en réalité elle est due à Newton. Avant lui, les Grecs jusqu'à Descartes, l'idée dominante de l'espace était tout autre : on pensait qu'il n'y avait pas d'espace indépendamment des objets. Pour Aristote comme pour Descartes, l’espace se définissait comme la structure qui organise les objets entre eux, comme une relation entre les objets qui constituent la réalité. Newton a refusé cette conception, en disant que si on supprime les objets, la matière, il reste quelque chose : l'espace. Avant Aristote, Anaximandre avait déjà évoqué un changement de représentation en indiquant que l'espace n'est pas constitué du haut et du bas, que ces notions de haut et de bas sont relatives à la position d’un observateur. Bref, nos conceptions sont en constante évolution.

Que s’est-il passé au XXe siècle ? Il y a comme un retour à une notion d’espace pré-newtonienne. Einstein défend l’idée que si on supprime le champ gravitationnel, c’est-à-dire l’espace, il ne reste rien. L’espace est à nouveau conçu comme l’ensemble des objets, des particules ou des champs. »

            D’Anaximandre à aujourd’hui 26 siècles se sont écoulés et notre compréhension de l’espace et du temps n’a pas finalement progressé. Pourtant, a priori, les notions d’espace et de temps nous sont familières car c’est avec ces notions que nous formons notre référentiel premier. Est-ce que notre dépendance à l’égard de l’espace-temps ou bien la dépendance de l’espace et du temps à l’égard de ce que nous sommes en tant qu’être humain constitue l’obstacle majeur pour accéder à une réflexion objective, fixée, sur ces notions ? Je n’insisterai pas plus sur le fait que l’obstacle majeur à toute progression de la connaissance en physique est corrélé à la question sans réponse : quelle est la nature de l’espace et du temps ?

            Je propose de prolonger la discussion avec Rovelli car il me semble que c’est la façon la plus vivante de réfléchir à ce problème qui pourrait apparaître vain d’aborder puisque sans réponse depuis, qu’il est posé. Je cite : « Le questionnement sur les notions de temps et d’espace est à nouveau ouvert. Il s’agit de redessiner le monde, et pour cela la pensée philosophique est indispensable, car ce sont les philosophes qui sont capables d’avoir la précision de pensée requise (sic) et d’apporter aux scientifiques les innovations dont ils ont besoin. »

Autant que je sache ce dialogue entre philosophes et scientifiques qui a été ouvertement réclamé et largement entrepris depuis deux décennies n’a pas répondu aux attentes de C. R. Cela n’est pas étonnant car attribuer à la pensée philosophique une capacité d’influencer la pensée scientifique m’apparaît erronée. C’est vraiment sous-estimer l’assurance, véhiculée par la communauté scientifique des physiciens en particulier, que les connaissances qu’ils mettent en évidence atteignent à coup sûr la valeur première de l’objectivité et sont l’émanation du monde réel. Bien que C.R. pense ainsi sincèrement, les quelques échanges que j’ai pu avoir avec lui ne m’ont pas montré une réelle disponibilité à redessiner le monde.  A mon sens ceci n’est pas surprenant de sa part, bien qu’il ait sérieusement creusé le sujet comme on peut le lire dans la citation qui suit :

« La science n’est pas une somme de vérités absolues, la science est le processus qui consiste à tenter de décrire le monde de la manière la plus efficace possible à la lumière de tout ce que l’on sait. Elle se caractérise par sa capacité à toujours remettre en question ses propres conclusions. En ce sens les vérités scientifiques sont toujours provisoires, elles caractérisent une représentation du monde qui elle-même caractérise une époque. La base de la science n’est pas la certitude mais au contraire l’incertitude, la conscience du fait qu’on se trompe toujours et qu’on vit dans l’ignorance et qu’il faut être prêt à abandonner ses idées. D’ailleurs l’obstacle au progrès scientifique est bien souvent l’attachement à des idées qui devraient être rejetées (sic).

Toutes ces considérations relèvent de la philosophie des sciences, et Carlo Rovelli pense qu’elles sont nécessaires et utiles pour les scientifiques qui, comme lui, ont à renouveler leur cadre de pensée. »

Dans mon blog, un de mes principaux objectifs est de faire connaître l’état de l’art de la progression des connaissances en physique, en faisant connaître les mouvements ouverts de la pensée scientifique en général et qui ont une profondeur telle qu’un non spécialiste peut se trouver en résonnance avec ce qui est exprimé. A ce titre C. Rovelli est un excellent exemple et pourtant j’ajoute immédiatement qu’il est dans l’erreur parce qu’il n’a pas encore justement évalué l’ampleur du renouvellement du cadre de pensée en question qu’il préconise.  

Justement, pour qu’il y ait concrètement un réel renouvellement de cadre de pensée en physique, il faut que dans un premier temps les physiciens acceptent l’idée qu’il y a d’autres cadres de recherche et de compréhension qui sont pertinents pour contribuer à de nouvelles avancées en physique. Je pense notamment à la paléoanthropologie et aux neurosciences cognitives. Il me semble qu’au-delà de la philosophie préconisée par CR, ces deux corpus peuvent notablement enrichir le cadre de pensée des physiciens. Je pense qu’il est temps de considérer que l’addition des connaissances et des interrogations qui prévalent dans ces différents corpus ne peut qu’avantageusement dynamiser la quête de savoirs nouveaux dans chacun d’eux et nouer de nouvelles problématiques jusque-là non envisagées. Avec cette perspective l’alliance entre ces domaines ne peut pas être simplement conjoncturelle mais elle doit être décidée sur le long terme pour franchir un cap qui engendrera un saut pour le bénéfice de tous ceux qui cherchent à comprendre comment l’être humain évolue dans l’univers ainsi que comprendre quel est le devenir intelligible de l’univers de l’être humain. Pour que ce cap soit un jour franchi il faudrait donc que les chercheurs les plus représentatifs de ces domaines s’expriment dans un manifeste de la nécessité à notre époque d’une alliance méthodique et pérenne qui indique, étant donné les avancées de ces différents corpus, les avantages du décloisonnement des connaissances et des questionnements.

Ci-dessous, je cite quelques résultats scientifiques passés et en cours qui confortent ma proposition concrète de manifeste.

Je prends un exemple pivot : il y a quelques années des articles publiés, notamment le premier dans ‘Plos One’, ont annoncé qu’il y aurait concomitance entre le début du développement du langage et la capacité à travailler le silex pour fabriquer des outils. Cela remonte à peu près à 1,75 million d’années (voir article du 10/10/2013). Depuis, grâce à l’alliance de la paléoanthropologie et de l’imagerie cérébrale, il y eut de belles confirmations précisant que les aires cérébrales activées quand est méthodiquement reproduit l’action du travail du silex coïncident avec celles des aires cérébrales identifiées du langage.

Dans le N° de ‘La Recherche’ de septembre, il y a un article de S. Dehaene qui s’intitule : « Maths et langage dans le cerveau : Notre objectif est de décrypter le code neural du langage. » Selon la revue : « L’imagerie cérébrale offre une chance unique d’observer le cerveau en fonctionnement. Pionnier des neurosciences cognitives, Stanislas Dehaene utilise cette technologie pour étudier la conscience, et les mécanismes cérébraux à l’origine des capacités humaines telles que le langage. »  (Je recommande la lecture de cet article)

Page 9, on peut lire : « Cette capacité recouvrerait donc plusieurs compétences : le langage, la construction d’outils, le raisonnement mathématique… ». Voyons quelle est cette capacité identifiée par S.D. : « A-t-on idée de la date d’apparition de cette capacité ? Réponse : La pensée géométrique est assez ancienne. Il est très intrigant de voir que, il y a 1,6 et 1,8 million d’années (sic), les hommes façonnaient déjà des objets aux propriétés mathématiques élaborées, notamment des pierres en forme de sphère, comme s’ils possédaient la notion d’équidistance à un point… Le cerveau d’Homo erectus avait peut-être déjà atteint la compétence d’une machine de Turing universelle, capable de représenter toutes les structures logiques ou mathématiques possibles. Peut- être est-ce une illusion, mais pour l’instant, notre espèce a réussi à comprendre l’organisation des structures du monde à toutes les échelles de l’Univers. Dans un deuxième temps, il y a environ 100 000 ans, on observe une explosion culturelle qui suggère un langage, une communication… On peut se demander s’il n’y a pas d’abord la mise en place d’un système de représentations mentales enchâssées, puis l’apparition d’une capacité à communiquer ces représentations. »

Grâce au mariage de la paléoanthropologie et des neurosciences, il est scientifiquement possible d’inférer ce que nous signale S. Dehaene : il y a 1,6 et 1,8 million d’années l’ancêtre de l’être humain a franchi un cap, son cerveau a franchi un cap évolutif tel que nous sommes capables de lui attribuer des compétences que nous sommes à même de caractériser en rapport direct avec les nôtres présentement, je cite : le langage, la construction d’outils, le raisonnement mathématique, la recherche délibérée de la symétrie, bref le cerveau de l’ancêtre de l’être humain est déjà le siège d’une intériorisation d’un système de représentation rationnelle du monde.

Dans l’article du 05/08/2017 : « Appel d’offres », j’anticipe la récolte possible du fruit du nouage entre une question de physique, avec une avancée de la paléoanthropologie, et les moyens de l’imagerie cérébrale, et ainsi pouvoir élucider ce que C. Rovelli a mis en relief et avec profondeur analysé : « Le questionnement sur les notions de temps et d’espace est à nouveau ouvert. Il s’agit de redessiner le monde… » Si, comme j’en fais l’hypothèse l’espace-temps est un propre de l’homme, c’est-à-dire qu’il est fondé par l’être humain à une période du développement d’une conduite consciente d’Homo erectus dans celui-ci qui de facto réduit d’autant le champ de son repérage physique instinctif[1], à une période identique à celle privilégiée par Dehaene, alors ce ne sera pas à l’aide d’équations mathématiques que l’on commencera à redessiner le monde. (Voir complémentairement l’article du 15/08/2017)

Jusqu’à présent, à ma connaissance, il n’y a qu’un seul physicien qui a émis clairement l’idée que les mathématiques ne sont pas un moyen universel pour couvrir la totalité des données de la physique et les propriétés de la nature. Justement, Lee Smolin a identifié que c’était le cas pour une donnée caractéristique du temps : le ‘moment présent’. Je le cite, dans un article du NewScientist du 26/04/2013 : « Mais l’univers réel a des propriétés qui ne sont pas représentables par un quelconque objet mathématique. Une de celle-ci est qu’il y a toujours un moment présent. Les objets mathématiques, étant intemporels, n’ont pas de moment présent, n’ont pas de futurs ni de passés. Toutefois, si on embrasse la réalité du temps et voit les lois mathématiques comme des outils plutôt que des miroirs mystiques de la nature, d’autres faits obstinément inexplicables, concernant le monde deviennent explicables… »  Cette conviction de l’auteur résulte d’une réflexion en profondeur qui est relatée dans son livre : ‘ La renaissance du temps’ (2014, éditeur Dunod), page 273 : « … la physique ne peut plus être comprise comme la quête d’un double mathématique précisément identique de l’univers. Ce rêve doit maintenant être vu comme un fantasme métaphysique qui peut avoir inspiré des générations de théoriciens mais qui maintenant bloque (sic) le chemin vers plus de progrès. Les mathématiques continueront d’être l’humble servante de la science, mais elles ne pourront plus en être la Reine. »

L’énigme de l’espace et du temps qui, comme nous l’a rappelée C. Rovelli, accompagne depuis son origine l’humanité pensante, ne relève pas, comme l’indique L. Smolin, d’une résolution mathématique, mais sera levée, selon mon point de vue, en l’associant en premier lieu à une étape du processus de l’évolution du cerveau de l’ancêtre du genre humain, ce qui fait que depuis l’espace-temps est un propre de l’homme, il est inhérent à l’homme. Il revient à des experts de l’imagerie cérébrale comme S. Dehaene de mettre en évidence la validité ou l’invalidité de cette hypothèse avec, par exemple, l’expérience proposée dans ‘Appel d’offres’.

 

[1] Voir aussi article du 21/07/2015

Repost 0
Published by mc2est-cesuffisant
commenter cet article
3 octobre 2017 2 03 /10 /octobre /2017 10:57

Prix Nobel : De l’eau à mon moulin ?

Pour moi, le risque est de surinterpréter les résultats des travaux des nouveaux prix Nobel de médecine puisque depuis plus d’une décennie je fais l’hypothèse de plus en plus affirmée que l’être humain est plus que dépendant d’un rythme temporel mais qu’il en est le fondateur et que celui-ci lui est inhérent au point, in fine, que nous ne pouvons comprendre ce que nous sommes en tant qu’ Être réflexif qu’en l’intégrant dans une concomitance avec le surgissement de l’hominisation (voir entre autres : article du 05/08/2017 : ‘Appel d’offres’).

La revue ‘Science’ est évidemment plus prudente que je ne le suis car dans son article du 2/10, (copie en dernière page) elle titre : «Timing is everything : U.S. trio earns Nobel for work on the body’s biological clock » : « Le rythme est essentiel : un trio US gagne le Nobel pour ses travaux sur l’horloge biologique du corps. » Mais voyons, un peu plus loin, ce qui est associé au terme de corps : « Clock genes are extremely influential, affecting the activity of most other genes in the body in one way or another. Circadian mechanisms influence metabolism—how our body uses and stores energy—blood pressure, body temperature, inflammation, and brain function.Effectivement selon ‘Science’ les fonctions du cerveau sont déterminées par les gênes du temps (gêne période), (clock gene). Pas plus en est dit de la part de ‘Science’ car, certes, le cerveau est le support de la pensée mais aucune confusion ne doit être engendrée qui ferait que cerveau et pensée ne font qu’un. Toutefois l’article désigne les fonctions du cerveau et il est légitime de considérer qu’il y ait des corrélations entre ces fonctions avec l’émergence et les modalités d’émergence de la pensée. J’insiste parce qu’il est essentiel, sur ce sujet, de ne pas extrapoler et respecter les propos de l’auteur de l’article.

            Dans l’article le niveau de la réflexion concerne le niveau biologique, pas plus : « There isn’t any aspect of biology that circadian rhythms aren’t important for. They are totally fundamental.” ; “Il n’y a aucun domaine de la biologie qui ne soit significativement concerné par les rythmes circadiens. Ils sont totalement fondamentaux. » Dans l’échelle de la vie mon hypothèse se situe à un niveau supérieur de celui de la vie purement biologique puisque mon hypothèse prend appui sur le niveau de la conscience de l’existence. Loin de moi de ne pas prendre en compte le niveau biologique, sinon je ne me serais pas enthousiasmé du dernier résultat biologique dans l’article du 15/09 : « Découverte d’une horloge interne élémentaire », il y a une interdépendance évidente. C’est pourquoi très tôt j’ai pris en considération l’Être de la Nature (être de sa biologie sous influence des rythmes circadiens) mais c’est l’Être dans la Nature (conscient de son existence qui a transcender cette influence directe et scande son propre temps) qui scande selon moi les 10-25s. Dans les articles du 02/11/2012 et du 01/01/2013 (je vous invite à les relire) je rends compte comment à mon sens ils cohabitent, notamment : « au cours de cette durée – qui a la valeur d’une faille – se joue la compatibilité de l’être de la nature et de l’être dans la nature qui caractérise l’être humain. »

           

Ci-joints des articles qui relatent l’évènement attribution du prix Nobel.

Timing is everything: U.S. trio earns Nobel for work on the body’s biological clock (in Science)

By Gretchen Vogel, Erik Stokstad Oct. 2, 2017, 5:50 AM

Discoveries about how organisms stay in sync with Earth’s rhythm of day and night have won this year’s Nobel Prize in Physiology or Medicine.

Jeffrey Hall and Michael Rosbash of Brandeis University in Waltham, Massachusetts, and Michael Young of The Rockefeller University in New York City share the prize equally for their work on how several genes work together to control the basic circadian clock, encoding proteins that build up during the night and are broken down during the day. These clocks are ticking inside plants, fungi, protozoa, and animals. In recent years, researchers have found that the clock is related not only to our sleep cycle, but also to metabolism and brain function.

Circadian, or daily, rhythms are “just as fundamental as respiration,” says Charalambos Kyriacou, a molecular geneticist at the University of Leicester in the United Kingdom. “There isn’t any aspect of biology that circadian rhythms aren’t important for. They are totally fundamental in a way that we didn’t anticipate” before the discoveries honored today.

Haut du formulaire

Bas du formulaire

The presence of a biological clock was already surmised in the 18th century. In 1729, French astronomer Jean Jacques d'Ortous de Mairan showed that mimosa leaves, which open at dawn and close at dusk, continued this cycle even when kept in darkness. But it wasn't until the 20th century that the idea of an internal clock—as opposed one that responds to external cues like light—was settled.

The genetic basis for a daily physiological cycle was first discovered in fruit flies in the 1970s. Seymour Benzer and Ronald Konopka at the California Institute of Technology in Pasadena created mutant flies that had abnormal biological clocks. One type had a broken clock—its patterns of activity became arrhythmic—whereas the others now had either a 19-hour or a 28-hour cycle. Benzer and Konopka showed the mutations all had hit the same gene, presumably in different ways. They and other researchers homed in on a gene called period.

Hall and Rosbash finally sequenced the gene in 1984, as did Young. Hall and Rosbash showed that its protein, called PER, rose and fell over 24 hours, peaking at night. They suspected the clock was driven by a feedback loop, with the protein PER interfering with the period gene. (“It makes you scratch your head and wonder if it’s even possible,” Young said in a 1985 news story in Science about the discovery.)

For the clock to work, PER had to get into the nucleus. Young figured out how that happened. In 1994, he and colleagues discovered a second clock gene, timeless, that allowed PER to enter the nucleus and stop period from making more. (Their paper was published in Science.) 

There isn’t any aspect of biology that circadian rhythms aren’t important for. They are totally fundamental.

Charalambos Kyriacou, University of Leicester

Researchers have since found half a dozen more genes that influence the cycle. For example, period and timeless are turned on by clock, discovered in 1997 by Joseph Takahashi, now at UT Southwestern in Dallas, Texas, and his colleagues. Within a year, this group discovered another key part of the feedback loop: When PER and TIM get into the nucleus, they also curtail the activity of clock.

Clock genes are extremely influential, affecting the activity of most other genes in the body in one way or another. Circadian mechanisms influence metabolism—how our body uses and stores energy—blood pressure, body temperature, inflammation, and brain function. Time of day can influence the effectiveness of drugs and their side effects. And mismatches between the clock and the environment, for instance as a result of jet lag or shift work, have been shown to play a role in mood disorders and even cancer risk.

“Since the seminal discoveries by the three laureates,” the Nobel Assembly said in its press release today, “circadian biology has developed into a vast and highly dynamic research field, with implications for our health and wellbeing.” (An extensive discussion about the trio’s work is available from the Nobel Assembly here; watch a video of this morning’s announcement here.)

The award came as a complete surprise to one of the Nobelists. “You are kidding me,” Rosbash said this morning after he was called and notified of the honor, Thomas Perlmann, the Nobel Commitee’s secretary, told journalists this morning.

 

Les chercheurs américains Jeffrey Hall, Michael Rosbash et Michael Young ont décodé sur la mouche drosophile les engrenages de l'horloge biologique, qui règle les rythmes circadiens de tous les organismes vivants.

Elle ne fait pas de bruit et pourtant, elle tourne. Ses engrenages ? Ce sont des gènes et des protéines. Ils fluctuent selon un rythme de 24 heures, donnant le tempo du jour et de la nuit à notre organisme. C'est l'horloge biologique, qui aligne tous les organismes vivant sur la planète Terre sur le rythme astronomique de sa rotation. Un rythme dit circadien, du latin signifiant "autour du jour".

Pour ce cru 2017, le prix Nobel de physiologie et médecine est décerné aux trois chercheurs américains qui ont posé les jalons du décodage de cette horloge. L'annonce a été donnée ce lundi 2 octobre à 11h30 depuis l'Institut Karolinska, à Stockholm (Suède).

La première étape de ces recherches remonte à 1984 : à l'université Brandeis de Boston, Jeffrey Hall et Michael Rosbash sont parvenus à trouver, conjointement à Michael Young à l'université Rockefeller à New York, le gène période dans l'ADN de la mouche du vinaigre. Depuis une décennie déjà, les biologistes savaient que toute mutation endommageant ce gène détraquait l'horloge biologique.

Le gène période et sa protéine PER font tourner l'horloge biologique sur un cycle de 24

Hall et Rosbash ont ensuite expliqué son fonctionnement : il enclenche la production d'une protéine baptisée PER, qui s'accumule pendant la nuit et se dégrade pendant la journée, ce qui fait que son taux oscille au cours d'un cycle de 24 heures... autrement dit selon un rythme circadien !

Ensuite, en 1994, Michael Young a découvert un deuxième gène de l'horloge, appelé timeless. La protéine TIM qu'il code se lie à PER, formant un duo qui pénètre dans le noyau de la cellule afin de bloquer, pendant la journée, l'activité du gène période. De cette manière, la boucle de la production de PER se ferme tous les jours, avant de se relancer à la tombée de la nuit.

Au cours des années, d'autres rouages de l'horloge biologique ont été découverts. On sait aussi qu'elle fonctionne sur le même principe chez tous les organismes vivants, des algues aux cellules humaines : son tic-tac remonterait donc à 2 milliards d'années !

Aujourd'hui, la chronobiologie (la biologie des rythmes) est devenue un champ de recherche fertile et prometteur, depuis que l'on sait qu'une bonne partie de nos gènes sont subtilement réglés par l'horloge biologique. Comme un chef d'orchestre, elle commande le sommeil, la faim, la température corporelle, la pression sanguine et la sécrétion des hormones... d'où l'importance de suivre des rythmes réguliers pour conserver une bonne santé.

 

 

 

           

 

 

Repost 0
Published by mc2est-cesuffisant
commenter cet article
29 septembre 2017 5 29 /09 /septembre /2017 11:18

Un déni ne procède pas d’une démarche scientifique.

L’ICHEP : (International Conférence of High Energie Physics), du 21 au 22 Septembre 2017 n’a produit aucune publication, aucune information. L’ICHEP précédent en Août 2016 fut tout aussi muet (voir article du 10/08/2016).

Jamais dans le monde présent, les physiciens des hautes énergies, des particules élémentaires, n’ont eu d’instruments et de détecteurs aussi puissants et aussi sensibles à leurs dispositions. Jamais, ils n’ont pu cumuler autant de données, par semaine d’exploitation, avec des quantités aussi élevées. Mais voilà, ils ne peuvent en extraire de l’information physique significative, ces physiciens n’ont rien à nous dire, pour le moment ils sont muets.

Malgré moi, j’avais été obligé d’être très critique début janvier 2016 sur le propos d’une très grande passivité de Fabiola Gianetti (directrice générale du CERN) : « Si une nouvelle physique est là, nous pouvons la découvrir, mais c’est entre les mains de la nature. » J’avais répliqué : « Avant tout nous devons avoir la pensée bien placée, une bonne théorie. »

Aucune attitude scientifique ne peut justifier le déni et tout au contraire la bonne attitude, c’est de faire un bilan exhaustif. C’est évidemment ce que nous sommes en droit d’attendre car la contribution des citoyens européens aux sommes d’argent très significatives qui assurent les investissements et le fonctionnement du CERN, qui ne doivent pas être remises en cause, doivent être régulièrement justifiées. Et les physiciens ont aussi la tâche de participer à l’élévation culturelle des populations.

Aucun déni ne se justifie !

Peut-être que l’absence de résultat depuis plusieurs années… est un résultat expérimental significatif. En effet depuis longtemps j’ai formulé l’hypothèse du point aveugle de l’intelligence humaine qui correspond aux événements d’une durée inférieur de l’ordre de 10-25 ;-26s, soit, si on convertit en terme de trace spatiale de l’ordre de 10-17 ; -18 m, ce que j’avais encore rappelé dans l’article du 21/07/2017.

Effectivement, évoquer l’idée du point aveugle de l’intelligence humaine est très (trop) iconoclaste, pourtant je m’appuie fondamentalement sur une hypothèse réaliste qui est celle de la ‘Présence’ indubitable de l’Être cognitif qui conjecture pour comprendre et dire ce qu’est le monde physique. Et puis, il y a ce résultat plusieurs fois confirmé que l’être humain a besoin de l’ordre d’une demie seconde pour avoir conscience de…quelque chose. Alors pourquoi, comment, du fait de l’intermittence du fonctionnement de notre conscience, pourrait surgir un fonctionnement continu de nos capacités intellectuelles sur un sujet ?

P.S. Vient d’être publié aujourd’hui un article, ci-joint, qui annule l’hypothèse du photon noir. Belle coïncidence car dans l’article précédent, il y a quatre jours : « Tropisme », j’indique que le concept de photon noir n’a pas de signification et ne peut être retenu.

Dark Photon Conjecture Fizzles (disparaît)

September 28, 2017

The lack of so-called “dark photons” in electron-positron collision data rules out scenarios in which these hypothetical particles explain the muon’s magnetic moment.

BaBar Collaboration

Dark photons sound like objects confused about their purpose, but in reality they are part of a comprehensive theory of dark matter. Researchers imagine that dark photons have photon-like interactions with other dark matter particles. And these hypothetical particles have recently gained interest because they might explain why the observed value of the muon’s anomalous magnetic moment disagrees slightly with predictions. However, this muon connection now appears to have been ruled out by the BaBar Collaboration at the SLAC National Accelerator Laboratory in California. The researchers found no signal of dark photons in their electron-positron collision data.

Like the normal photon, the dark photon would carry an electromagnetic-like force between dark matter particles. It could also potentially have a weak coupling to normal matter, implying that dark photons could be produced in high-energy collisions. Previous searches have failed to find a signature, but they have generally assumed that dark photons decay into electrons or some other type of visible particle.

For their new search, the BaBar Collaboration considered a scenario in which a dark photon is created with a normal photon in an electron-positron collision and then decays into invisible particles, such as other dark matter particles. In this case, only one particle—the normal photon—would be detected, and it would carry less than the full energy from the collision. Such missing-energy events can occur in other ways, so the team looked for a “bump” or increase in events at a specific energy that would correspond to the mass of the dark photon. They found no such bump up to masses of 8 GeV. The null result conflicts with models in which a dark photon contribution brings the predicted muon magnetic moment in line with observations.

This research is published in Physical Review Letters.

–Michael Schirber

Repost 0
Published by mc2est-cesuffisant
commenter cet article
25 septembre 2017 1 25 /09 /septembre /2017 12:29

Tropisme

Ce titre est peut-être inapproprié mais finalement je le conserve et je l’expliquerai plus loin. La décision d’écrire cet article est venue en découvrant celui publié par Phys.Org le 18/09 : « How Herschel unlocked the secrets of star formation » ; « Comment Herschel découvre les secrets de la formation des étoiles. » Ici Herschel désigne un télescope spatial Européen très sensible à l’infrarouge qui fut expédié en 2009 et qui a fonctionné jusqu’en 2013.

Mon propos n’est pas de relater les résultats reconstitués sur la base de ce qui a été détecté et enregistré grâce à Herschel mais de déployer des réflexions sur la base de commentaires qui ont enrichi la teneur des résultats exposés dans l’article.

« Nous sommes fait de poussières d’étoile, a dit Carl Sagan (1934-1996), puisque les atomes qui nous font – nos corps, nos maisons, notre planète – proviennent largement des générations d’étoiles préexistantes. Attribuer du sens à l’Univers dans lequel nous vivons est un effort engagé depuis des milliers d’années grâce à l’incessant travail de la part des innombrables penseurs premiers, des philosophes, et plus récemment par les scientifiques (sic) (Je suis en accord avec cette fonction et responsabilité nouvellement attribuées aux scientifiques). Ce processus continu est ponctué par des découvertes majeures, souvent rendues possibles par la fabrication de nouveaux instruments (Homo Faber est à l’œuvre) qui ouvrent de nouvelles fenêtres sur le monde, qui amplifient et déploient nos sens. Permettant aux astronomes d’observer plus loin et avec de plus grands détails au cours des quatre derniers siècles, les télescopes ont été la clef pour établir notre compréhension physique du cosmos. Semblablement les progrès des détecteurs en astronomie - de l’œil humain aux plaques photographiques il y a quelques centaines d’années, avec en plus une grande variété de dispositifs électroniques durant le siècle passé – ont été très révolutionnaires pour le développement de ces recherches.  

La découverte de la lumière à des longueurs d’onde autres que celles visibles, au 19e siècle, et son application à l’astronomie pendant le 20e, a prolongé le processus, révélant entièrement des nouvelles catégories de sources cosmiques ainsi que des nouveaux phénomènes, tout aussi bien des aspects inattendus de certaines d’entre elles déjà connues.

Le plus froid est un objet, la plus grande est la longueur d’onde de lumière qu’il émet, ainsi en observant le ciel dans l’infrarouge lointain et dans le domaine sous-millimétrique, cela nous permet d’accéder à quelques-unes des sources les plus froides dans l’Univers, incluant gaz froid et poussière à la température de 50°K et encore moins.

Bénéficiant d’un télescope avec un miroir primaire de 3,5 mètres – étant le plus grand à jamais à observer dans l’infra-rouge lointain – et des détecteurs refroidis juste au-dessus du zéro absolu (ceci explique sa durée de vie limitée à 4 ans car le liquide de refroidissement a une durée d’action limitée dans le temps), Herschel pouvait réaliser des observations avec une sensibilité sans précédent et une résolution spatiale aux longueurs d’onde cruciales pour creuser (sic) jusque dans l’enchevêtrement des nuages où se forment les étoiles. »

En conséquence, très concrètement sommes-nous capables, avec nos capacités de penser, de nous émanciper des propriétés physiques et des contraintes de la matière qui nous fait ? Est-ce que nous pouvons voir et penser au-delà de ses assemblages possibles qui ne peuvent pas être infinis puisque contrainte par des règles ? A priori, on peut considérer que ce questionnement est primaire, naïf, qui n’a pas lieu d’être. Toutefois nous ne pouvons pas évacuer si facilement l’idée que nous ne pouvons pas échapper à un certain tropisme. Ici, il faut préciser ce que l’on veut dire en utilisant le mot tropisme. Dans sa première signification tropisme réfère à : croissance orientée dans l’espace chez les végétaux, sous l’influence d’une excitation extérieure ex : tournesol (phototropisme), il y a aussi le géotropisme (action de la pesanteur) ; dans une seconde signification qui est littéraire : force obscure, inconsciente (A. Gide) ; sentiment fugace, mais inexpliqué (N. Sarraute).

La lumière à laquelle nous sommes directement sensibles est en premier lieu, celle pour laquelle notre œil est sensible dans une bande de longueur d’onde étroite (de l’ordre de 0.4 → 0.8 µm) et tous les appareils extraordinaires que nous avons construits sont sensibles et sont donc des détecteurs d’une lumière qui est en amont ou en aval de la bande étroite de sensibilité de notre organe : œil. Bref cette lumière fait sens pour nous. Nous avons donc l’intelligence de cette lumière mais uniquement de ce type de lumière. On pourrait donc considérer que nous ne pouvons pas avoir (jusqu’à présent) une intelligence des lumières, s’il y en avait de multiple dans notre univers ou dans d’autres univers du multivers, mais qui seraient saisissables uniquement par les moyens d’autres signifiants que la longueur d’onde. Ce questionnement n’est pas (plus) métaphysique, il est d’un point de vue physique très terre à terre puisque l’hypothèse de matière noire est constamment évoquée.

Sachant que lumière et matière sont les deux facettes d’une même réalité (voir cours de S. Haroche) c’est-à-dire que la lumière à laquelle nous sommes sensibles est émise par la matière avec laquelle nous sommes conçus et qui est celle et, jusqu’à présent, seulement celle que nous avons reconnu dans notre univers. Il est compréhensible que nous en soyons des détecteurs naturels car elle nous est familière. Quid, donc de la lumière émise par la matière noire, par exemple ? Est-ce que l’hypothèse de l’existence de matière noire est correcte mais étant naturellement insensibles à sa lumière ceci expliquerait pourquoi nous ne pouvons pas observer sa présence rayonnante ? Ou bien effectivement son rayonnement est à découvrir dans le futur ? La seule hypothèse que je connaisse à ce sujet, propose l’hypothèse de photons noirs. Le concept de photon, même noir, est à mon sens trop connoté, trop orienté pour ouvrir un nouvel espace de connaissance. Ceci indique la difficulté et peut-être même l’impossibilité de transcender les propriétés de la matière qui nous constitue bien que nous soyons aussi des êtres de culture qui accumulons de plus en plus de culture…scientifique.

Lorsque j’écris : « La lumière à laquelle nous sommes sensibles est émise par la matière avec laquelle nous sommes conçus et que nous avons identifié dans notre univers », je mets en évidence une difficulté basique de distinguer un hors de soi d’un en soi. Le hors de soi peut vouloir dire tout simplement hors de notre univers. Cela peut vouloir dire aussi hors de cette partie de l’Univers avec laquelle nous avons des caractères communs. Ceci voudrait dire que ce que nous percevons présentement comme notre univers n’est qu’une fraction d’un univers plus vaste qui pourrait correspondre aux prémices de ce que certains annoncent, appréhendent, d’une façon très générale, avec l’hypothèse du multivers.

On ne peut que s’interroger sur l’ampleur de notre ignorance. Aujourd’hui nous avançons l’idée que nous ne connaissons que 4,9% de ce qui constituerait notre univers. Ce très faible pourcentage a atteint paradoxalement cette faiblesse quantitative au fur et à mesure que nos capacités de voir et de comprendre se sont accrues. L’imperceptible s’est incroyablement accru ces 40 dernières années, est-ce que cela annonce un rebond de l’acuité de ce qui fait ce que nous sommes ? J’aurais tendance à envisager qu’il y aura rebond et celui-ci est devant nous. Rebond lorsque nous comprendrons, donc lorsque nous aurons vu, que ce qui jusqu’à présent nous était imperceptible ou bien mal perçu, mal qualifié, comme par exemple en ce qui concerne les neutrinos.

Je ne suis pas seul à le penser car alors que j’étais en train d’écrire cet article, le 23/09, l’article suivant était publié avec le titre : « Neutrino facility could change understanding of the universe » ; « Des instruments pour les neutrinos pourraient changer notre compréhension de l’univers. » Ceux-ci sont dédiés à : DUNE (Deep underground neutrinos expériments), instruments implantés au Dakota du Sud et qui seront en activités au plus tôt en 2025. Je communique ci-après un extrait de l’article :

« Les scientifiques de DUNE, observeront particulièrement la différence de comportement entre les neutrinos et la contrepartie de leur antimatière : les antineutrinos, ce qui pourrait nous fournir une information pourquoi nous vivons dans un univers dominé par la matière – dit autrement, pourquoi nous sommes tous , au lieu d’avoir été annihilés juste après le Big Bang. DUNE, montrera aussi le processus de production des neutrinos quand une étoile explose, ce qui permettrait de révéler la formation de étoiles à neutrons et des trous noirs et recherchera si les protons ont une durée de vie infinie ou éventuellement se désintègre, nous permettant de nous rapprocher du rêve Einsteinien de la grande unification. »

On peut constater avec cet extrait (original, ci-dessous), l’ampleur du questionnement en ce qui concerne les lois physiques (supposées) qui prévalent dans notre univers et que nous devons résoudre. Bien que je partage l’ampleur de ce que nous devons questionner, je considère que les problèmes posés sont mal focalisés car ils sont cloisonnés par les deux modèles standards celui des particules élémentaires et celui de la cosmologie, alors que ce dont il s’agit c’est d’en sortir. 

« One aspect DUNE scientists will look for is the differences in behaviour between neutrinos and their antimatter counterparts, antineutrinos, which could give us clues as to why we live in a matter dominated universe – in other words, why we are all here, instead of having been annihilated just after the Big Bang. DUNE will also watch for neutrinos produced when a star explodes, which could reveal the formation of neutron stars and black holes, and will investigate whether protons live forever or eventually decay, bringing us closer to fulfilling Einstein's dream of a grand unified theory.”

Repost 0
Published by mc2est-cesuffisant
commenter cet article
18 septembre 2017 1 18 /09 /septembre /2017 07:47

Ecrire sur la physique quantique, pourquoi est-ce si difficile ?

Ci-dessous, je joins un article publié le 14 septembre dans ‘physicsworld.com’, traduit par mes soins et sa version originale est en dernière page.

Cet article est intéressant parce qu’il est, à mes yeux, sincère en ce qui concerne le juste et nécessaire investissement intellectuel que nous devons entretenir avec les connaissances que nous acquérons dans le champ de la mécanique quantique. Il est aussi pour moi réconfortant parce qu’il indique que je ne suis pas isolé à l’égard du questionnement qui m’habite et que je décris en ce qui concerne la mécanique quantique. Le articles du 19/08/2015 et du 26/09/2015 en sont une complète illustration. L’auteur rappelle aussi que la pratique du doute positif constitue une assurance, un chemin qui permettra d’accéder à de nouveaux horizons de connaissances en physique. Pour le moment je réitère que nous ne pensons pas encore quantique mais que cela reste dans l’ordre du possible lorsque l’intelligence collective des physiciens saura mettre en évidence un ou des nouveaux paradigmes qui mettront en évidence les déterminations qui rabattent encore notre faculté de penser actuelle sur ce sujet. Reconnaître ces déterminations ne nous permettra pas de les éliminer mais de facto nous saurons construire le chemin pour les contourner, les dépasser.

Pourquoi est-ce si difficile d’écrire sur la physique quantique ?

C’était le thème du discours de George Musser lors d’un séminaire pour les journalistes et communicants scientifiques qui s’est tenu cette semaine à l’Université de Leeds et commenté par Hamish Johnston. « G. Musser, qui a beaucoup écrit sur des sujets tels que l’intrication quantique et la théorie des cordes – a donné plusieurs raisons, et en voici quelques-unes, qui ont particulièrement coincé dans mon esprit.

Une des raisons est que pour parvenir à une compréhension de ce que vous écrivez sur ce sujet peut être très chronophage. J’ai écrit sur le sujet de la mécanique quantique durant plus d’une décennie, je ne pouvais pas être plus en accord. Même en couvrant un petit morceau de recherche souvent cela implique de revenir sur plusieurs étapes en arrière et à chaque fois revoir les fondements de la théorie quantique (sic).

Une question à laquelle je me confronte dans ‘Physics World’, est : dois-je partager cette information fondamentale avec le lecteur, ou supposer qu’ils ont déjà les connaissances requises ? J’ai tendance à aller au premier cas, parce que le contexte dans lequel un passionnant travail de recherche est réalisé est souvent aussi intéressant que la percée elle-même proposée. Et il y a aussi le vieil adage que les physiciens aiment qu’on leur dise ce qu’ils savent déjà !

Musser a aussi également souligné que les documents de recherche sur la mécanique quantique peuvent être très déroutants. Je suis d’accord sur un point. Je peux certainement penser à deux revues de science générale de grande envergure qui sont sujettes à publier des documents sur la physique quantique qui peuvent être incompréhensibles. Cependant, je ne crois pas que les articles dans des revues leaders de physique tendent à être beaucoup plus accessibles – au moins pour les physiciens. Mais n’hésitez pas à prendre ceci pour un grain de sel, parce que je travaille pour un éditeur d’une revue de physique.

Musser dit aussi qu’interagir avec des chercheurs quantiques devrait être un processus à double sens, plutôt que le journaliste pose simplement des questions et enregistre les réponses. Bien que ces interactions prennent du temps, je pense qu’il s’agit de très bons conseils.

Il est très probable que la première réponse, que vous arrivez à obtenir d’une question sera incompréhensible. Ce n’est pas un jugement sur la capacité intellectuelle du journaliste, pas plus qu’un affront sur la capacité du physicien pour expliquer son travail. C’est juste que les concepts difficiles sont rarement compris dès la première fois.

Le conseil de Musser – contre les bonnes pratiques journalistiques, il souligne – est de mettre les choses en mouvement en provoquant la personne interrogée avec votre propre interprétation de la physique quantique en question. En fin de compte, c’est votre interprétation que vous présenterez à vos lecteurs, alors pourquoi ne pas faire un test de validation ? Si vous êtes inquiet par le biais rampant de votre interprétation partiale, vous pouvez toujours obtenir un deuxième avis d’un autre expert en quantique.

Et quand cet avis vient des experts, à qui devriez-vous faire confiance ? Est-ce que le promoteur d’une théorie nouvelle et controversée exprime des doutes sur leur idée ? Si oui, c’est une personne que vous pouvez croire, dit Musser, ajoutant que l’expression d’aucun doute est un très mauvais signe (sic). En effet, Musser signale que la plupart de nouvelles idées en physique ont tendance à être erronées, c’est ainsi que la science fonctionne.

 

Version originale By Hamish Johnston

Why is quantum physics so hard to write about?

That was the theme of George Musser’s keynote talk at a seminar for science communicators held this week at the University of Leeds. Musser – who has written extensively on topics such as quantum entanglement and string theory – gave several reasons and here are a few that stuck in my mind.
One reason is that reaching an understanding of what you are writing about can be very time consuming. I have been writing about quantum mechanics for over a decade, I couldn’t agree more. Even covering a small piece of research often involves taking several steps backwards and reviewing the fundamentals of quantum theory.

A question I face on Physics World is should I share this background information with the reader, or assume that they already have the required knowledge? I tend to go for the former because the background to an exciting piece of research is often as interesting as the breakthrough itself. And there’s also the old maxim that physicists love to be told what they already know!

Musser also pointed out is that research papers on quantum mechanics can be very confusing. I agree to a point. I can certainly think of two high-profile general science journals that are prone to publishing papers on quantum physics that can be incomprehensible. However, I do think that papers in leading physics journals tend to be much more accessible – at least to physicists. But feel free to take this with a grain of salt, because I do work for a physics journal publisher.

Musser also says that interacting with quantum researchers should be a two-way process, rather than the journalist simply asking questions and recording the answers. Although such interactions take time, I think this is very good advice.

It’s very likely that the first answer you get to a question will be incomprehensible. This is not a reflection of the intellectual ability of the journalist, nor a slight on the physicist’s ability to explain their work. It’s just that difficult concepts are rarely understood the first time around.

Musser’s advice – against good journalistic practice, he points out – is to move things forward by prompting the interviewee with your own interpretation of the quantum physics in question. Ultimately it is your interpretation that you will be presenting to your readers, so why not get a sanity check? If you are worried about bias creeping into your article, you can always get a second opinion from another quantum expert.

And when it comes to experts, who should you trust? Does the proponent of a new and controversial theory express some doubt about their idea? If so, that’s someone you can believe in, says Musser, adding that having no doubt is a very bad sign. Indeed, Musser points out that most new ideas in physics tend to be wrong, that’s just how science works.

This entry was posted in General and tagged quantum mechanics, science communication. Bookmark the permalink.

View all posts by this author  | View this author's profile

Comments are closed.

Guidelines

  • Comments should be relevant to the article and not be used to promote your own work, products or services.
  • Please keep your comments brief (we recommend a maximum of 250 words).
  • We reserve the right to remove excessively long, inappropriate or offensive entries.

 

Repost 0
Published by mc2est-cesuffisant
commenter cet article
15 septembre 2017 5 15 /09 /septembre /2017 10:28

Découverte d’une ultime horloge interne élémentaire.

Cette découverte annoncée le 11 septembre, sur le site Phys.org, est intéressante parce qu’elle précise horloge interne, donc endogène à l’être humain. Le titre complet est : ‘Découverte d’une ‘horloge interne’ au sein d’une cellule vivante humaine’. Article complet ci-joint, en anglais, en dernière page.

Ci-joint je cite une partie de cet article, avec traduction, correspondant au propos que je souhaite développer présentement :

« It's long been established that the shape and size of the cell nucleus change dramatically during a cell's life. Unknown, however, was whether or not the nucleus changes its shape over short periods of time. This was largely due to technical limitations of carrying out such measurements in living cells.

The researchers discovered that the human cell nucleus has a previously undetected type of motion: its nuclear envelope flickers, or fluctuates, over a period of a few seconds. Notably, the amplitude of these changes in shape decreases over time during the cell cycle. Moreover, this motion marks the first physical feature that systematically changes with the cell cycle. Therefore, this process can serve as an internal clock of the cell,”

« Il est établi depuis longtemps que la forme et la taille du noyau de la cellule change radicalement pendant la durée de vie d’une cellule. Mais, était inconnu si oui ou non le noyau change sa forme pendant des courts intervalles de temps. Cette ignorance était largement due à cause de limitations techniques pour extraire de telles mesures de cellules vivantes.

Les chercheurs ont découvert que le noyau d’une cellule humaine a un type de mouvement auparavant indétectable : l’enveloppe de son noyau vacille, ou varie durant une période de quelques secondes. Notablement, l’amplitude de ces changements de forme diminuent avec le temps durant le cycle cellulaire. De plus, ce mouvement marque la première caractéristique physique qui change systématiquement avec le cycle cellulaire. En conséquence, ce processus peut servir d’horloge interne de la cellule… »

L’annonce de cet article et sa lecture m’ont conduit à consulter à nouveau le livre de A. Goldbeter : ‘La vie oscillatoire au cœur des rythmes du vivant’, 2010, O. Jacob, dont je me suis toujours étonné du peu d’écho réservé à ce livre, pourtant de très belle facture et riche d’informations scientifiques. Avant d’aller plus avant, je cite de ce livre un extrait page 29 : «… Le fait que des oscillations entretenues se produisent dans de telles conditions démontre la nature endogène du phénomène périodique… Les oscillations sont donc produites par le système lui-même et non par son environnement. Dans ce dernier cas, le rythme serait d’origine exogène. Savoir si l’origine des oscillations est endogène ou exogène est une question qui se pose chaque fois qu’un rythme est observé en biologie. Cette question s’avère fondamentale. En effet, il n’y a rien d’étonnant à ce qu’un système biologique se comporte de manière rythmique s’il est soumis à un environnement périodique. La question du mécanisme d’un tel rythme exogène ne se pose pas, l’origine du rythme étant évidente. Par contre, trouver l’origine d’un rythme endogène est chaque fois un défi, comme nous le verrons au fil des chapitres de ce livre. »

Dans cette dernière phrase se situe la jonction entre le livre et la teneur de l’article tout récent. De plus les chercheurs de l’université de New York ont mis en évidence une horloge interne des plus élémentaires en ce qui concerne le monde vivant et ceci ne peut que nous concerner. Etant donné mon vœu de décloisonner les connaissances et ses différentes sources je cite la quatrième de couverture du livre de Goldbeter pour vous donner envie de le lire ou de le relire : « L’auteur présente dans ce livre la première synthèse des connaissances sur les rythmes observés aux différents niveaux de l’organisation biologique et médicale… De l’horloge qui contrôle le cycle de division cellulaire (sic) jusqu’aux oscillations qui assurent le succès de la fécondation et du développement embryonnaire[1]. Du cerveau qui produit des rythmes neuronaux (voir le livre tout récent de D. Buonomano) et sécrète des hormones de manière pulsatile jusqu’aux troubles bipolaires… Par-delà les différences de mécanisme et de période l’auteur met en lumière la profonde unité des rythmes du vivant. »

A propos des rythmes du vivant un autre résultat très significatif nous a été fourni par S. Dehaene : le cerveau ne perçoit pas instantanément les événements du monde extérieur. Il lui faut au moins 1/3 de seconde, et souvent bien plus, avant qu’une information sensorielle élémentaire accède à la conscience. Voilà une nouvelle scansion factuelle, au plus haut niveau du vivant, celui du cérébral, qui nous dit qu’il y a comme un battement d’horloge endogène à l’œuvre rythmant le processus de la prise de conscience effective d’une image ou encore d’un concept. (Voir articles du 14/10/2014 et du26/05/2015). Des horloges endogènes habitent l’être humain du niveau le plus élémentaire de ce qui fait de lui un être vivant au niveau le plus élaboré qui fait de lui un être vivant, conscient, pensant. Alors pourquoi ne pas considérer que l’être humain serait le fondateur du temps, et que le temps serait inhérent à l’homme ?  C’est l’hypothèse que je fais depuis longtemps, mais celle-ci provoque une telle rupture avec ce qui est communément pensé par les physiciens que même une articulation objective entre les connaissances de différents domaines scientifiques comme je le propose dans cet article ne saurait suffire à provoquer une volonté de concevoir les choses autrement.

Une des conséquences de l’hypothèse d’une scansion endogène du temps chez l’être humain c’est qu’il y aurait un point aveugle de l’intelligence humaine, ce point aveugle aurait une durée correspondant à l’intervalle de temps entre deux battements de la scansion que j’ai estimé de l’ordre de 10-25s et que je désigne :  Temps propre du ‘Sujet Pensant’ (TpS). Il serait quand même difficile de postuler que le fonctionnement par intermittence avérée de la conscience du ‘sujet pensant’ conduise, malgré tout, à un fonctionnement intellectuel, observationnel, absolument continu du sujet. Si en l’occurrence mon hypothèse (TpS) se vérifiait alors… ce serait un chamboulement copernicien à l’envers. Je l’ai rappelé dans l’article du 09/09 à propos de l’impossibilité d’attribuer une dimension à l’élémentaire électron, et il se trouve que l’’internationale conférence on high energie physics (ICHEP)’, aura lieu à partir du 21 septembre, et généralement bien avant, il y a des rumeurs sur les nouveautés qui seront présentées. Jusqu’à présent aucune rumeur dans l’air. Est-ce que, comme l’an passé, ce sera la morosité, la déception, à cause de l’absence d’annonce significative qui serait en perspective ? Dans l’article du 10/08/2016, concernant la précédente ‘ICHEP’ à Chicago, j’avais évoqué l’idée, étant donné les niveaux d’énergie en jeux au LHC, que nous étions à la limite de ce TpS. Si cette année le même black-out se renouvelle, il faudra qu’une prise de conscience s’installe. Je n’affirme pas que mon hypothèse est définitivement la bonne hypothèse mais il faudra bien qu’elle soit prise en compte.

Considérer que l’être humain soit contraint dans son fonctionnement intellectuel par une détermination, telle que TpS, annule d’une façon rédhibitoire toute faculté de transcendance, d’atteindre la compréhension et l’expression des lois universelles de la nature. L’activité de penser subirait l’effet d’une contrainte qui serait indépassable. Hypothèse extrêmement difficile à prendre en compte, surtout pour les physiciens qui seraient a priori directement affectés, limités dans leur faculté d’ausculter la Nature, plus avant. Sauf que s’ils découvrent que cette situation est, est un fait déductible devenant mesurable et objectif, alors cela deviendra une connaissance, cela indiquera la voie du dépassement.

Ces vingt dernières années les physiciens théoriciens ont été très actifs pour organiser des conférences réunissant philosophes et physiciens, conscients qu’ils devaient peut-être dialoguer avec d’autres catégories d’intellectuelles que ceux qui creusent dans le même domaine de connaissance. Je n’ai jamais eu l’occasion d’entrevoir le moindre jaillissement d’une idée nouvelle de ce type de confrontation pour la simple raison qu’il n’y avait jamais de confrontation mais des additions, des juxtapositions passives, de ce que chacun des intervenants pensait dans son domaine. Comme si le savoir des philosophes et celui des physiciens ne pouvaient se rencontrer et s’éclairer. Pour illustrer mon propos je prends l’exemple d’un livre publié en 2008 : ‘On space and Time’ de Cambridge University Press, qui réunissait les spécialistes les plus pointus et reconnus dans leur domaine : deux mathématiciens, un philosophe, un physicien théoricien, un théologien, un astrophysicien. Lorsque j’ai tourné la dernière page j’ai constaté n’avoir rien appris de nouveau.

Je profite de l’occasion pour citer un livre d’un auteur : un philosophe, Francis Kaplan qui a publié en solo en 2004 le titre : ‘L’irréalité du temps et de l’espace’, édit. Du Cerf. Je n’ai pas souvenir qu’il fut une référence, dommage car avec sa compétence de philosophe l’auteur développa un travail très sérieux que les physiciens théoriciens devraient lire s’ils ne l’ont pas encore fait. Effectivement je partage le constat de l’irréalité de l’espace et du temps, toutefois je veux préciser que selon mon hypothèse l’espace et le temps ne sont pas donnés dans la Nature (= irréalité), mais fondés par l’être humain (vecteur d’une horloge endogène), en ce sens selon les réalistes ils sont irréels, mais selon moi la réalité de la ‘Présence’ du sujet réflexif est une vérité première, une réalité première, indubitable, qui ne peut être gommée, sinon il n’y a pas de science physique pensée possible. Je livre ci-dessous quelques réflexions de l’auteur qui sont exposées en quatrième de couverture :

« La mécanique quantique, la cosmologie et la simple expérience psychologique semblent nous faire aller plus loin et nous faire accéder à une réalité non temporelle (qui ne s’inscrit pas dans le temps) et non spatiale, mais là encore, d’une manière ambiguë et seulement négative. Si alors, au lieu d’interroger la réalité, nous interrogeons le temps et l’espace eux-mêmes, nous constatons qu’ils sont essentiellement subjectifs comme le sont les sensations, c’est-à-dire qu’ils ne sont pas plus l’image de la réalité que la sensation du rouge produite par un coquelicot n’est l’image du coquelicot réel. Il est vrai qu’à la sensation du rouge correspond une onde électromagnétique. Quelque chose dans la réalité correspond nécessairement au temps et à l’espace, mais tandis que nous connaissons ce qui correspond dans celle-ci aux sensations, nous ne pouvons le faire en ce qui les concerne, faute d’un accès positif à une réalité absolument non temporelle et non spatiale. Ce qui nous oblige à vivre en double registre – sur le mode de la réalité du temps et de l’espace et sur le mode de leur irréalité. »

J’ai déjà indiqué comment on peut sortir de l’ambiguïté du double registre. Si TpS est une bonne hypothèse, il authentifie l’hypothèse de la ‘Présence’ en surplomb du ‘Sujet Pensant’ donc l’hypothèse du maintenant présent, de l’instant présent, source du Tic-Tac primordiale qui scande le temps fondé par l’être humain. Cette hypothèse avec ses conséquences est exactement à contre-pied des réalistes avec comme chef de file : A. Einstein car selon lui, il n’y a pas de maintenant : « Pour nous physiciens, la séparation entre passé, présent et avenir, ne garde que la valeur d’une illusion, si tenace soit-elle… La physique ne connaît que des différentes valeurs du temps, elle n’a pas d’expression ni pour ce qui est maintenant, ni pour ce qui est passé, ni pour ce qui est à venir… Le maintenant est éliminé de la construction conceptuelle du monde objectif et s’il n’y a pas de maintenant, le temps n’existe pas réellement. » Cette certitude Einsteinienne résulte de la conception d’un univers-bloc qui émerge de la loi de la relativité générale. Récemment deux physiciens : L. Smolin et N. Gisin ont intuité que cela mené la pensée des physiciens dans une impasse aveuglante. Mais comme je l’ai indiqué, ils n’ont pas pu franchir le Rubicon. Aujourd’hui encore si on ne se dit pas disciple d’Einstein, on ne peut exister comme physicien.

 

‘Researchers find 'internal clock' within live human cells. 11 September 2017

A team of scientists has revealed an internal clock within live human cells, a finding that creates new opportunities for understanding the building blocks of life and the onset of disease.

"Previously, a precise point of a cell in its life cycle could only be determined by studying dead cells," explains Alexandra Zidovska, an assistant professor of physics at New York University and the senior author of research, which appears in the latest issue of the journal Proceedings of the National Academy of Sciences (PNAS). "However, with this discovery, which shows that the nucleus exhibits rapid fluctuations that decrease during the life cycle of the cell, we can enhance our knowledge of both healthy and diseased human cells."

The study, which also included Fang-Yi Chu, an NYU doctoral candidate, and Shannon Haley, an NYU undergraduate, sought to expand our understanding of the cell nucleus during the cell cycle.

It's long been established that the shape and size of the cell nucleus change dramatically during a cell's life. Unknown, however, was whether or not the nucleus changes its shape over short periods of time. This was largely due to technical limitations of carrying out such measurements in living cells.

To capture this dynamic, the scientists used a state of-the-art fluorescent microscope that enables them to see extremely small and very fast shape changes of the cell nucleus in living cells.

The researchers discovered that the human cell nucleus has a previously undetected type of motion: its nuclear envelope flickers, or fluctuates, over a period of a few seconds. Notably, the amplitude of these changes in shape decreases over time during the cell cycle. Moreover, this motion marks the first physical feature that systematically changes with the cell cycle.

"Therefore, this process can serve as an internal clock of the cell, telling you at what stage in the cell cycle the cell is," explains Zidovska. "We know that structural and functional errors of the nuclear envelope lead to a large number of developmental and inherited disorders, such as cardiomyopathy, muscular dystrophy, and cancer. Illuminating the mechanics of nuclear shape fluctuations might contribute to efforts to understand the nuclear envelope in health and disease."

  More information: Fang-Yi Chu el al., "On the origin of shape fluctuations of the cell nucleus," PNAS (2017). www.pnas.org/cgi/doi/10.1073/pnas.1702226114

  Provided by New York University

APA citation: Researchers find 'internal clock' within live human cells (2017, September 11) retrieved 12 September 2017 from https://phys.org/news/2017-09-internal-clock-human-cells.html

 

[1] Page 241 : « L’un des plus beaux exemples de rythme cellulaire récemment découvert est celui de l’horloge de segmentation qui contrôle l’expression périodique de gènes impliqués dans la somitogenèse, c’est-à-dire la formation des somites (unité anatomique de certains animaux), précurseurs des vertèbres. Ce processus représente un exemple d’émergence d’une structure périodique au cours de l’embryogenèse. La structuration spatiale du corps chez les vertébrés est ainsi liée de manière étroite à l’existence d’une structuration temporelle. Elle marque en quelque sorte la trace spatiale de cette structuration dans le temps. (A titre personnel, je trouve que c’est émouvant tellement c’est merveilleux)

Repost 0
Published by mc2est-cesuffisant
commenter cet article
9 septembre 2017 6 09 /09 /septembre /2017 16:45

Enigme sur l’élémentaire !

            Aussi étrange que cela puisse paraître, un nouveau questionnement semble s’imposer à propos d’un objet physique si prépondérant et si ausculté, donc si bien connu, que serait l’électron. En fait le questionnement a toute son ampleur à propos des leptons dont fait partie l’électron (e-) en tant que particule de matière chargée en compagnie du muon (µ-) et du tau (τ-) dont l’antiparticule respective à chacun d’entre eux a une charge positive. Ce questionnement me convient car les trois autres leptons sont les neutrinos avec des saveurs attachées dont j’ai la conviction que l’on ne doit pas corseter leurs propriétés physiques dans le cadre du modèle standard de la physique des particules élémentaires.

            Deux articles ont été publiés, il y a quelques jours :

Dans le NewScientist (NS), ci-joint en fin d’article : ‘What if the diminutive electron isn’t as small as it gets ?’ ; ‘Quoi, si le minuscule électron n’est pas si petit qu’il ne le paraît ?’

Sur le site du ‘Pour la Science’ : (PlS), du 04/09, ci-joint en fin d’article : ‘L’électron défie-t-il le modèle standard ?

Dans le NS, il est dit : “As far as we can tell, electrons are points with precisely zero size that obey the strange rules of the quantum world. One of these particles can influence another through a spooky property called entanglement, for example. Electrons can also tunnel from one place to another without existing in between”. Soit plus particulièrement : « … les électrons sont des points avec une dimension précisément égale à zéro qui obéit aux lois étranges du monde quantique… » Il n’est pas cohérent d’affirmer que l’électron a une dimension égale à zéro, sans être alerté par ce propos. Effectivement l’électron ne peut pas être de dimension égale à zéro car dans ce cas, physiquement il ne serait rien. Il est par contre possible de dire : il nous apparaît comme étant strictement ponctuel mais cela est dû à nos limites de détection, de perception. La dernière fois que j’ai lu une estimation de la dimension d’un électron (il y a 10 ans) c’était 10-18m, soit mille fois plus petit que le proton = 1 fermi. De fait il nous est impossible d’évaluer sa dimension comme je l’ai déjà indiqué car selon mon hypothèse nous sommes limités par un point aveugle TpS, soit 10-18m / C = de l’ordre de 10-26s.

Pour l’auteur de NS il y a interrogation sur le fait que l’électron a deux frères plus lourds. Pourquoi ? Depuis des décennies les physiciens n’ont pas de réponses. Si les anomalies décelées par plusieurs accélérateurs de particules sont prises en compte il devrait y avoir un monde bourdonnant sous la surface de l’électron (sic) – dans ce cas cela nous forcerait à repenser toute la structure constitutive fondamentale de la matière.

Analysons l’autre article publié en français et tentons de retenir l’essentiel de ce qui est annoncé : L’électron défie-t-il le modèle standard ?

« Des indices provenant de trois expériences différentes suggèrent que les électrons et d'autres particules de la même famille violent certaines règles du modèle standard de la physique des particules (sic). Le problème viendrait des électrons (mc2 = 0.5 MeV, on dit couramment et par extrapolation de masse : 0.5MeV, alors que m = 0,911×10-27g) et de ses cousins plus massifs, les muons (105 MeV) et les leptons tau (1776 MeV). D'après le modèle standard, ces trois particules devraient se comporter comme un triplet de particules identiques ne différant que par la masse. Or trois expériences indépendantes ont mis en évidence des indices que ces particules se comportent différemment en raison d’une influence qui reste encore inconnue. Ces conclusions ne sont pas certaines, mais si elles sont confirmées, « cela serait une révolution », explique Mark Wise, de l’institut de technologie de Californie.

La première surprise venant des leptons est apparue dans les résultats obtenus en 2012 par l’expérience BaBar du Centre de l'accélérateur linéaire de Standford (SLAC) en Californie. L'expérience BaBar accélère et fait entrer en collision des électrons avec leurs antiparticules, les positrons. Ces collisions produisent un grand nombre de particules composites, très lourdes mais très instables : elles durent quelques fractions de nanosecondes avant de se décomposer en particules plus petites, et ainsi de suite. Les particules finales sont observées par les détecteurs, ce qui permet aux scientifiques de reconstruire toute la chaîne de désintégration des particules et de remonter aux particules initiales. Si le modèle standard est juste, deux chaînes de désintégrations observées par BaBar devraient produire des particules tau à hauteur de 25 à 30 % du nombre d'électrons, car ces derniers sont plus légers et donc plus faciles à produire. Mais ce n’est pas ce que l’équipe a observé. Les taus étaient beaucoup plus nombreux que prévu, ce qui sous-entend l'existence d'une différence, autre que la masse (sic), entre les leptons taus et les électrons.

Si les différents leptons interagissent vraiment de façon différente, la seule explication serait l’existence d’une force jusqu’ici inconnue. Dans le cadre du modèle standard, les particules massives se désintègrent en leptons (et autres particules) sous l’action de la force faible, cette même force qui est à l’origine de certaines désintégrations radioactives. Mais la force faible agit de la même façon sur tous les leptons. Ainsi, si l’on obtient plus de leptons taus ou muons par rapport à ce que la force faible devrait produire, c’est qu’une autre force inconnue, associée à une particule médiatrice encore inconnue, doit expliquer la désintégration des particules massives de façon à favoriser les particules tau et muons. Prouver l’existence d’une telle force serait une découverte aussi fondamentale que celle de l’électromagnétisme, même si les conséquences sur notre vie quotidienne seraient bien moins importantes. « Cela constituerait clairement, en exagérant à peine, une révolution de la physique », explique Hassan Jawahery, physicien de l’université du Maryland, aux Etats-Unis, et membre de la collaboration LHCb. »

Ces résultats qui interpellent, à juste raison, devraient être aussi questionnés à partir de la connaissance que nous avons des processus de désintégrations des cousins de l’électron, processus qui font intervenir les neutrinos et c’est peut-être à ce niveau que se situe l’étrangeté qui se révèle. En effet voici les différents canaux possibles des désintégrations :

  1.     τ-  →  µ- + anti νµ + ντ    ou 2)  τ-  →  e- + anti νe + ντ
  2.     µ-  e- + anti νe + νµ

La durée de vie moyenne du tau = 290×10-15s et celle du muon = 2×10-6s. Les désintégrations 1) et 2) sont presque équiprobables moyennant un faible écart : 1) = 17,39% et 2) = 17,82% car le muon est plus lourd que l’électron. La désintégration 3) est quasi 100%.

            Or ce que nous connaissons des neutrinos est très limité voire biaisé parce que jusqu’à présent on a voulu définir leurs propriétés physiques dans le cadre du modèle standard, ce qui est à mon sens une erreur, notamment en ce qui concerne la nature de leur masse respective avec le postulat que celle-ci serait encapsulée par la relation E = mc2 (voir introduction du blog). En effet la relation concerne la masse d’inertie, or, il n’est pas possible de qualifier celle des neutrinos comme telle, pas plus évidemment d’un point de vue gravitationnelle.

            A partir de ces considérations, il est compréhensible que ce soit l’ensemble de la famille des leptons qui soit affecté par ce type de postulat erroné. Partant, c’est l’ensemble de l’édifice des particules de matière auquel appartient les leptons qui devra être reconsidéré. Dans les deux articles l’accent est mis sur le fait que l’électron, la particule la plus stable, la plus commune, la mieux connue…? serait intrinsèquement concernée, renforce selon les auteurs l’étrangeté et le caractère inattendu d’une remise en question. Cela est dû au fait que les physiciens ont en général besoin de stabilité théorique pour prolonger le chemin de leurs découvertes, bien qu’ils sachent que cette stabilité est construite, si elle fertilise en partie, ils n’ont plus l’intention de repenser en arrière le bien-fondé du caractère construit. Il me semble que la physique des neutrinos ne doit pas être réduite aux propriétés physiques des neutrinos pensées dans le cadre du modèle standard, ce qui est pourtant toujours le cas présentement. Affaire à suivre puisqu’il y a du chambardement annoncé dans l’air.   

(Article du NewScientist)What if the diminutive electron isn’t as small as it gets?

We thought electrons and their two mysterious siblings were fundamental particles. Now there are hints that we need to go smaller still to understand matter.

ONE in three people reading these words will do so on a device powered by electrons. To make that possible, we go to incredible lengths: generating electrons in vast power stations, stringing cables across the countryside to bear them to us, and installing sockets in the walls of every room. In short, we depend on them – which makes it a shade embarrassing that we don’t fully grasp what they are.

It’s not just that our best theories paint a strange picture of their nature, although that is true. As far as we can tell, electrons are points with precisely zero size that obey the strange rules of the quantum world. One of these particles can influence another through a spooky property called entanglement, for example. Electrons can also tunnel from one place to another without existing in between.

What is the universe made of? Learn more about particle physics in our expert talk at New Scientist Live in London

But the truly inexplicable thing about the electron is that it has two heavier siblings. The universe would tick along fine without these particles, which never hang around long anyway. So why do they exist? And why are there three siblings, not four or 104?

For decades, physicists have had no answer to these questions, but at last we may be edging towards an understanding. If anomalies at particle accelerators across the globe are to be believed, there may be a hidden world buzzing beneath the surface of the electron – one that would force us to rethink all the fundamental building blocks of matter.

The electron was our first…”

L’électron défie-t-il le modèle standard ? (Article de ‘Pour la Science’)

Des indices provenant de trois expériences différentes suggèrent que les électrons et d'autres particules de la même famille violent certaines règles du modèle standard de la physique des particules. 

Depuis des décennies, les physiciens cherchent des signes de comportements étranges chez certaines particules, qui trahiraient des failles subtiles dans le modèle standard de la physique des particules, la théorie dominante décrivant les éléments fondamentaux de l’Univers. Même si l’accord remarquable du modèle standard avec les observations n’est plus à prouver, les scientifiques savent depuis longtemps que des ajustements seront nécessaires. Dans un article publié dans la revue Nature, les chercheurs rapportent des observations qui semblent défier la théorie, mais ces comportements anormaux ne sont pas tout à fait ceux auxquels s’attendaient les théoriciens.

Le problème viendrait des électrons et de leurs cousins plus massifs, les muons et les leptons tau. D'après le modèle standard, ces trois particules devraient se comporter comme un triplet de particules identiques ne différant que par la masse. Or trois expériences indépendantes ont mis en évidence des indices que ces particules se comportent différemment en raison d’une influence qui reste encore inconnue. Ces conclusions ne sont pas certaines, mais si elles sont confirmées, « cela serait une révolution », explique Mark Wise, de l’institut de technologie de Californie.

Des signes alléchants 

Un bouleversement dans le modèle standard serait un événement spectaculaire. Cette théorie est la matrice de la recherche en physique des particules depuis son développement durant la seconde moitié du XXe siècle. Elle décrit l’Univers avec seulement douze particules élémentaires qui forment toute la matière, plus des particules médiatrices des quatre forces fondamentales de la nature (par exemple, la force électromagéntique correspond à un échange de photons). Malgré son succès, cependant, le modèle standard échoue à expliquer la gravitation ou la matière noire (qui représente 25 % du contenu de l’Univers). Pour concilier la physique des particules avec ces observations à grande échelle, les théoriciens ont proposé toutes sortes de « nouvelles physiques » – des théories qui ajoutent des particules ou des forces au zoo du modèle standard. Mais pour l’instant, la plupart des expériences concordent avec les prédictions du modèle standard avec une précision impressionnante et aucun indice de ces hypothétiques particules ou forces n’a pu être mis en évidence.

Cependant, depuis 2012, des signes de comportements anormaux de certaines particules ont commencé à émerger d'une partie moins étudiée du modèle standard surnommée « l’universalité leptonique ». Les leptons sont une classe de particules de moment angulaire intrinsèque (ou spin) 1/2 et non sensibles à l'interaction forte, qui comprend les électrons, les muons et les leptons tau (ou tauons). Selon le modèle standard, ces trois espèces devraient interagir de la même façon entre-elles et avec les autres particules à l'exception des différences attribuables à leurs masses distinctes. Cette similitude correspond à l’universalité leptonique.

La première surprise venant des leptons est apparue dans les résultats obtenus en 2012 par l’expérience BaBar du Centre de l'accélérateur linéaire de Standford (SLAC) en Californie. L'expérience BaBar accélère et fait entrer en collision des électrons avec leurs antiparticules, les positrons. Ces collisions produisent un grand nombre de particules composites, très lourdes mais très instables : elles durent quelques fractions de nanosecondes avant de se décomposer en particules plus petites, et ainsi de suite. Les particules finales sont observées par les détecteurs, ce qui permet aux scientifiques de reconstruire toute la chaîne de désintégration des particules et de remonter aux particules initiales. Si le modèle standard est juste, deux chaînes de désintégrations observées par BaBar devraient produire des particules tau à hauteur de 25 à 30 % du nombre d'électrons, car ces derniers sont plus légers et donc plus faciles à produire. Mais ce n’est pas ce que l’équipe a observé. Les tauons étaient beaucoup plus nombreux que prévu, ce qui sous-entend l'existence d'une différence, autre que la masse, entre les leptons taus et les électrons.

Les résultats de l’expérience BaBar n’étaient qu’un début. Deux autres expériences, LHCb au LHC en Suisse, et Belle, au Japon, ont étudié les mêmes chaînes de désintégration et ont obtenu des résultats similaires en 2015. Belle, comme BaBar, scrute des collisions d’électrons et de positrons. Mais l'expérience LHCb observe des collisions protons-protons à des énergies plus élevées, avec d’autres méthodes de détection. Ces différences dans les dispositifs rendent moins probable que les résultats ne soient que le fruit d’erreurs expérimentales, étayant ainsi la possibilité que cette anomalie soit bien réelle.

En outre, l’expérience LHCb avait aussi mis en lumière des indices de la violation de l’universalité leptonique lors de l’étude d’une autre chaîne de désintégration produisant des leptons. Et il y a quelques mois,, l'équuipe a annoncé avoir mesuré des anomalies potentielles dans  une quatrième chaîne de désintégration. Une disparité similaire entre les électrons et cette fois-ci les muons a également été découverte le mois dernier. Tous ces indices démontrent que quelque chose ne tourne pas rond dans le modèle actuel. « Si ces déviations se confirment », explique Michael Roney, porte-parole de l’expérience BaBar et professeur à l’université de Victoria, « cela serait très étrange qu’elles ne soient pas liées entre elles. » 

Une révolution... si les faits sont avérés

Si les différents leptons interagissent vraiment de façon différente, la seule explication serait l’existence d’une force jusqu’ici inconnue. Dans le cadre du modèle standard, les particules massives se désintègrent en leptons (et autres particules) sous l’action de la force faible, cette même force qui est à l’origine de certaines désintégrations radioactives. Mais la force faible agit de la même façon sur tous les leptons. Ainsi, si l’on obtient plus de leptons taus par rapport à ce que la force faible devrait produire, c’est qu’une autre force inconnue, associée à une particule médiatrice encore inconnue, doit expliquer la désintégration des particules massives de façon à favoriser les particules tau. Prouver l’existence d’une telle force serait une découverte aussi fondamentale que celle de l’électromagnétisme, même si les conséquences sur notre vie quotidienne seraient bien moins importantes. « Cela constituerait clairement, en exagérant à peine, une révolution de la physique », explique Hassan Jawahery, physicien de l’université du Maryland, aux Etats-Unis, et membre de la collaboration LHCb.

Les enjeux sont si importants que les physiciens réclament des preuves irréfutables – et ceux qui réalisent les expériences en ont pleinement conscience. Greg Ciezark, auteur principal de l’article paru dans Nature et post-doctorant à l’institut national Nikhef de physique subatomique, à Amsterdam, précise que les violations de l’universalité « font partie des affirmations extraordinaires », ce qui implique, selon l’adage, des preuves extraordinaires. Pour l’instant, Michael Roney résume bien le scepticisme ambiant : « on ne parie pas contre le modèle standard. »

Aujourd’hui, les indices commencent à devenir consistants. Quand on combine toutes les données, la probabilité que les déviations dans la production de particules taus et d’électrons soient uniquement dues au hasard est d’environ un pour 10 000. Pour n’importe quelle question de la vie quotidienne, cela serait plus que suffisant. Mais les physiciens des particules aiment être très prudents : ils ne considèrent une découverte comme confirmée que s'il y a moins d'une chance sur 3,5 millions que ce soit une fausse alerte. Comme certains scientifiques « expérimentés » peuvent en témoigner, ils se sont déjà fait avoir plusieurs fois, explique Zoltan Ligeti, professeur en physique théorique au laboratoire américain Lawrence Berkeley : « nous avons déjà observé des fluctuations similaires apparaître puis s'évanouir par le passé ».

Cette découverte est d’autant plus étonnante que l’universalité leptonique n’est absolument pas le secteur du modèle standard où les scientifiques s’attendaient à trouver des failles. « Il y a une sorte de fil conducteur auquel les théoriciens se rattachent », explique Mark Wise, et « ceci ne fait pas partie du déroulement anticipé ». Pire encore, les explications proposées pour le comportement des leptons semblent ad hoc et peu satisfaisantes. « À première vue, le type de modèle qui peut reproduire les anomalies n’explique... rien d’autre », précise Zoltan Ligeti. « Par exemple, il ne nous aidera pas à comprendre ce que peut être la matière noire. »

Il ajoute cependant que « c’est la nature qui nous dit ce qu’elle est ». Faire des expériences est donc la clé. Les physiciens observent de plus en plus d’indices de violations au sein du modèle standard et proposent de nouvelles explications. Les expérimentateurs, mais aussi les théoriciens, essaient aussi de réduire les incertitudes qui existent encore dans les différentes mesures. Il faudra probablement attendre les nouvelles données de l’expérience LHCb et celles de la version améliorée de l’expérience Belle. Les physiciens sont optimistes et pensent que d'ici cinq ans environ, nous saurons si l’effet observé est réel et nous connaîtrons son origine. « S’il existe une nouvelle particule médiatrice », explique Svjetlana Fajfer, une théoricienne de l’université de Ljubljana en Slovénie, « elle devrait avoir une masse à la portée du LHC ». En d’autres termes, l’accélérateur de particules devrait être capable de produire cette particule et de l’identifier. Pour beaucoup de physiciens, la possibilité de tester cette idée est séduisante. « Cela rend la chose très excitante. Si je fais quelque chose, cela pourra être confirmé ou réfuté. Dans un sens comme dans l’autre, l’affaire sera close », conclut Zoltan Lige

 

 

 

 

Voir les commentaires

Repost 0
Published by mc2est-cesuffisant
commenter cet article
6 septembre 2017 3 06 /09 /septembre /2017 14:57

L’intrication : conséquence de notre incapacité d’abandonner la théorie classique ?

Le titre de l’article que je propose correspond à une modification du titre de l’article publié le 1e septembre sur le site Phys.Org, ci-joint en original à la fin. En effet originalement : « Entanglement is an enivetable feature of reality. », soit : « L’intrication est une propriété inévitable de la réalité. » A part le fait que les auteurs indiquent clairement que leur référence d’évaluation est la réalité comme si cela ne pouvait pas être un leurre pour les physiciens, je propose d’indiquer ci-après ce qui dans cet article éveille mon intérêt.

« Traditionnellement nous étudions comment le monde classique émerge à partir du monde quantique (c’est couramment juste), mais, dans l’article, nous présentons le renversement de ce raisonnement pour observer comment le monde classique forme (conditionne) le monde quantique. En procédant ainsi nous montrons qu’une de ses propriétés étranges : l’intrication, n’est pas du tout surprenante. Ceci montre que ce qui fait l’étrangeté apparente de la théorie quantique est une conséquence inévitable de penser au-delà de la théorie classique, ou peut-être même une conséquence de notre incapacité à abandonner la théorie classique. »

Il est utile de rappeler que la thèse énoncée : notre incapacité à abandonner la théorie classique, a été dès le début de l’avènement de la mécanique quantique explicitée par N. Bohr (1937), : « Il importe de façon décisive de reconnaître que, d’aussi loin que les phénomènes puissent transcender le domaine de l’explication physique classique, la description de tous les résultats d’expérience doit être exprimée en termes classiques. » Ce point de vue caractérise l’école de Copenhague (Heisenberg, Born, etc…) mais hérisse les réalistes avec Einstein comme chef de fil. Personnellement, j’insisterai sur l’affirmation de Bohr en énonçant : « la description de tous les résultats d’expérience ne peut être exprimée, présentement, qu’en termes classiques. »

Présentement le fait que l’un des auteurs de l’article : Jonathan Richens, émette l’hypothèse qu’après tout nous serions incapables d’abandonner la théorie classique, la conception classique, c’est-à-dire la pensée qui a comme référence encore incontournable du monde classique, me convient très bien. En effet dans l’article du 29/08, j’ai à pas compté proposé d’expliquer pourquoi jusqu’à présent nous ne pouvons pas penser les phénomènes quantiques, notamment l’intrication, autrement qu’en se référant au schéma de la physique classique. A pas compté parce que ma proposition peut être jugée a priori scandaleuse (ce qui est spontanément, de fait, mon cas) puisqu’elle rabat la faculté de la pensée humaine et particulièrement celle du physicien sur des déterminations qui le rende sur le plan intellectuel partiellement aveugle. Même si je prétends que cette détermination sera transcendée : « Non, on ne pense pas quantique. Pas encore ! », voir article du 26/09/2015, cela n’allège pas le poids du rejet d’une telle assertion bien qu’elle s’appuie sur la prise en compte du processus reconnu de l’évolution naturelle par laquelle l’être humain a été façonné.

Dans une certaine mesure, lorsque par un raisonnement tout autre que le mien il y a in fine l’expression d’une hypothèse semblable à la mienne, il est juste de penser que c’est une convergence qui renforce son sens, augmente sa crédibilité. Effectivement si des constats de convergences finissent par s’ajouter à celle-ci le bien-fondé s’amplifiera et finira peut-être par vaincre toutes les formes d’inertie. L’article de Phys.Org intervient quelques jours après le mien, donc l’optimisme n’est pas abusif. Patience donc !

Je rappelle succinctement que la pensée classique qui noue encore le caractère impératif du recours à un espace-temps : fondé par le sujet pensant, et donc non donné dans la nature, donc irréel, pour situer et décrire des phénomènes physiques est une conséquence de notre disposition cérébrale fixée, dans son actuel état, qui en impose encore à notre disposition intellectuelle qui est en perpétuelle développement.

 

 

Entanglement is an inevitable feature of reality

1 September 2017, by Lisa Zyga

 (Phys.org)—Is entanglement really necessary for describing the physical world, or is it possible to have some post-quantum theory without entanglement?

In a new study, physicists have mathematically proved that any theory that has a classical limit—meaning that it can describe our observations of the classical world by recovering classical theory under certain conditions—must contain entanglement. So despite the fact that entanglement goes against classical intuition, entanglement must be an inevitable feature of not only quantum theory but also any non-classical theory, even those that are yet to be developed.

The physicists, Jonathan G. Richens at Imperial College London and University College London, John H. Selby at Imperial College London and the University of Oxford, and Sabri W. Al-Safi at

Nottingham Trent University, have published a paper establishing entanglement as a necessary feature of any non-classical theory in a recent issue of Physical Review Letters.

"Quantum theory has many strange features compared to classical theory," Richens told

Phys.org. "Traditionally we study how the classical world emerges from the quantum, but we set out to reverse this reasoning to see how the classical world shapes the quantum. In doing so we show that one of its strangest features, entanglement, is totally unsurprising. This hints that much of the apparent strangeness of quantum theory is an inevitable consequence of going beyond classical theory, or perhaps even a consequence of our inability to leave classical theory behind."

Although the full proof is very detailed, the main idea behind it is simply that any theory that

describes reality must behave like classical theory in some limit. This requirement seems pretty obvious, but as the physicists show, it imparts strong constraints on the structure of any non-classical theory.

Quantum theory fulfills this requirement of having a classical limit through the process of decoherence. When a quantum system interacts with the outside environment, the system loses its quantum coherence and everything that makes it quantum. So the system becomes classical and behaves as expected by classical theory.

Here, the physicists show that any non-classical theory that recovers classical theory must contain entangled states. To prove this, they assume the opposite: that such a theory does not have entanglement. Then they show that, without entanglement, any theory that recovers classical theory must be classical theory itself (sic)—a contradiction of the original hypothesis that the theory in question is non-classical. This result implies that the assumption that such a theory does not have entanglement is false, which means that any theory of this kind must have entanglement.

This result may be just the beginning of many other related discoveries, since it opens up the possibility that other physical features of quantum theory can be reproduced simply by requiring that the theory has a classical limit. The physicists anticipate that features such as information causality, bit symmetry, and macroscopic locality may all be shown to arise from this single requirement. The results also provide a clearer idea of what any future non-classical, post-quantum theory must look like.

"My future goals would be to see if Bell non-locality can likewise be derived from the existence of a classical limit," Richens said. "It would be interesting if all theories superseding classical

theory must violate local realism. I am also working to see if certain extensions of quantum theory (such as higher order interference) can be ruled out by the existence of a classical limit, or if this limit imparts useful constraints on these 'post-quantum theories.'"

More information: Jonathan G. Richens, John H. Selby, and Sabri W. Al-Safi. "Entanglement is

Necessary for Emergent Classicality in All Physical

Theories." Physical Review Letters. DOI: 10.1103/PhysRevLett.119.080503

© 2017 Phys.org

APA citation: Entanglement is an inevitable feature of reality (2017, September 1) retrieved 2 September

2017 from https://phys.org/news/2017-09-entanglement-inevitable-feature-reality.html

This document is subject to copyright. Apart from any fair dealing for the purpose of private study or research, no

part may be reproduced without the written permission. The content is provided for information purposes only.

 

 

Repost 0
Published by mc2est-cesuffisant
commenter cet article
4 septembre 2017 1 04 /09 /septembre /2017 08:02

Au sein de l’Eternité, Espace et Temps se confondent.

 

Il m’est arrivé assez fréquemment de terminer un article en exprimant en quelques phrases quelle était la métaphysique qui guidait ma réflexion dans le cadre d’une physique prospective. Ici dans ce présent article, je l’exprime tout de go, parce que les deux articles de ‘Pour la Science’ de Septembre, que je vais commenter, proposent des arguments en faveur de cette métaphysique qui rend compte de la dynamique de l’investissement intellectuel du ‘Sujet Pensant’ et que je rappelle : « Au sein d’une Eternité, parmi tous les possibles, Anthrôpos ne cesse de creuser sa compréhension de la physique de l’univers. Cette compréhension est sans fin car, concomitamment, à chaque étape du dévoilement de la nature de l’univers, Anthrôpos développe des nouvelles capacités de décryptement. Cette dynamique ne peut se tarir car rejoindre l’Eternité : là où l’espace et le temps infinis se confondent, ne peut être pour Anthrôpos qu’un horizon. »

Dans le premier article en question : ‘Le multivers quantique’, page 26, on peut lire en introduction : « LA COSMOLOGIE LAISSE PENSER QUE NOTRE UNIVERS N'EN SERAIT QU'UN PARMI D'INNOMBRABLES AUTRES. ET SI CETTE MULTIPLICITÉ D'UNIVERS COÏNCIDAIT AVEC L’IDÉE DES MONDES MULTIPLES AVANCÉE (par Hugh Everett en 1957) IL Y A DONC SOIXANTE ANS POUR COMPRENDRE LA PHYSIOUE QUANTIOUE ? »

« Pour de nombreux cosmologistes, ce que nous pensons être l'Univers dans son intégralité ne serait qu'une infime partie d'un ensemble bien plus vaste : le multivers. Selon ce scénario, il existerait une multitude d'univers, dont l’un serait celui où nous vivons. Et chacun de ces mondes serait régi par des lois différentes ; ce que nous pensions être les principes fondamentaux de la nature ne serait plus si absolu. Ainsi, les types et propriétés des particules élémentaires et de leurs interactions pourraient varier d'un univers à l'autre. 

L’idée du multivers émerge d'une théorie suggérant que le cosmos primordial a subi une expansion fulgurante, exponentielle. Au cours de cette période d’inflation cosmique, certaines régions de l'espace auraient vu leur expansion rapide prendre fin plus tôt que d'autres, formant ce qu'on appelle des : ‘univers-bulles’, un peu comme des bulles dans un volume d'eau bouillante. Notre univers correspondrait à l'une de ces bulles, au-delà de laquelle il y en aurait une infinité d'autres. »

Avec ma métaphysique, l’Univers que j’évoque, in fine, est un tout infini, parménidien, qui d’ailleurs avait occupé l’esprit d’Einstein pour penser l’invariance dans la loi de la Relativité Générale, alors que : Yasunori Nomura, l’auteur de l’article que je cite, avance l’idée d’infinité d’univers-bulles cloisonnés. Ce que je pense c’est que ce cloisonnement va, au fur et à mesure, se dissiper pour accéder à la sommation de tous ces univers-bulles. Le cloisonnement énoncé est corrélé au cloisonnement de notre capacité actuelle de penser plus en avant les lois de la physique. Cette étape avant-gardiste de Nomura, est encore à son balbutiement, il est même possible qu’elle soit erronée tout au moins partiellement mais ce qui est significatif : c’est de commencer à projeter l’idée que ce que l’on repère comme notre seul univers est étriquée. C’est la fin du principe anthropique. Penser d’autres univers possibles implique de penser : « Et chacun de ces mondes serait régi par des lois différentes ; ce que nous pensions être les principes fondamentaux de la nature ne serait plus si absolu. », que nous avons encore des lois physiques à découvrir. C’est une illustration de la dynamique que je relate avec ma métaphysique (je rappelle que pour moi métaphysique signifie : de la physique en gestation).

Quand Nomura écrit : « Ainsi, les types et propriétés des particules élémentaires et de leurs interactions pourraient varier d'un univers à l'autre. »  Je n’exclus pas, comme je l’ai souvent explicité que le neutrino (voir dès l’article d’introduction du blog) soit une particule qui circule dans notre univers mais qui soit aussi un messager d’au moins un autre univers et à ce titre soit vecteur de propriétés de cette autre.  Lorsque l’on décryptera correctement les propriétés du ou des neutrino(s), du même coup on sera en mesure de penser la fusion de ce que l’on appelle notre univers avec cet autre, qui au moins ne feront plus qu’un.

Ainsi nous atteindrons une illustration de ce que nous dit l’auteur :

« L’idée que notre univers ne représente qu'une petite partie d'une structure beaucoup plus vaste n'est pas aussi bizarre qu'il y paraît. Après tout, à travers l'histoire, les scientifiques ont appris à maintes reprises que le monde ne se résume pas à ce qui en est visible. » Pour dire plus justement, je dirais : ne se résume pas à ce qui est présentement visible, parce que dès qu’une pensée juste est démontrée son objet devient visible d’une façon ou d’une autre, même si la visibilité n’est qu’intellectuelle et rigoureusement cohérente. Et quand le : présentement visible, est atteint, c’est l’au-delà de ce présentement : c’est ce qui reste à venir, qui devient l’instigateur de la perpétuelle quête intellectuelle. Pour l’être humain physicien il y aura toujours un reste… à venir. (Voir article avec D. Buonomano du 19/07)

Dans la suite de l’article, l’auteur propose d’expliquer la nouveauté de son point de vue de physicien par rapport à celui des pères étant à l’origine du Big-Bang et de la théorie de l’inflation : A. Guth, G. Gamow, A. Linde, P. Steinhardt… « Selon la théorie de l’inflation éternelle, il se forme une infinité de bulles d’espace où l’expansion exponentielle a ralenti. Chacune de ces bulles correspond à un univers ayant ses propres conditions initiales et physiques. Et l’un des mondes serait notre univers. Dans un univers éternellement en inflation, tout ce qui peut arriver, arrive ; en fait, tout arrive un nombre infini de fois » … « Plus précisément, (selon l’auteur), le scénario cosmologique d’un univers en éternelle inflation serait mathématiquement équivalent à l’interprétation des « mondes multiples, de la physique quantique (Everett). Cette idée est très spéculative (idée qui s’appuie plus sur une appréciation intuitive que sur de la démonstration), mais, comme nous le verrons, une telle connexion entre les deux théories donne des pistes pour résoudre (sic) le problème des prédictions, mais pourrait aussi révéler des informations surprenantes sur l’espace et le temps (sic)».

La suite est en grande partie consacrée à démontrer l’équivalence mathématique des deux théories. Je vous recommande évidemment de l’étudier dans la revue même.

Je reprends à partir de la page 34, là où il exprime son essentielle conviction : « Le multivers et les mondes multiples quantiques sont en réalité une seule et même chose ; ils correspondent simplement au même phénomène (la superposition d’états) qui se produit à des échelles complètement différentes. »

Ensuite, l’auteur indique quels sont les pistes qui permettraient de tester les conclusions de sa conviction. La mesure d’une petite quantité de courbure négative dans notre univers, serait selon lui une belle signature ou bien les vestiges d’une « collision » de notre univers-bulle avec un autre (souvenons-nous de l’énigme de la tache obscur dans le rayonnement fossile).

A propos du temps il conjecture : « Le temps est un concept émergent, quelque chose qui surgit d’une réalité plus fondamentale et qui semble n’exister que dans les branches locales du multivers. » Cette assomption me convient car la réalité plus fondamentale qu’il faut prendre en compte dans notre univers c’est l’émergence d’une intelligence. (voir mes articles précédents).

En conclusion Y. Nomura écrit : « Beaucoup des idées que je viens de présenter sont encore très spéculatives, mais il est passionnant que les physiciens soient en mesure de réfléchir à ces grandes et profondes questions sur la base des avancées théoriques actuelles. Où ces explorations nous mèneront-elles ? Il semble clair en tout cas que nous vivons une ère exaltante dans laquelle nos explorations scientifiques vont au-delà de ce que nous pensions être le monde physique entier – notre univers - pour atteindre un domaine potentiellement sans limites au-delà. » (D’accord avec Nomura, à condition de considérer que ce domaine potentiellement sans limites au-delà est pour nous, selon ma métaphysique, un horizon dont on peut s’approcher sans jamais l’atteindre, puisque c’est la condition de la mobilité permanente de notre pensée.)

A ce propos, puisqu’avant tout, avec ma métaphysique, nous sommes au sein d’une Eternité, effectivement il n’y pas de Big-Bang et j’ai toujours indiqué que celui-ci avait une fonction utilitaire mais pas plus. En effet l’anthrôpos a toujours besoin de poser sa pensée sur une origine qui ne peut être que provisoire, jusqu’à ce que le développement de sa pensée lui permette d’éliminer l’ancienne par une nouvelle qui annonce une nouvelle cosmogonie.

Il y a peu, le 15 août un article a été publié : ‘Loop quantum cosmology and singularities’ : ‘Cosmologie quantique à boucle et singularités’, in ‘Scientific Reports 7, Article number : 8161 (2017)’ et dans cet article très exhaustif il est affirmé que la théorie en question ne fait pas apparaître de Big-Bang ni de Big Crunch d’ailleurs, ces deux singularités ne sont pas nécessaires pour que la théorie soit cohérente. C’est la première fois que je lis un tel article et c’est un signe. De fait, de part en part, la fragilisation du modèle standard de la cosmologie est engagée depuis quelques années. Le 21 juin, il y avait un article qui avait pour titre : ‘Big Bang : le modèle de Hartle-Hawking est-il faux ?’ dans Futura science. Mais précédemment le 15 juin, un article explicite annonçait : ‘No Universe without Big Bang’ in Physical Review D (2017). DOI: 10.1103/PhysRevD.95.103508. Ce mouvement de balancement théorique va continuer à se produire jusqu’à ce que des mesures probantes finissent par stabiliser le curseur sur une configuration d’univers qui englobera le soi-disant nôtre exclusif actuel dans un monde plus vaste et plus riche en propriétés.

Le deuxième article que je veux citer dans le même N° de ‘Pour la Science’ a pour titre : ’L’inflation cosmologique reste le scénario le plus satisfaisant.’

Ci-joint une citation d’une partie de l’interview qui dit beaucoup sur la fragilité de ce scénario. Cette fragilité m’autorise à penser que ma métaphysique est tout autant légitime et fertile que la théorie de l’inflation.

Pourquoi certains physiciens sont-ils pessimistes quant à la possibilité de tester l'inflation ?

Certains considèrent que l'inflation est une idée impossible à tester par les observations, ce qui est un critère essentiel pour une théorie scientifique. Ils ajoutent que la diversité des scénarios inflationnaires et leur flexibilité face aux contraintes empêchent le paradigme inflationnaire d'être réfutable.

Une polémique à ce sujet est récemment née d'un article paru dans Scientific American et cosigné par Paul Steinhardt. Ce chercheur de l’université de Princeton est l'un des pères de la théorie de l’inflation, mais il se montre aujourd'hui très critique. Il est sain que des scientifiques mettent le doigt sur des difficultés que les autres n'ont pas vues, cela fait partie du processus normal de la recherche. C'est en essayant de répondre à ce genre de critiques que l'on améliore une théorie ou, au contraire, que l'on se rend compte qu'elle n'est pas satisfaisante. Un article virulent de Paul Steinhardt a été mal accueilli par la communauté et une trentaine de scientifiques lui ont répondu dans une lettre ouverte. Les critiques de Paul Steinhardt sont multiples ; il évoque notamment la non-testabilité de l'inflation et le problème de l'inflation éternelle.

De quoi s'agit-il ?

L’inflation éternelle est l'idée que si un champ scalaire provoque l'inflation, cette phase d'expansion ne peut pas prendre fin, parce qu'elle est alimentée par des fluctuations quantiques. Cela avait été découvert en 1983 par Paul Steinhardt et d'autres. L’expansion exponentielle ne s'interromprait que dans des régions limitées, où se formeraient des univers analogues au nôtre. Ces bulles forment un multivers. Le problème, pour Paul Steinhardt, c'est qu'à chaque « univers-bulle » correspondront des conditions initiales arbitraires, puisque les fluctuations ayant conduit à la formation de cet univers-bulle sont aléatoires. Il est alors impossible de prédire les propriétés de notre propre univers. C'est un cadre qui se prête à de nombreuses réflexions théoriques. Par exemple, Yasunori Nomura utilise cette idée d'inflation éternelle et de multivers pour dresser un parallèle avec l’interprétation de la mécanique quantique proposée par Hugh Everett en 1957 (voir l’article : page 26 à 34). La plupart des cosmologistes pensent que la question de l'inflation éternelle est probablement importante sur le plan conceptuel, mais que ses conséquences pratiques sont limitées. C'est peut-être une erreur, mais au quotidien, on n'utilise pas cette notion d'inflation éternelle lorsqu'on cherche à résoudre les problèmes de l'inflation dans notre univers.

Le problème du réchauffement, par exemple ?

Oui, mais pas seulement. J'ai récemment publié un article qui, je pense, sera important pour étudier des scénarios inflationnaires réalistes. Jusqu'à présent, nous nous sommes uniquement concentrés sur la forme du potentiel. Mais j'ai montré que nous avons omis une autre propriété importante. Dans une théorie à plusieurs champs scalaires, la dynamique de ces derniers est soumise à la géométrie de l'espace interne dans lequel vivent ces champs et ne dépend donc pas uniquement du potentiel. L’une des conséquences de ce nouveau facteur

est que l’inflation peut s'interrompre de façon prématurée. Pour chaque modèle donné, les limites de compatibilité des données observationnelles sont alors modifiées. On le voit, il y a encore beaucoup de chemin à faire pour comprendre vraiment l’inflation.

Existe-t-il des alternatives à l'idée d'inflation ?

Il y en a quelques-unes. Je n'en suis pas spécialiste, mais le consensus scientifique est qu'elles présentent toutes des problèmes plus importants que l’inflation. L’univers avec rebond, par exemple, décrit un univers qui se contracte puis repart en expansion. L’idée est séduisante dans la mesure où elle évite la singularité initiale du Big Bang. Selon Paul Steinhardt, ce modèle ne présente pas certains problèmes de conditions initiales de l’inflation. Mais aucune théorie physique ne permet à l'heure actuelle de réaliser de manière satisfaisante un tel rebond.

L’inflation cosmique reste aujourd'hui le scénario le plus satisfaisant sur les plans théorique et observationnel. Mais les physiciens adorent les surprises et guettent la nouvelle idée qui fera progresser notre compréhension du monde - même si elle doit détrôner l'inflation !

Propos recueillis par Sean Bailly

Repost 0
Published by mc2est-cesuffisant
commenter cet article

Présentation

  • : Le blog de mc2est-cesuffisant
  • Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens