Overblog
Suivre ce blog Administration + Créer mon blog
29 septembre 2017 5 29 /09 /septembre /2017 11:18

Un déni ne procède pas d’une démarche scientifique.

L’ICHEP : (International Conférence of High Energie Physics), du 21 au 22 Septembre 2017 n’a produit aucune publication, aucune information. L’ICHEP précédent en Août 2016 fut tout aussi muet (voir article du 10/08/2016).

Jamais dans le monde présent, les physiciens des hautes énergies, des particules élémentaires, n’ont eu d’instruments et de détecteurs aussi puissants et aussi sensibles à leurs dispositions. Jamais, ils n’ont pu cumuler autant de données, par semaine d’exploitation, avec des quantités aussi élevées. Mais voilà, ils ne peuvent en extraire de l’information physique significative, ces physiciens n’ont rien à nous dire, pour le moment ils sont muets.

Malgré moi, j’avais été obligé d’être très critique début janvier 2016 sur le propos d’une très grande passivité de Fabiola Gianetti (directrice générale du CERN) : « Si une nouvelle physique est là, nous pouvons la découvrir, mais c’est entre les mains de la nature. » J’avais répliqué : « Avant tout nous devons avoir la pensée bien placée, une bonne théorie. »

Aucune attitude scientifique ne peut justifier le déni et tout au contraire la bonne attitude, c’est de faire un bilan exhaustif. C’est évidemment ce que nous sommes en droit d’attendre car la contribution des citoyens européens aux sommes d’argent très significatives qui assurent les investissements et le fonctionnement du CERN, qui ne doivent pas être remises en cause, doivent être régulièrement justifiées. Et les physiciens ont aussi la tâche de participer à l’élévation culturelle des populations.

Aucun déni ne se justifie !

Peut-être que l’absence de résultat depuis plusieurs années… est un résultat expérimental significatif. En effet depuis longtemps j’ai formulé l’hypothèse du point aveugle de l’intelligence humaine qui correspond aux événements d’une durée inférieur de l’ordre de 10-25 ;-26s, soit, si on convertit en terme de trace spatiale de l’ordre de 10-17 ; -18 m, ce que j’avais encore rappelé dans l’article du 21/07/2017.

Effectivement, évoquer l’idée du point aveugle de l’intelligence humaine est très (trop) iconoclaste, pourtant je m’appuie fondamentalement sur une hypothèse réaliste qui est celle de la ‘Présence’ indubitable de l’Être cognitif qui conjecture pour comprendre et dire ce qu’est le monde physique. Et puis, il y a ce résultat plusieurs fois confirmé que l’être humain a besoin de l’ordre d’une demie seconde pour avoir conscience de…quelque chose. Alors pourquoi, comment, du fait de l’intermittence du fonctionnement de notre conscience, pourrait surgir un fonctionnement continu de nos capacités intellectuelles sur un sujet ?

P.S. Vient d’être publié aujourd’hui un article, ci-joint, qui annule l’hypothèse du photon noir. Belle coïncidence car dans l’article précédent, il y a quatre jours : « Tropisme », j’indique que le concept de photon noir n’a pas de signification et ne peut être retenu.

Dark Photon Conjecture Fizzles (disparaît)

September 28, 2017

The lack of so-called “dark photons” in electron-positron collision data rules out scenarios in which these hypothetical particles explain the muon’s magnetic moment.

BaBar Collaboration

Dark photons sound like objects confused about their purpose, but in reality they are part of a comprehensive theory of dark matter. Researchers imagine that dark photons have photon-like interactions with other dark matter particles. And these hypothetical particles have recently gained interest because they might explain why the observed value of the muon’s anomalous magnetic moment disagrees slightly with predictions. However, this muon connection now appears to have been ruled out by the BaBar Collaboration at the SLAC National Accelerator Laboratory in California. The researchers found no signal of dark photons in their electron-positron collision data.

Like the normal photon, the dark photon would carry an electromagnetic-like force between dark matter particles. It could also potentially have a weak coupling to normal matter, implying that dark photons could be produced in high-energy collisions. Previous searches have failed to find a signature, but they have generally assumed that dark photons decay into electrons or some other type of visible particle.

For their new search, the BaBar Collaboration considered a scenario in which a dark photon is created with a normal photon in an electron-positron collision and then decays into invisible particles, such as other dark matter particles. In this case, only one particle—the normal photon—would be detected, and it would carry less than the full energy from the collision. Such missing-energy events can occur in other ways, so the team looked for a “bump” or increase in events at a specific energy that would correspond to the mass of the dark photon. They found no such bump up to masses of 8 GeV. The null result conflicts with models in which a dark photon contribution brings the predicted muon magnetic moment in line with observations.

This research is published in Physical Review Letters.

–Michael Schirber

Partager cet article
Repost0
25 septembre 2017 1 25 /09 /septembre /2017 12:29

Tropisme

Ce titre est peut-être inapproprié mais finalement je le conserve et je l’expliquerai plus loin. La décision d’écrire cet article est venue en découvrant celui publié par Phys.Org le 18/09 : « How Herschel unlocked the secrets of star formation » ; « Comment Herschel découvre les secrets de la formation des étoiles. » Ici Herschel désigne un télescope spatial Européen très sensible à l’infrarouge qui fut expédié en 2009 et qui a fonctionné jusqu’en 2013.

Mon propos n’est pas de relater les résultats reconstitués sur la base de ce qui a été détecté et enregistré grâce à Herschel mais de déployer des réflexions sur la base de commentaires qui ont enrichi la teneur des résultats exposés dans l’article.

« Nous sommes fait de poussières d’étoile, a dit Carl Sagan (1934-1996), puisque les atomes qui nous font – nos corps, nos maisons, notre planète – proviennent largement des générations d’étoiles préexistantes. Attribuer du sens à l’Univers dans lequel nous vivons est un effort engagé depuis des milliers d’années grâce à l’incessant travail de la part des innombrables penseurs premiers, des philosophes, et plus récemment par les scientifiques (sic) (Je suis en accord avec cette fonction et responsabilité nouvellement attribuées aux scientifiques). Ce processus continu est ponctué par des découvertes majeures, souvent rendues possibles par la fabrication de nouveaux instruments (Homo Faber est à l’œuvre) qui ouvrent de nouvelles fenêtres sur le monde, qui amplifient et déploient nos sens. Permettant aux astronomes d’observer plus loin et avec de plus grands détails au cours des quatre derniers siècles, les télescopes ont été la clef pour établir notre compréhension physique du cosmos. Semblablement les progrès des détecteurs en astronomie - de l’œil humain aux plaques photographiques il y a quelques centaines d’années, avec en plus une grande variété de dispositifs électroniques durant le siècle passé – ont été très révolutionnaires pour le développement de ces recherches.  

La découverte de la lumière à des longueurs d’onde autres que celles visibles, au 19e siècle, et son application à l’astronomie pendant le 20e, a prolongé le processus, révélant entièrement des nouvelles catégories de sources cosmiques ainsi que des nouveaux phénomènes, tout aussi bien des aspects inattendus de certaines d’entre elles déjà connues.

Le plus froid est un objet, la plus grande est la longueur d’onde de lumière qu’il émet, ainsi en observant le ciel dans l’infrarouge lointain et dans le domaine sous-millimétrique, cela nous permet d’accéder à quelques-unes des sources les plus froides dans l’Univers, incluant gaz froid et poussière à la température de 50°K et encore moins.

Bénéficiant d’un télescope avec un miroir primaire de 3,5 mètres – étant le plus grand à jamais à observer dans l’infra-rouge lointain – et des détecteurs refroidis juste au-dessus du zéro absolu (ceci explique sa durée de vie limitée à 4 ans car le liquide de refroidissement a une durée d’action limitée dans le temps), Herschel pouvait réaliser des observations avec une sensibilité sans précédent et une résolution spatiale aux longueurs d’onde cruciales pour creuser (sic) jusque dans l’enchevêtrement des nuages où se forment les étoiles. »

En conséquence, très concrètement sommes-nous capables, avec nos capacités de penser, de nous émanciper des propriétés physiques et des contraintes de la matière qui nous fait ? Est-ce que nous pouvons voir et penser au-delà de ses assemblages possibles qui ne peuvent pas être infinis puisque contrainte par des règles ? A priori, on peut considérer que ce questionnement est primaire, naïf, qui n’a pas lieu d’être. Toutefois nous ne pouvons pas évacuer si facilement l’idée que nous ne pouvons pas échapper à un certain tropisme. Ici, il faut préciser ce que l’on veut dire en utilisant le mot tropisme. Dans sa première signification tropisme réfère à : croissance orientée dans l’espace chez les végétaux, sous l’influence d’une excitation extérieure ex : tournesol (phototropisme), il y a aussi le géotropisme (action de la pesanteur) ; dans une seconde signification qui est littéraire : force obscure, inconsciente (A. Gide) ; sentiment fugace, mais inexpliqué (N. Sarraute).

La lumière à laquelle nous sommes directement sensibles est en premier lieu, celle pour laquelle notre œil est sensible dans une bande de longueur d’onde étroite (de l’ordre de 0.4 → 0.8 µm) et tous les appareils extraordinaires que nous avons construits sont sensibles et sont donc des détecteurs d’une lumière qui est en amont ou en aval de la bande étroite de sensibilité de notre organe : œil. Bref cette lumière fait sens pour nous. Nous avons donc l’intelligence de cette lumière mais uniquement de ce type de lumière. On pourrait donc considérer que nous ne pouvons pas avoir (jusqu’à présent) une intelligence des lumières, s’il y en avait de multiple dans notre univers ou dans d’autres univers du multivers, mais qui seraient saisissables uniquement par les moyens d’autres signifiants que la longueur d’onde. Ce questionnement n’est pas (plus) métaphysique, il est d’un point de vue physique très terre à terre puisque l’hypothèse de matière noire est constamment évoquée.

Sachant que lumière et matière sont les deux facettes d’une même réalité (voir cours de S. Haroche) c’est-à-dire que la lumière à laquelle nous sommes sensibles est émise par la matière avec laquelle nous sommes conçus et qui est celle et, jusqu’à présent, seulement celle que nous avons reconnu dans notre univers. Il est compréhensible que nous en soyons des détecteurs naturels car elle nous est familière. Quid, donc de la lumière émise par la matière noire, par exemple ? Est-ce que l’hypothèse de l’existence de matière noire est correcte mais étant naturellement insensibles à sa lumière ceci expliquerait pourquoi nous ne pouvons pas observer sa présence rayonnante ? Ou bien effectivement son rayonnement est à découvrir dans le futur ? La seule hypothèse que je connaisse à ce sujet, propose l’hypothèse de photons noirs. Le concept de photon, même noir, est à mon sens trop connoté, trop orienté pour ouvrir un nouvel espace de connaissance. Ceci indique la difficulté et peut-être même l’impossibilité de transcender les propriétés de la matière qui nous constitue bien que nous soyons aussi des êtres de culture qui accumulons de plus en plus de culture…scientifique.

Lorsque j’écris : « La lumière à laquelle nous sommes sensibles est émise par la matière avec laquelle nous sommes conçus et que nous avons identifié dans notre univers », je mets en évidence une difficulté basique de distinguer un hors de soi d’un en soi. Le hors de soi peut vouloir dire tout simplement hors de notre univers. Cela peut vouloir dire aussi hors de cette partie de l’Univers avec laquelle nous avons des caractères communs. Ceci voudrait dire que ce que nous percevons présentement comme notre univers n’est qu’une fraction d’un univers plus vaste qui pourrait correspondre aux prémices de ce que certains annoncent, appréhendent, d’une façon très générale, avec l’hypothèse du multivers.

On ne peut que s’interroger sur l’ampleur de notre ignorance. Aujourd’hui nous avançons l’idée que nous ne connaissons que 4,9% de ce qui constituerait notre univers. Ce très faible pourcentage a atteint paradoxalement cette faiblesse quantitative au fur et à mesure que nos capacités de voir et de comprendre se sont accrues. L’imperceptible s’est incroyablement accru ces 40 dernières années, est-ce que cela annonce un rebond de l’acuité de ce qui fait ce que nous sommes ? J’aurais tendance à envisager qu’il y aura rebond et celui-ci est devant nous. Rebond lorsque nous comprendrons, donc lorsque nous aurons vu, que ce qui jusqu’à présent nous était imperceptible ou bien mal perçu, mal qualifié, comme par exemple en ce qui concerne les neutrinos.

Je ne suis pas seul à le penser car alors que j’étais en train d’écrire cet article, le 23/09, l’article suivant était publié avec le titre : « Neutrino facility could change understanding of the universe » ; « Des instruments pour les neutrinos pourraient changer notre compréhension de l’univers. » Ceux-ci sont dédiés à : DUNE (Deep underground neutrinos expériments), instruments implantés au Dakota du Sud et qui seront en activités au plus tôt en 2025. Je communique ci-après un extrait de l’article :

« Les scientifiques de DUNE, observeront particulièrement la différence de comportement entre les neutrinos et la contrepartie de leur antimatière : les antineutrinos, ce qui pourrait nous fournir une information pourquoi nous vivons dans un univers dominé par la matière – dit autrement, pourquoi nous sommes tous , au lieu d’avoir été annihilés juste après le Big Bang. DUNE, montrera aussi le processus de production des neutrinos quand une étoile explose, ce qui permettrait de révéler la formation de étoiles à neutrons et des trous noirs et recherchera si les protons ont une durée de vie infinie ou éventuellement se désintègre, nous permettant de nous rapprocher du rêve Einsteinien de la grande unification. »

On peut constater avec cet extrait (original, ci-dessous), l’ampleur du questionnement en ce qui concerne les lois physiques (supposées) qui prévalent dans notre univers et que nous devons résoudre. Bien que je partage l’ampleur de ce que nous devons questionner, je considère que les problèmes posés sont mal focalisés car ils sont cloisonnés par les deux modèles standards celui des particules élémentaires et celui de la cosmologie, alors que ce dont il s’agit c’est d’en sortir. 

« One aspect DUNE scientists will look for is the differences in behaviour between neutrinos and their antimatter counterparts, antineutrinos, which could give us clues as to why we live in a matter dominated universe – in other words, why we are all here, instead of having been annihilated just after the Big Bang. DUNE will also watch for neutrinos produced when a star explodes, which could reveal the formation of neutron stars and black holes, and will investigate whether protons live forever or eventually decay, bringing us closer to fulfilling Einstein's dream of a grand unified theory.”

Partager cet article
Repost0
18 septembre 2017 1 18 /09 /septembre /2017 07:47

Ecrire sur la physique quantique, pourquoi est-ce si difficile ?

Ci-dessous, je joins un article publié le 14 septembre dans ‘physicsworld.com’, traduit par mes soins et sa version originale est en dernière page.

Cet article est intéressant parce qu’il est, à mes yeux, sincère en ce qui concerne le juste et nécessaire investissement intellectuel que nous devons entretenir avec les connaissances que nous acquérons dans le champ de la mécanique quantique. Il est aussi pour moi réconfortant parce qu’il indique que je ne suis pas isolé à l’égard du questionnement qui m’habite et que je décris en ce qui concerne la mécanique quantique. Le articles du 19/08/2015 et du 26/09/2015 en sont une complète illustration. L’auteur rappelle aussi que la pratique du doute positif constitue une assurance, un chemin qui permettra d’accéder à de nouveaux horizons de connaissances en physique. Pour le moment je réitère que nous ne pensons pas encore quantique mais que cela reste dans l’ordre du possible lorsque l’intelligence collective des physiciens saura mettre en évidence un ou des nouveaux paradigmes qui mettront en évidence les déterminations qui rabattent encore notre faculté de penser actuelle sur ce sujet. Reconnaître ces déterminations ne nous permettra pas de les éliminer mais de facto nous saurons construire le chemin pour les contourner, les dépasser.

Pourquoi est-ce si difficile d’écrire sur la physique quantique ?

C’était le thème du discours de George Musser lors d’un séminaire pour les journalistes et communicants scientifiques qui s’est tenu cette semaine à l’Université de Leeds et commenté par Hamish Johnston. « G. Musser, qui a beaucoup écrit sur des sujets tels que l’intrication quantique et la théorie des cordes – a donné plusieurs raisons, et en voici quelques-unes, qui ont particulièrement coincé dans mon esprit.

Une des raisons est que pour parvenir à une compréhension de ce que vous écrivez sur ce sujet peut être très chronophage. J’ai écrit sur le sujet de la mécanique quantique durant plus d’une décennie, je ne pouvais pas être plus en accord. Même en couvrant un petit morceau de recherche souvent cela implique de revenir sur plusieurs étapes en arrière et à chaque fois revoir les fondements de la théorie quantique (sic).

Une question à laquelle je me confronte dans ‘Physics World’, est : dois-je partager cette information fondamentale avec le lecteur, ou supposer qu’ils ont déjà les connaissances requises ? J’ai tendance à aller au premier cas, parce que le contexte dans lequel un passionnant travail de recherche est réalisé est souvent aussi intéressant que la percée elle-même proposée. Et il y a aussi le vieil adage que les physiciens aiment qu’on leur dise ce qu’ils savent déjà !

Musser a aussi également souligné que les documents de recherche sur la mécanique quantique peuvent être très déroutants. Je suis d’accord sur un point. Je peux certainement penser à deux revues de science générale de grande envergure qui sont sujettes à publier des documents sur la physique quantique qui peuvent être incompréhensibles. Cependant, je ne crois pas que les articles dans des revues leaders de physique tendent à être beaucoup plus accessibles – au moins pour les physiciens. Mais n’hésitez pas à prendre ceci pour un grain de sel, parce que je travaille pour un éditeur d’une revue de physique.

Musser dit aussi qu’interagir avec des chercheurs quantiques devrait être un processus à double sens, plutôt que le journaliste pose simplement des questions et enregistre les réponses. Bien que ces interactions prennent du temps, je pense qu’il s’agit de très bons conseils.

Il est très probable que la première réponse, que vous arrivez à obtenir d’une question sera incompréhensible. Ce n’est pas un jugement sur la capacité intellectuelle du journaliste, pas plus qu’un affront sur la capacité du physicien pour expliquer son travail. C’est juste que les concepts difficiles sont rarement compris dès la première fois.

Le conseil de Musser – contre les bonnes pratiques journalistiques, il souligne – est de mettre les choses en mouvement en provoquant la personne interrogée avec votre propre interprétation de la physique quantique en question. En fin de compte, c’est votre interprétation que vous présenterez à vos lecteurs, alors pourquoi ne pas faire un test de validation ? Si vous êtes inquiet par le biais rampant de votre interprétation partiale, vous pouvez toujours obtenir un deuxième avis d’un autre expert en quantique.

Et quand cet avis vient des experts, à qui devriez-vous faire confiance ? Est-ce que le promoteur d’une théorie nouvelle et controversée exprime des doutes sur leur idée ? Si oui, c’est une personne que vous pouvez croire, dit Musser, ajoutant que l’expression d’aucun doute est un très mauvais signe (sic). En effet, Musser signale que la plupart de nouvelles idées en physique ont tendance à être erronées, c’est ainsi que la science fonctionne.

 

Version originale By Hamish Johnston

Why is quantum physics so hard to write about?

That was the theme of George Musser’s keynote talk at a seminar for science communicators held this week at the University of Leeds. Musser – who has written extensively on topics such as quantum entanglement and string theory – gave several reasons and here are a few that stuck in my mind.
One reason is that reaching an understanding of what you are writing about can be very time consuming. I have been writing about quantum mechanics for over a decade, I couldn’t agree more. Even covering a small piece of research often involves taking several steps backwards and reviewing the fundamentals of quantum theory.

A question I face on Physics World is should I share this background information with the reader, or assume that they already have the required knowledge? I tend to go for the former because the background to an exciting piece of research is often as interesting as the breakthrough itself. And there’s also the old maxim that physicists love to be told what they already know!

Musser also pointed out is that research papers on quantum mechanics can be very confusing. I agree to a point. I can certainly think of two high-profile general science journals that are prone to publishing papers on quantum physics that can be incomprehensible. However, I do think that papers in leading physics journals tend to be much more accessible – at least to physicists. But feel free to take this with a grain of salt, because I do work for a physics journal publisher.

Musser also says that interacting with quantum researchers should be a two-way process, rather than the journalist simply asking questions and recording the answers. Although such interactions take time, I think this is very good advice.

It’s very likely that the first answer you get to a question will be incomprehensible. This is not a reflection of the intellectual ability of the journalist, nor a slight on the physicist’s ability to explain their work. It’s just that difficult concepts are rarely understood the first time around.

Musser’s advice – against good journalistic practice, he points out – is to move things forward by prompting the interviewee with your own interpretation of the quantum physics in question. Ultimately it is your interpretation that you will be presenting to your readers, so why not get a sanity check? If you are worried about bias creeping into your article, you can always get a second opinion from another quantum expert.

And when it comes to experts, who should you trust? Does the proponent of a new and controversial theory express some doubt about their idea? If so, that’s someone you can believe in, says Musser, adding that having no doubt is a very bad sign. Indeed, Musser points out that most new ideas in physics tend to be wrong, that’s just how science works.

This entry was posted in General and tagged quantum mechanics, science communication. Bookmark the permalink.

View all posts by this author  | View this author's profile

Comments are closed.

Guidelines

  • Comments should be relevant to the article and not be used to promote your own work, products or services.
  • Please keep your comments brief (we recommend a maximum of 250 words).
  • We reserve the right to remove excessively long, inappropriate or offensive entries.

 

Partager cet article
Repost0
15 septembre 2017 5 15 /09 /septembre /2017 10:28

Découverte d’une ultime horloge interne élémentaire.

Cette découverte annoncée le 11 septembre, sur le site Phys.org, est intéressante parce qu’elle précise horloge interne, donc endogène à l’être humain. Le titre complet est : ‘Découverte d’une ‘horloge interne’ au sein d’une cellule vivante humaine’. Article complet ci-joint, en anglais, en dernière page.

Ci-joint je cite une partie de cet article, avec traduction, correspondant au propos que je souhaite développer présentement :

« It's long been established that the shape and size of the cell nucleus change dramatically during a cell's life. Unknown, however, was whether or not the nucleus changes its shape over short periods of time. This was largely due to technical limitations of carrying out such measurements in living cells.

The researchers discovered that the human cell nucleus has a previously undetected type of motion: its nuclear envelope flickers, or fluctuates, over a period of a few seconds. Notably, the amplitude of these changes in shape decreases over time during the cell cycle. Moreover, this motion marks the first physical feature that systematically changes with the cell cycle. Therefore, this process can serve as an internal clock of the cell,”

« Il est établi depuis longtemps que la forme et la taille du noyau de la cellule change radicalement pendant la durée de vie d’une cellule. Mais, était inconnu si oui ou non le noyau change sa forme pendant des courts intervalles de temps. Cette ignorance était largement due à cause de limitations techniques pour extraire de telles mesures de cellules vivantes.

Les chercheurs ont découvert que le noyau d’une cellule humaine a un type de mouvement auparavant indétectable : l’enveloppe de son noyau vacille, ou varie durant une période de quelques secondes. Notablement, l’amplitude de ces changements de forme diminuent avec le temps durant le cycle cellulaire. De plus, ce mouvement marque la première caractéristique physique qui change systématiquement avec le cycle cellulaire. En conséquence, ce processus peut servir d’horloge interne de la cellule… »

L’annonce de cet article et sa lecture m’ont conduit à consulter à nouveau le livre de A. Goldbeter : ‘La vie oscillatoire au cœur des rythmes du vivant’, 2010, O. Jacob, dont je me suis toujours étonné du peu d’écho réservé à ce livre, pourtant de très belle facture et riche d’informations scientifiques. Avant d’aller plus avant, je cite de ce livre un extrait page 29 : «… Le fait que des oscillations entretenues se produisent dans de telles conditions démontre la nature endogène du phénomène périodique… Les oscillations sont donc produites par le système lui-même et non par son environnement. Dans ce dernier cas, le rythme serait d’origine exogène. Savoir si l’origine des oscillations est endogène ou exogène est une question qui se pose chaque fois qu’un rythme est observé en biologie. Cette question s’avère fondamentale. En effet, il n’y a rien d’étonnant à ce qu’un système biologique se comporte de manière rythmique s’il est soumis à un environnement périodique. La question du mécanisme d’un tel rythme exogène ne se pose pas, l’origine du rythme étant évidente. Par contre, trouver l’origine d’un rythme endogène est chaque fois un défi, comme nous le verrons au fil des chapitres de ce livre. »

Dans cette dernière phrase se situe la jonction entre le livre et la teneur de l’article tout récent. De plus les chercheurs de l’université de New York ont mis en évidence une horloge interne des plus élémentaires en ce qui concerne le monde vivant et ceci ne peut que nous concerner. Etant donné mon vœu de décloisonner les connaissances et ses différentes sources je cite la quatrième de couverture du livre de Goldbeter pour vous donner envie de le lire ou de le relire : « L’auteur présente dans ce livre la première synthèse des connaissances sur les rythmes observés aux différents niveaux de l’organisation biologique et médicale… De l’horloge qui contrôle le cycle de division cellulaire (sic) jusqu’aux oscillations qui assurent le succès de la fécondation et du développement embryonnaire[1]. Du cerveau qui produit des rythmes neuronaux (voir le livre tout récent de D. Buonomano) et sécrète des hormones de manière pulsatile jusqu’aux troubles bipolaires… Par-delà les différences de mécanisme et de période l’auteur met en lumière la profonde unité des rythmes du vivant. »

A propos des rythmes du vivant un autre résultat très significatif nous a été fourni par S. Dehaene : le cerveau ne perçoit pas instantanément les événements du monde extérieur. Il lui faut au moins 1/3 de seconde, et souvent bien plus, avant qu’une information sensorielle élémentaire accède à la conscience. Voilà une nouvelle scansion factuelle, au plus haut niveau du vivant, celui du cérébral, qui nous dit qu’il y a comme un battement d’horloge endogène à l’œuvre rythmant le processus de la prise de conscience effective d’une image ou encore d’un concept. (Voir articles du 14/10/2014 et du26/05/2015). Des horloges endogènes habitent l’être humain du niveau le plus élémentaire de ce qui fait de lui un être vivant au niveau le plus élaboré qui fait de lui un être vivant, conscient, pensant. Alors pourquoi ne pas considérer que l’être humain serait le fondateur du temps, et que le temps serait inhérent à l’homme ?  C’est l’hypothèse que je fais depuis longtemps, mais celle-ci provoque une telle rupture avec ce qui est communément pensé par les physiciens que même une articulation objective entre les connaissances de différents domaines scientifiques comme je le propose dans cet article ne saurait suffire à provoquer une volonté de concevoir les choses autrement.

Une des conséquences de l’hypothèse d’une scansion endogène du temps chez l’être humain c’est qu’il y aurait un point aveugle de l’intelligence humaine, ce point aveugle aurait une durée correspondant à l’intervalle de temps entre deux battements de la scansion que j’ai estimé de l’ordre de 10-25s et que je désigne :  Temps propre du ‘Sujet Pensant’ (TpS). Il serait quand même difficile de postuler que le fonctionnement par intermittence avérée de la conscience du ‘sujet pensant’ conduise, malgré tout, à un fonctionnement intellectuel, observationnel, absolument continu du sujet. Si en l’occurrence mon hypothèse (TpS) se vérifiait alors… ce serait un chamboulement copernicien à l’envers. Je l’ai rappelé dans l’article du 09/09 à propos de l’impossibilité d’attribuer une dimension à l’élémentaire électron, et il se trouve que l’’internationale conférence on high energie physics (ICHEP)’, aura lieu à partir du 21 septembre, et généralement bien avant, il y a des rumeurs sur les nouveautés qui seront présentées. Jusqu’à présent aucune rumeur dans l’air. Est-ce que, comme l’an passé, ce sera la morosité, la déception, à cause de l’absence d’annonce significative qui serait en perspective ? Dans l’article du 10/08/2016, concernant la précédente ‘ICHEP’ à Chicago, j’avais évoqué l’idée, étant donné les niveaux d’énergie en jeux au LHC, que nous étions à la limite de ce TpS. Si cette année le même black-out se renouvelle, il faudra qu’une prise de conscience s’installe. Je n’affirme pas que mon hypothèse est définitivement la bonne hypothèse mais il faudra bien qu’elle soit prise en compte.

Considérer que l’être humain soit contraint dans son fonctionnement intellectuel par une détermination, telle que TpS, annule d’une façon rédhibitoire toute faculté de transcendance, d’atteindre la compréhension et l’expression des lois universelles de la nature. L’activité de penser subirait l’effet d’une contrainte qui serait indépassable. Hypothèse extrêmement difficile à prendre en compte, surtout pour les physiciens qui seraient a priori directement affectés, limités dans leur faculté d’ausculter la Nature, plus avant. Sauf que s’ils découvrent que cette situation est, est un fait déductible devenant mesurable et objectif, alors cela deviendra une connaissance, cela indiquera la voie du dépassement.

Ces vingt dernières années les physiciens théoriciens ont été très actifs pour organiser des conférences réunissant philosophes et physiciens, conscients qu’ils devaient peut-être dialoguer avec d’autres catégories d’intellectuelles que ceux qui creusent dans le même domaine de connaissance. Je n’ai jamais eu l’occasion d’entrevoir le moindre jaillissement d’une idée nouvelle de ce type de confrontation pour la simple raison qu’il n’y avait jamais de confrontation mais des additions, des juxtapositions passives, de ce que chacun des intervenants pensait dans son domaine. Comme si le savoir des philosophes et celui des physiciens ne pouvaient se rencontrer et s’éclairer. Pour illustrer mon propos je prends l’exemple d’un livre publié en 2008 : ‘On space and Time’ de Cambridge University Press, qui réunissait les spécialistes les plus pointus et reconnus dans leur domaine : deux mathématiciens, un philosophe, un physicien théoricien, un théologien, un astrophysicien. Lorsque j’ai tourné la dernière page j’ai constaté n’avoir rien appris de nouveau.

Je profite de l’occasion pour citer un livre d’un auteur : un philosophe, Francis Kaplan qui a publié en solo en 2004 le titre : ‘L’irréalité du temps et de l’espace’, édit. Du Cerf. Je n’ai pas souvenir qu’il fut une référence, dommage car avec sa compétence de philosophe l’auteur développa un travail très sérieux que les physiciens théoriciens devraient lire s’ils ne l’ont pas encore fait. Effectivement je partage le constat de l’irréalité de l’espace et du temps, toutefois je veux préciser que selon mon hypothèse l’espace et le temps ne sont pas donnés dans la Nature (= irréalité), mais fondés par l’être humain (vecteur d’une horloge endogène), en ce sens selon les réalistes ils sont irréels, mais selon moi la réalité de la ‘Présence’ du sujet réflexif est une vérité première, une réalité première, indubitable, qui ne peut être gommée, sinon il n’y a pas de science physique pensée possible. Je livre ci-dessous quelques réflexions de l’auteur qui sont exposées en quatrième de couverture :

« La mécanique quantique, la cosmologie et la simple expérience psychologique semblent nous faire aller plus loin et nous faire accéder à une réalité non temporelle (qui ne s’inscrit pas dans le temps) et non spatiale, mais là encore, d’une manière ambiguë et seulement négative. Si alors, au lieu d’interroger la réalité, nous interrogeons le temps et l’espace eux-mêmes, nous constatons qu’ils sont essentiellement subjectifs comme le sont les sensations, c’est-à-dire qu’ils ne sont pas plus l’image de la réalité que la sensation du rouge produite par un coquelicot n’est l’image du coquelicot réel. Il est vrai qu’à la sensation du rouge correspond une onde électromagnétique. Quelque chose dans la réalité correspond nécessairement au temps et à l’espace, mais tandis que nous connaissons ce qui correspond dans celle-ci aux sensations, nous ne pouvons le faire en ce qui les concerne, faute d’un accès positif à une réalité absolument non temporelle et non spatiale. Ce qui nous oblige à vivre en double registre – sur le mode de la réalité du temps et de l’espace et sur le mode de leur irréalité. »

J’ai déjà indiqué comment on peut sortir de l’ambiguïté du double registre. Si TpS est une bonne hypothèse, il authentifie l’hypothèse de la ‘Présence’ en surplomb du ‘Sujet Pensant’ donc l’hypothèse du maintenant présent, de l’instant présent, source du Tic-Tac primordiale qui scande le temps fondé par l’être humain. Cette hypothèse avec ses conséquences est exactement à contre-pied des réalistes avec comme chef de file : A. Einstein car selon lui, il n’y a pas de maintenant : « Pour nous physiciens, la séparation entre passé, présent et avenir, ne garde que la valeur d’une illusion, si tenace soit-elle… La physique ne connaît que des différentes valeurs du temps, elle n’a pas d’expression ni pour ce qui est maintenant, ni pour ce qui est passé, ni pour ce qui est à venir… Le maintenant est éliminé de la construction conceptuelle du monde objectif et s’il n’y a pas de maintenant, le temps n’existe pas réellement. » Cette certitude Einsteinienne résulte de la conception d’un univers-bloc qui émerge de la loi de la relativité générale. Récemment deux physiciens : L. Smolin et N. Gisin ont intuité que cela mené la pensée des physiciens dans une impasse aveuglante. Mais comme je l’ai indiqué, ils n’ont pas pu franchir le Rubicon. Aujourd’hui encore si on ne se dit pas disciple d’Einstein, on ne peut exister comme physicien.

 

‘Researchers find 'internal clock' within live human cells. 11 September 2017

A team of scientists has revealed an internal clock within live human cells, a finding that creates new opportunities for understanding the building blocks of life and the onset of disease.

"Previously, a precise point of a cell in its life cycle could only be determined by studying dead cells," explains Alexandra Zidovska, an assistant professor of physics at New York University and the senior author of research, which appears in the latest issue of the journal Proceedings of the National Academy of Sciences (PNAS). "However, with this discovery, which shows that the nucleus exhibits rapid fluctuations that decrease during the life cycle of the cell, we can enhance our knowledge of both healthy and diseased human cells."

The study, which also included Fang-Yi Chu, an NYU doctoral candidate, and Shannon Haley, an NYU undergraduate, sought to expand our understanding of the cell nucleus during the cell cycle.

It's long been established that the shape and size of the cell nucleus change dramatically during a cell's life. Unknown, however, was whether or not the nucleus changes its shape over short periods of time. This was largely due to technical limitations of carrying out such measurements in living cells.

To capture this dynamic, the scientists used a state of-the-art fluorescent microscope that enables them to see extremely small and very fast shape changes of the cell nucleus in living cells.

The researchers discovered that the human cell nucleus has a previously undetected type of motion: its nuclear envelope flickers, or fluctuates, over a period of a few seconds. Notably, the amplitude of these changes in shape decreases over time during the cell cycle. Moreover, this motion marks the first physical feature that systematically changes with the cell cycle.

"Therefore, this process can serve as an internal clock of the cell, telling you at what stage in the cell cycle the cell is," explains Zidovska. "We know that structural and functional errors of the nuclear envelope lead to a large number of developmental and inherited disorders, such as cardiomyopathy, muscular dystrophy, and cancer. Illuminating the mechanics of nuclear shape fluctuations might contribute to efforts to understand the nuclear envelope in health and disease."

  More information: Fang-Yi Chu el al., "On the origin of shape fluctuations of the cell nucleus," PNAS (2017). www.pnas.org/cgi/doi/10.1073/pnas.1702226114

  Provided by New York University

APA citation: Researchers find 'internal clock' within live human cells (2017, September 11) retrieved 12 September 2017 from https://phys.org/news/2017-09-internal-clock-human-cells.html

 

[1] Page 241 : « L’un des plus beaux exemples de rythme cellulaire récemment découvert est celui de l’horloge de segmentation qui contrôle l’expression périodique de gènes impliqués dans la somitogenèse, c’est-à-dire la formation des somites (unité anatomique de certains animaux), précurseurs des vertèbres. Ce processus représente un exemple d’émergence d’une structure périodique au cours de l’embryogenèse. La structuration spatiale du corps chez les vertébrés est ainsi liée de manière étroite à l’existence d’une structuration temporelle. Elle marque en quelque sorte la trace spatiale de cette structuration dans le temps. (A titre personnel, je trouve que c’est émouvant tellement c’est merveilleux)

Partager cet article
Repost0
9 septembre 2017 6 09 /09 /septembre /2017 16:45

Enigme sur l’élémentaire !

            Aussi étrange que cela puisse paraître, un nouveau questionnement semble s’imposer à propos d’un objet physique si prépondérant et si ausculté, donc si bien connu, que serait l’électron. En fait le questionnement a toute son ampleur à propos des leptons dont fait partie l’électron (e-) en tant que particule de matière chargée en compagnie du muon (µ-) et du tau (τ-) dont l’antiparticule respective à chacun d’entre eux a une charge positive. Ce questionnement me convient car les trois autres leptons sont les neutrinos avec des saveurs attachées dont j’ai la conviction que l’on ne doit pas corseter leurs propriétés physiques dans le cadre du modèle standard de la physique des particules élémentaires.

            Deux articles ont été publiés, il y a quelques jours :

Dans le NewScientist (NS), ci-joint en fin d’article : ‘What if the diminutive electron isn’t as small as it gets ?’ ; ‘Quoi, si le minuscule électron n’est pas si petit qu’il ne le paraît ?’

Sur le site du ‘Pour la Science’ : (PlS), du 04/09, ci-joint en fin d’article : ‘L’électron défie-t-il le modèle standard ?

Dans le NS, il est dit : “As far as we can tell, electrons are points with precisely zero size that obey the strange rules of the quantum world. One of these particles can influence another through a spooky property called entanglement, for example. Electrons can also tunnel from one place to another without existing in between”. Soit plus particulièrement : « … les électrons sont des points avec une dimension précisément égale à zéro qui obéit aux lois étranges du monde quantique… » Il n’est pas cohérent d’affirmer que l’électron a une dimension égale à zéro, sans être alerté par ce propos. Effectivement l’électron ne peut pas être de dimension égale à zéro car dans ce cas, physiquement il ne serait rien. Il est par contre possible de dire : il nous apparaît comme étant strictement ponctuel mais cela est dû à nos limites de détection, de perception. La dernière fois que j’ai lu une estimation de la dimension d’un électron (il y a 10 ans) c’était 10-18m, soit mille fois plus petit que le proton = 1 fermi. De fait il nous est impossible d’évaluer sa dimension comme je l’ai déjà indiqué car selon mon hypothèse nous sommes limités par un point aveugle TpS, soit 10-18m / C = de l’ordre de 10-26s.

Pour l’auteur de NS il y a interrogation sur le fait que l’électron a deux frères plus lourds. Pourquoi ? Depuis des décennies les physiciens n’ont pas de réponses. Si les anomalies décelées par plusieurs accélérateurs de particules sont prises en compte il devrait y avoir un monde bourdonnant sous la surface de l’électron (sic) – dans ce cas cela nous forcerait à repenser toute la structure constitutive fondamentale de la matière.

Analysons l’autre article publié en français et tentons de retenir l’essentiel de ce qui est annoncé : L’électron défie-t-il le modèle standard ?

« Des indices provenant de trois expériences différentes suggèrent que les électrons et d'autres particules de la même famille violent certaines règles du modèle standard de la physique des particules (sic). Le problème viendrait des électrons (mc2 = 0.5 MeV, on dit couramment et par extrapolation de masse : 0.5MeV, alors que m = 0,911×10-27g) et de ses cousins plus massifs, les muons (105 MeV) et les leptons tau (1776 MeV). D'après le modèle standard, ces trois particules devraient se comporter comme un triplet de particules identiques ne différant que par la masse. Or trois expériences indépendantes ont mis en évidence des indices que ces particules se comportent différemment en raison d’une influence qui reste encore inconnue. Ces conclusions ne sont pas certaines, mais si elles sont confirmées, « cela serait une révolution », explique Mark Wise, de l’institut de technologie de Californie.

La première surprise venant des leptons est apparue dans les résultats obtenus en 2012 par l’expérience BaBar du Centre de l'accélérateur linéaire de Standford (SLAC) en Californie. L'expérience BaBar accélère et fait entrer en collision des électrons avec leurs antiparticules, les positrons. Ces collisions produisent un grand nombre de particules composites, très lourdes mais très instables : elles durent quelques fractions de nanosecondes avant de se décomposer en particules plus petites, et ainsi de suite. Les particules finales sont observées par les détecteurs, ce qui permet aux scientifiques de reconstruire toute la chaîne de désintégration des particules et de remonter aux particules initiales. Si le modèle standard est juste, deux chaînes de désintégrations observées par BaBar devraient produire des particules tau à hauteur de 25 à 30 % du nombre d'électrons, car ces derniers sont plus légers et donc plus faciles à produire. Mais ce n’est pas ce que l’équipe a observé. Les taus étaient beaucoup plus nombreux que prévu, ce qui sous-entend l'existence d'une différence, autre que la masse (sic), entre les leptons taus et les électrons.

Si les différents leptons interagissent vraiment de façon différente, la seule explication serait l’existence d’une force jusqu’ici inconnue. Dans le cadre du modèle standard, les particules massives se désintègrent en leptons (et autres particules) sous l’action de la force faible, cette même force qui est à l’origine de certaines désintégrations radioactives. Mais la force faible agit de la même façon sur tous les leptons. Ainsi, si l’on obtient plus de leptons taus ou muons par rapport à ce que la force faible devrait produire, c’est qu’une autre force inconnue, associée à une particule médiatrice encore inconnue, doit expliquer la désintégration des particules massives de façon à favoriser les particules tau et muons. Prouver l’existence d’une telle force serait une découverte aussi fondamentale que celle de l’électromagnétisme, même si les conséquences sur notre vie quotidienne seraient bien moins importantes. « Cela constituerait clairement, en exagérant à peine, une révolution de la physique », explique Hassan Jawahery, physicien de l’université du Maryland, aux Etats-Unis, et membre de la collaboration LHCb. »

Ces résultats qui interpellent, à juste raison, devraient être aussi questionnés à partir de la connaissance que nous avons des processus de désintégrations des cousins de l’électron, processus qui font intervenir les neutrinos et c’est peut-être à ce niveau que se situe l’étrangeté qui se révèle. En effet voici les différents canaux possibles des désintégrations :

  1.     τ-  →  µ- + anti νµ + ντ    ou 2)  τ-  →  e- + anti νe + ντ
  2.     µ-  e- + anti νe + νµ

La durée de vie moyenne du tau = 290×10-15s et celle du muon = 2×10-6s. Les désintégrations 1) et 2) sont presque équiprobables moyennant un faible écart : 1) = 17,39% et 2) = 17,82% car le muon est plus lourd que l’électron. La désintégration 3) est quasi 100%.

            Or ce que nous connaissons des neutrinos est très limité voire biaisé parce que jusqu’à présent on a voulu définir leurs propriétés physiques dans le cadre du modèle standard, ce qui est à mon sens une erreur, notamment en ce qui concerne la nature de leur masse respective avec le postulat que celle-ci serait encapsulée par la relation E = mc2 (voir introduction du blog). En effet la relation concerne la masse d’inertie, or, il n’est pas possible de qualifier celle des neutrinos comme telle, pas plus évidemment d’un point de vue gravitationnelle.

            A partir de ces considérations, il est compréhensible que ce soit l’ensemble de la famille des leptons qui soit affecté par ce type de postulat erroné. Partant, c’est l’ensemble de l’édifice des particules de matière auquel appartient les leptons qui devra être reconsidéré. Dans les deux articles l’accent est mis sur le fait que l’électron, la particule la plus stable, la plus commune, la mieux connue…? serait intrinsèquement concernée, renforce selon les auteurs l’étrangeté et le caractère inattendu d’une remise en question. Cela est dû au fait que les physiciens ont en général besoin de stabilité théorique pour prolonger le chemin de leurs découvertes, bien qu’ils sachent que cette stabilité est construite, si elle fertilise en partie, ils n’ont plus l’intention de repenser en arrière le bien-fondé du caractère construit. Il me semble que la physique des neutrinos ne doit pas être réduite aux propriétés physiques des neutrinos pensées dans le cadre du modèle standard, ce qui est pourtant toujours le cas présentement. Affaire à suivre puisqu’il y a du chambardement annoncé dans l’air.   

(Article du NewScientist)What if the diminutive electron isn’t as small as it gets?

We thought electrons and their two mysterious siblings were fundamental particles. Now there are hints that we need to go smaller still to understand matter.

ONE in three people reading these words will do so on a device powered by electrons. To make that possible, we go to incredible lengths: generating electrons in vast power stations, stringing cables across the countryside to bear them to us, and installing sockets in the walls of every room. In short, we depend on them – which makes it a shade embarrassing that we don’t fully grasp what they are.

It’s not just that our best theories paint a strange picture of their nature, although that is true. As far as we can tell, electrons are points with precisely zero size that obey the strange rules of the quantum world. One of these particles can influence another through a spooky property called entanglement, for example. Electrons can also tunnel from one place to another without existing in between.

What is the universe made of? Learn more about particle physics in our expert talk at New Scientist Live in London

But the truly inexplicable thing about the electron is that it has two heavier siblings. The universe would tick along fine without these particles, which never hang around long anyway. So why do they exist? And why are there three siblings, not four or 104?

For decades, physicists have had no answer to these questions, but at last we may be edging towards an understanding. If anomalies at particle accelerators across the globe are to be believed, there may be a hidden world buzzing beneath the surface of the electron – one that would force us to rethink all the fundamental building blocks of matter.

The electron was our first…”

L’électron défie-t-il le modèle standard ? (Article de ‘Pour la Science’)

Des indices provenant de trois expériences différentes suggèrent que les électrons et d'autres particules de la même famille violent certaines règles du modèle standard de la physique des particules. 

Depuis des décennies, les physiciens cherchent des signes de comportements étranges chez certaines particules, qui trahiraient des failles subtiles dans le modèle standard de la physique des particules, la théorie dominante décrivant les éléments fondamentaux de l’Univers. Même si l’accord remarquable du modèle standard avec les observations n’est plus à prouver, les scientifiques savent depuis longtemps que des ajustements seront nécessaires. Dans un article publié dans la revue Nature, les chercheurs rapportent des observations qui semblent défier la théorie, mais ces comportements anormaux ne sont pas tout à fait ceux auxquels s’attendaient les théoriciens.

Le problème viendrait des électrons et de leurs cousins plus massifs, les muons et les leptons tau. D'après le modèle standard, ces trois particules devraient se comporter comme un triplet de particules identiques ne différant que par la masse. Or trois expériences indépendantes ont mis en évidence des indices que ces particules se comportent différemment en raison d’une influence qui reste encore inconnue. Ces conclusions ne sont pas certaines, mais si elles sont confirmées, « cela serait une révolution », explique Mark Wise, de l’institut de technologie de Californie.

Des signes alléchants 

Un bouleversement dans le modèle standard serait un événement spectaculaire. Cette théorie est la matrice de la recherche en physique des particules depuis son développement durant la seconde moitié du XXe siècle. Elle décrit l’Univers avec seulement douze particules élémentaires qui forment toute la matière, plus des particules médiatrices des quatre forces fondamentales de la nature (par exemple, la force électromagéntique correspond à un échange de photons). Malgré son succès, cependant, le modèle standard échoue à expliquer la gravitation ou la matière noire (qui représente 25 % du contenu de l’Univers). Pour concilier la physique des particules avec ces observations à grande échelle, les théoriciens ont proposé toutes sortes de « nouvelles physiques » – des théories qui ajoutent des particules ou des forces au zoo du modèle standard. Mais pour l’instant, la plupart des expériences concordent avec les prédictions du modèle standard avec une précision impressionnante et aucun indice de ces hypothétiques particules ou forces n’a pu être mis en évidence.

Cependant, depuis 2012, des signes de comportements anormaux de certaines particules ont commencé à émerger d'une partie moins étudiée du modèle standard surnommée « l’universalité leptonique ». Les leptons sont une classe de particules de moment angulaire intrinsèque (ou spin) 1/2 et non sensibles à l'interaction forte, qui comprend les électrons, les muons et les leptons tau (ou tauons). Selon le modèle standard, ces trois espèces devraient interagir de la même façon entre-elles et avec les autres particules à l'exception des différences attribuables à leurs masses distinctes. Cette similitude correspond à l’universalité leptonique.

La première surprise venant des leptons est apparue dans les résultats obtenus en 2012 par l’expérience BaBar du Centre de l'accélérateur linéaire de Standford (SLAC) en Californie. L'expérience BaBar accélère et fait entrer en collision des électrons avec leurs antiparticules, les positrons. Ces collisions produisent un grand nombre de particules composites, très lourdes mais très instables : elles durent quelques fractions de nanosecondes avant de se décomposer en particules plus petites, et ainsi de suite. Les particules finales sont observées par les détecteurs, ce qui permet aux scientifiques de reconstruire toute la chaîne de désintégration des particules et de remonter aux particules initiales. Si le modèle standard est juste, deux chaînes de désintégrations observées par BaBar devraient produire des particules tau à hauteur de 25 à 30 % du nombre d'électrons, car ces derniers sont plus légers et donc plus faciles à produire. Mais ce n’est pas ce que l’équipe a observé. Les tauons étaient beaucoup plus nombreux que prévu, ce qui sous-entend l'existence d'une différence, autre que la masse, entre les leptons taus et les électrons.

Les résultats de l’expérience BaBar n’étaient qu’un début. Deux autres expériences, LHCb au LHC en Suisse, et Belle, au Japon, ont étudié les mêmes chaînes de désintégration et ont obtenu des résultats similaires en 2015. Belle, comme BaBar, scrute des collisions d’électrons et de positrons. Mais l'expérience LHCb observe des collisions protons-protons à des énergies plus élevées, avec d’autres méthodes de détection. Ces différences dans les dispositifs rendent moins probable que les résultats ne soient que le fruit d’erreurs expérimentales, étayant ainsi la possibilité que cette anomalie soit bien réelle.

En outre, l’expérience LHCb avait aussi mis en lumière des indices de la violation de l’universalité leptonique lors de l’étude d’une autre chaîne de désintégration produisant des leptons. Et il y a quelques mois,, l'équuipe a annoncé avoir mesuré des anomalies potentielles dans  une quatrième chaîne de désintégration. Une disparité similaire entre les électrons et cette fois-ci les muons a également été découverte le mois dernier. Tous ces indices démontrent que quelque chose ne tourne pas rond dans le modèle actuel. « Si ces déviations se confirment », explique Michael Roney, porte-parole de l’expérience BaBar et professeur à l’université de Victoria, « cela serait très étrange qu’elles ne soient pas liées entre elles. » 

Une révolution... si les faits sont avérés

Si les différents leptons interagissent vraiment de façon différente, la seule explication serait l’existence d’une force jusqu’ici inconnue. Dans le cadre du modèle standard, les particules massives se désintègrent en leptons (et autres particules) sous l’action de la force faible, cette même force qui est à l’origine de certaines désintégrations radioactives. Mais la force faible agit de la même façon sur tous les leptons. Ainsi, si l’on obtient plus de leptons taus par rapport à ce que la force faible devrait produire, c’est qu’une autre force inconnue, associée à une particule médiatrice encore inconnue, doit expliquer la désintégration des particules massives de façon à favoriser les particules tau. Prouver l’existence d’une telle force serait une découverte aussi fondamentale que celle de l’électromagnétisme, même si les conséquences sur notre vie quotidienne seraient bien moins importantes. « Cela constituerait clairement, en exagérant à peine, une révolution de la physique », explique Hassan Jawahery, physicien de l’université du Maryland, aux Etats-Unis, et membre de la collaboration LHCb.

Les enjeux sont si importants que les physiciens réclament des preuves irréfutables – et ceux qui réalisent les expériences en ont pleinement conscience. Greg Ciezark, auteur principal de l’article paru dans Nature et post-doctorant à l’institut national Nikhef de physique subatomique, à Amsterdam, précise que les violations de l’universalité « font partie des affirmations extraordinaires », ce qui implique, selon l’adage, des preuves extraordinaires. Pour l’instant, Michael Roney résume bien le scepticisme ambiant : « on ne parie pas contre le modèle standard. »

Aujourd’hui, les indices commencent à devenir consistants. Quand on combine toutes les données, la probabilité que les déviations dans la production de particules taus et d’électrons soient uniquement dues au hasard est d’environ un pour 10 000. Pour n’importe quelle question de la vie quotidienne, cela serait plus que suffisant. Mais les physiciens des particules aiment être très prudents : ils ne considèrent une découverte comme confirmée que s'il y a moins d'une chance sur 3,5 millions que ce soit une fausse alerte. Comme certains scientifiques « expérimentés » peuvent en témoigner, ils se sont déjà fait avoir plusieurs fois, explique Zoltan Ligeti, professeur en physique théorique au laboratoire américain Lawrence Berkeley : « nous avons déjà observé des fluctuations similaires apparaître puis s'évanouir par le passé ».

Cette découverte est d’autant plus étonnante que l’universalité leptonique n’est absolument pas le secteur du modèle standard où les scientifiques s’attendaient à trouver des failles. « Il y a une sorte de fil conducteur auquel les théoriciens se rattachent », explique Mark Wise, et « ceci ne fait pas partie du déroulement anticipé ». Pire encore, les explications proposées pour le comportement des leptons semblent ad hoc et peu satisfaisantes. « À première vue, le type de modèle qui peut reproduire les anomalies n’explique... rien d’autre », précise Zoltan Ligeti. « Par exemple, il ne nous aidera pas à comprendre ce que peut être la matière noire. »

Il ajoute cependant que « c’est la nature qui nous dit ce qu’elle est ». Faire des expériences est donc la clé. Les physiciens observent de plus en plus d’indices de violations au sein du modèle standard et proposent de nouvelles explications. Les expérimentateurs, mais aussi les théoriciens, essaient aussi de réduire les incertitudes qui existent encore dans les différentes mesures. Il faudra probablement attendre les nouvelles données de l’expérience LHCb et celles de la version améliorée de l’expérience Belle. Les physiciens sont optimistes et pensent que d'ici cinq ans environ, nous saurons si l’effet observé est réel et nous connaîtrons son origine. « S’il existe une nouvelle particule médiatrice », explique Svjetlana Fajfer, une théoricienne de l’université de Ljubljana en Slovénie, « elle devrait avoir une masse à la portée du LHC ». En d’autres termes, l’accélérateur de particules devrait être capable de produire cette particule et de l’identifier. Pour beaucoup de physiciens, la possibilité de tester cette idée est séduisante. « Cela rend la chose très excitante. Si je fais quelque chose, cela pourra être confirmé ou réfuté. Dans un sens comme dans l’autre, l’affaire sera close », conclut Zoltan Lige

 

 

 

 

Voir les commentaires

Partager cet article
Repost0
6 septembre 2017 3 06 /09 /septembre /2017 14:57

L’intrication : conséquence de notre incapacité d’abandonner la théorie classique ?

Le titre de l’article que je propose correspond à une modification du titre de l’article publié le 1e septembre sur le site Phys.Org, ci-joint en original à la fin. En effet originalement : « Entanglement is an enivetable feature of reality. », soit : « L’intrication est une propriété inévitable de la réalité. » A part le fait que les auteurs indiquent clairement que leur référence d’évaluation est la réalité comme si cela ne pouvait pas être un leurre pour les physiciens, je propose d’indiquer ci-après ce qui dans cet article éveille mon intérêt.

« Traditionnellement nous étudions comment le monde classique émerge à partir du monde quantique (c’est couramment juste), mais, dans l’article, nous présentons le renversement de ce raisonnement pour observer comment le monde classique forme (conditionne) le monde quantique. En procédant ainsi nous montrons qu’une de ses propriétés étranges : l’intrication, n’est pas du tout surprenante. Ceci montre que ce qui fait l’étrangeté apparente de la théorie quantique est une conséquence inévitable de penser au-delà de la théorie classique, ou peut-être même une conséquence de notre incapacité à abandonner la théorie classique. »

Il est utile de rappeler que la thèse énoncée : notre incapacité à abandonner la théorie classique, a été dès le début de l’avènement de la mécanique quantique explicitée par N. Bohr (1937), : « Il importe de façon décisive de reconnaître que, d’aussi loin que les phénomènes puissent transcender le domaine de l’explication physique classique, la description de tous les résultats d’expérience doit être exprimée en termes classiques. » Ce point de vue caractérise l’école de Copenhague (Heisenberg, Born, etc…) mais hérisse les réalistes avec Einstein comme chef de fil. Personnellement, j’insisterai sur l’affirmation de Bohr en énonçant : « la description de tous les résultats d’expérience ne peut être exprimée, présentement, qu’en termes classiques. »

Présentement le fait que l’un des auteurs de l’article : Jonathan Richens, émette l’hypothèse qu’après tout nous serions incapables d’abandonner la théorie classique, la conception classique, c’est-à-dire la pensée qui a comme référence encore incontournable du monde classique, me convient très bien. En effet dans l’article du 29/08, j’ai à pas compté proposé d’expliquer pourquoi jusqu’à présent nous ne pouvons pas penser les phénomènes quantiques, notamment l’intrication, autrement qu’en se référant au schéma de la physique classique. A pas compté parce que ma proposition peut être jugée a priori scandaleuse (ce qui est spontanément, de fait, mon cas) puisqu’elle rabat la faculté de la pensée humaine et particulièrement celle du physicien sur des déterminations qui le rende sur le plan intellectuel partiellement aveugle. Même si je prétends que cette détermination sera transcendée : « Non, on ne pense pas quantique. Pas encore ! », voir article du 26/09/2015, cela n’allège pas le poids du rejet d’une telle assertion bien qu’elle s’appuie sur la prise en compte du processus reconnu de l’évolution naturelle par laquelle l’être humain a été façonné.

Dans une certaine mesure, lorsque par un raisonnement tout autre que le mien il y a in fine l’expression d’une hypothèse semblable à la mienne, il est juste de penser que c’est une convergence qui renforce son sens, augmente sa crédibilité. Effectivement si des constats de convergences finissent par s’ajouter à celle-ci le bien-fondé s’amplifiera et finira peut-être par vaincre toutes les formes d’inertie. L’article de Phys.Org intervient quelques jours après le mien, donc l’optimisme n’est pas abusif. Patience donc !

Je rappelle succinctement que la pensée classique qui noue encore le caractère impératif du recours à un espace-temps : fondé par le sujet pensant, et donc non donné dans la nature, donc irréel, pour situer et décrire des phénomènes physiques est une conséquence de notre disposition cérébrale fixée, dans son actuel état, qui en impose encore à notre disposition intellectuelle qui est en perpétuelle développement.

 

 

Entanglement is an inevitable feature of reality

1 September 2017, by Lisa Zyga

 (Phys.org)—Is entanglement really necessary for describing the physical world, or is it possible to have some post-quantum theory without entanglement?

In a new study, physicists have mathematically proved that any theory that has a classical limit—meaning that it can describe our observations of the classical world by recovering classical theory under certain conditions—must contain entanglement. So despite the fact that entanglement goes against classical intuition, entanglement must be an inevitable feature of not only quantum theory but also any non-classical theory, even those that are yet to be developed.

The physicists, Jonathan G. Richens at Imperial College London and University College London, John H. Selby at Imperial College London and the University of Oxford, and Sabri W. Al-Safi at

Nottingham Trent University, have published a paper establishing entanglement as a necessary feature of any non-classical theory in a recent issue of Physical Review Letters.

"Quantum theory has many strange features compared to classical theory," Richens told

Phys.org. "Traditionally we study how the classical world emerges from the quantum, but we set out to reverse this reasoning to see how the classical world shapes the quantum. In doing so we show that one of its strangest features, entanglement, is totally unsurprising. This hints that much of the apparent strangeness of quantum theory is an inevitable consequence of going beyond classical theory, or perhaps even a consequence of our inability to leave classical theory behind."

Although the full proof is very detailed, the main idea behind it is simply that any theory that

describes reality must behave like classical theory in some limit. This requirement seems pretty obvious, but as the physicists show, it imparts strong constraints on the structure of any non-classical theory.

Quantum theory fulfills this requirement of having a classical limit through the process of decoherence. When a quantum system interacts with the outside environment, the system loses its quantum coherence and everything that makes it quantum. So the system becomes classical and behaves as expected by classical theory.

Here, the physicists show that any non-classical theory that recovers classical theory must contain entangled states. To prove this, they assume the opposite: that such a theory does not have entanglement. Then they show that, without entanglement, any theory that recovers classical theory must be classical theory itself (sic)—a contradiction of the original hypothesis that the theory in question is non-classical. This result implies that the assumption that such a theory does not have entanglement is false, which means that any theory of this kind must have entanglement.

This result may be just the beginning of many other related discoveries, since it opens up the possibility that other physical features of quantum theory can be reproduced simply by requiring that the theory has a classical limit. The physicists anticipate that features such as information causality, bit symmetry, and macroscopic locality may all be shown to arise from this single requirement. The results also provide a clearer idea of what any future non-classical, post-quantum theory must look like.

"My future goals would be to see if Bell non-locality can likewise be derived from the existence of a classical limit," Richens said. "It would be interesting if all theories superseding classical

theory must violate local realism. I am also working to see if certain extensions of quantum theory (such as higher order interference) can be ruled out by the existence of a classical limit, or if this limit imparts useful constraints on these 'post-quantum theories.'"

More information: Jonathan G. Richens, John H. Selby, and Sabri W. Al-Safi. "Entanglement is

Necessary for Emergent Classicality in All Physical

Theories." Physical Review Letters. DOI: 10.1103/PhysRevLett.119.080503

© 2017 Phys.org

APA citation: Entanglement is an inevitable feature of reality (2017, September 1) retrieved 2 September

2017 from https://phys.org/news/2017-09-entanglement-inevitable-feature-reality.html

This document is subject to copyright. Apart from any fair dealing for the purpose of private study or research, no

part may be reproduced without the written permission. The content is provided for information purposes only.

 

 

Partager cet article
Repost0
4 septembre 2017 1 04 /09 /septembre /2017 08:02

Au sein de l’Eternité, Espace et Temps se confondent.

 

Il m’est arrivé assez fréquemment de terminer un article en exprimant en quelques phrases quelle était la métaphysique qui guidait ma réflexion dans le cadre d’une physique prospective. Ici dans ce présent article, je l’exprime tout de go, parce que les deux articles de ‘Pour la Science’ de Septembre, que je vais commenter, proposent des arguments en faveur de cette métaphysique qui rend compte de la dynamique de l’investissement intellectuel du ‘Sujet Pensant’ et que je rappelle : « Au sein d’une Eternité, parmi tous les possibles, Anthrôpos ne cesse de creuser sa compréhension de la physique de l’univers. Cette compréhension est sans fin car, concomitamment, à chaque étape du dévoilement de la nature de l’univers, Anthrôpos développe des nouvelles capacités de décryptement. Cette dynamique ne peut se tarir car rejoindre l’Eternité : là où l’espace et le temps infinis se confondent, ne peut être pour Anthrôpos qu’un horizon. »

Dans le premier article en question : ‘Le multivers quantique’, page 26, on peut lire en introduction : « LA COSMOLOGIE LAISSE PENSER QUE NOTRE UNIVERS N'EN SERAIT QU'UN PARMI D'INNOMBRABLES AUTRES. ET SI CETTE MULTIPLICITÉ D'UNIVERS COÏNCIDAIT AVEC L’IDÉE DES MONDES MULTIPLES AVANCÉE (par Hugh Everett en 1957) IL Y A DONC SOIXANTE ANS POUR COMPRENDRE LA PHYSIOUE QUANTIOUE ? »

« Pour de nombreux cosmologistes, ce que nous pensons être l'Univers dans son intégralité ne serait qu'une infime partie d'un ensemble bien plus vaste : le multivers. Selon ce scénario, il existerait une multitude d'univers, dont l’un serait celui où nous vivons. Et chacun de ces mondes serait régi par des lois différentes ; ce que nous pensions être les principes fondamentaux de la nature ne serait plus si absolu. Ainsi, les types et propriétés des particules élémentaires et de leurs interactions pourraient varier d'un univers à l'autre. 

L’idée du multivers émerge d'une théorie suggérant que le cosmos primordial a subi une expansion fulgurante, exponentielle. Au cours de cette période d’inflation cosmique, certaines régions de l'espace auraient vu leur expansion rapide prendre fin plus tôt que d'autres, formant ce qu'on appelle des : ‘univers-bulles’, un peu comme des bulles dans un volume d'eau bouillante. Notre univers correspondrait à l'une de ces bulles, au-delà de laquelle il y en aurait une infinité d'autres. »

Avec ma métaphysique, l’Univers que j’évoque, in fine, est un tout infini, parménidien, qui d’ailleurs avait occupé l’esprit d’Einstein pour penser l’invariance dans la loi de la Relativité Générale, alors que : Yasunori Nomura, l’auteur de l’article que je cite, avance l’idée d’infinité d’univers-bulles cloisonnés. Ce que je pense c’est que ce cloisonnement va, au fur et à mesure, se dissiper pour accéder à la sommation de tous ces univers-bulles. Le cloisonnement énoncé est corrélé au cloisonnement de notre capacité actuelle de penser plus en avant les lois de la physique. Cette étape avant-gardiste de Nomura, est encore à son balbutiement, il est même possible qu’elle soit erronée tout au moins partiellement mais ce qui est significatif : c’est de commencer à projeter l’idée que ce que l’on repère comme notre seul univers est étriquée. C’est la fin du principe anthropique. Penser d’autres univers possibles implique de penser : « Et chacun de ces mondes serait régi par des lois différentes ; ce que nous pensions être les principes fondamentaux de la nature ne serait plus si absolu. », que nous avons encore des lois physiques à découvrir. C’est une illustration de la dynamique que je relate avec ma métaphysique (je rappelle que pour moi métaphysique signifie : de la physique en gestation).

Quand Nomura écrit : « Ainsi, les types et propriétés des particules élémentaires et de leurs interactions pourraient varier d'un univers à l'autre. »  Je n’exclus pas, comme je l’ai souvent explicité que le neutrino (voir dès l’article d’introduction du blog) soit une particule qui circule dans notre univers mais qui soit aussi un messager d’au moins un autre univers et à ce titre soit vecteur de propriétés de cette autre.  Lorsque l’on décryptera correctement les propriétés du ou des neutrino(s), du même coup on sera en mesure de penser la fusion de ce que l’on appelle notre univers avec cet autre, qui au moins ne feront plus qu’un.

Ainsi nous atteindrons une illustration de ce que nous dit l’auteur :

« L’idée que notre univers ne représente qu'une petite partie d'une structure beaucoup plus vaste n'est pas aussi bizarre qu'il y paraît. Après tout, à travers l'histoire, les scientifiques ont appris à maintes reprises que le monde ne se résume pas à ce qui en est visible. » Pour dire plus justement, je dirais : ne se résume pas à ce qui est présentement visible, parce que dès qu’une pensée juste est démontrée son objet devient visible d’une façon ou d’une autre, même si la visibilité n’est qu’intellectuelle et rigoureusement cohérente. Et quand le : présentement visible, est atteint, c’est l’au-delà de ce présentement : c’est ce qui reste à venir, qui devient l’instigateur de la perpétuelle quête intellectuelle. Pour l’être humain physicien il y aura toujours un reste… à venir. (Voir article avec D. Buonomano du 19/07)

Dans la suite de l’article, l’auteur propose d’expliquer la nouveauté de son point de vue de physicien par rapport à celui des pères étant à l’origine du Big-Bang et de la théorie de l’inflation : A. Guth, G. Gamow, A. Linde, P. Steinhardt… « Selon la théorie de l’inflation éternelle, il se forme une infinité de bulles d’espace où l’expansion exponentielle a ralenti. Chacune de ces bulles correspond à un univers ayant ses propres conditions initiales et physiques. Et l’un des mondes serait notre univers. Dans un univers éternellement en inflation, tout ce qui peut arriver, arrive ; en fait, tout arrive un nombre infini de fois » … « Plus précisément, (selon l’auteur), le scénario cosmologique d’un univers en éternelle inflation serait mathématiquement équivalent à l’interprétation des « mondes multiples, de la physique quantique (Everett). Cette idée est très spéculative (idée qui s’appuie plus sur une appréciation intuitive que sur de la démonstration), mais, comme nous le verrons, une telle connexion entre les deux théories donne des pistes pour résoudre (sic) le problème des prédictions, mais pourrait aussi révéler des informations surprenantes sur l’espace et le temps (sic)».

La suite est en grande partie consacrée à démontrer l’équivalence mathématique des deux théories. Je vous recommande évidemment de l’étudier dans la revue même.

Je reprends à partir de la page 34, là où il exprime son essentielle conviction : « Le multivers et les mondes multiples quantiques sont en réalité une seule et même chose ; ils correspondent simplement au même phénomène (la superposition d’états) qui se produit à des échelles complètement différentes. »

Ensuite, l’auteur indique quels sont les pistes qui permettraient de tester les conclusions de sa conviction. La mesure d’une petite quantité de courbure négative dans notre univers, serait selon lui une belle signature ou bien les vestiges d’une « collision » de notre univers-bulle avec un autre (souvenons-nous de l’énigme de la tache obscur dans le rayonnement fossile).

A propos du temps il conjecture : « Le temps est un concept émergent, quelque chose qui surgit d’une réalité plus fondamentale et qui semble n’exister que dans les branches locales du multivers. » Cette assomption me convient car la réalité plus fondamentale qu’il faut prendre en compte dans notre univers c’est l’émergence d’une intelligence. (voir mes articles précédents).

En conclusion Y. Nomura écrit : « Beaucoup des idées que je viens de présenter sont encore très spéculatives, mais il est passionnant que les physiciens soient en mesure de réfléchir à ces grandes et profondes questions sur la base des avancées théoriques actuelles. Où ces explorations nous mèneront-elles ? Il semble clair en tout cas que nous vivons une ère exaltante dans laquelle nos explorations scientifiques vont au-delà de ce que nous pensions être le monde physique entier – notre univers - pour atteindre un domaine potentiellement sans limites au-delà. » (D’accord avec Nomura, à condition de considérer que ce domaine potentiellement sans limites au-delà est pour nous, selon ma métaphysique, un horizon dont on peut s’approcher sans jamais l’atteindre, puisque c’est la condition de la mobilité permanente de notre pensée.)

A ce propos, puisqu’avant tout, avec ma métaphysique, nous sommes au sein d’une Eternité, effectivement il n’y pas de Big-Bang et j’ai toujours indiqué que celui-ci avait une fonction utilitaire mais pas plus. En effet l’anthrôpos a toujours besoin de poser sa pensée sur une origine qui ne peut être que provisoire, jusqu’à ce que le développement de sa pensée lui permette d’éliminer l’ancienne par une nouvelle qui annonce une nouvelle cosmogonie.

Il y a peu, le 15 août un article a été publié : ‘Loop quantum cosmology and singularities’ : ‘Cosmologie quantique à boucle et singularités’, in ‘Scientific Reports 7, Article number : 8161 (2017)’ et dans cet article très exhaustif il est affirmé que la théorie en question ne fait pas apparaître de Big-Bang ni de Big Crunch d’ailleurs, ces deux singularités ne sont pas nécessaires pour que la théorie soit cohérente. C’est la première fois que je lis un tel article et c’est un signe. De fait, de part en part, la fragilisation du modèle standard de la cosmologie est engagée depuis quelques années. Le 21 juin, il y avait un article qui avait pour titre : ‘Big Bang : le modèle de Hartle-Hawking est-il faux ?’ dans Futura science. Mais précédemment le 15 juin, un article explicite annonçait : ‘No Universe without Big Bang’ in Physical Review D (2017). DOI: 10.1103/PhysRevD.95.103508. Ce mouvement de balancement théorique va continuer à se produire jusqu’à ce que des mesures probantes finissent par stabiliser le curseur sur une configuration d’univers qui englobera le soi-disant nôtre exclusif actuel dans un monde plus vaste et plus riche en propriétés.

Le deuxième article que je veux citer dans le même N° de ‘Pour la Science’ a pour titre : ’L’inflation cosmologique reste le scénario le plus satisfaisant.’

Ci-joint une citation d’une partie de l’interview qui dit beaucoup sur la fragilité de ce scénario. Cette fragilité m’autorise à penser que ma métaphysique est tout autant légitime et fertile que la théorie de l’inflation.

Pourquoi certains physiciens sont-ils pessimistes quant à la possibilité de tester l'inflation ?

Certains considèrent que l'inflation est une idée impossible à tester par les observations, ce qui est un critère essentiel pour une théorie scientifique. Ils ajoutent que la diversité des scénarios inflationnaires et leur flexibilité face aux contraintes empêchent le paradigme inflationnaire d'être réfutable.

Une polémique à ce sujet est récemment née d'un article paru dans Scientific American et cosigné par Paul Steinhardt. Ce chercheur de l’université de Princeton est l'un des pères de la théorie de l’inflation, mais il se montre aujourd'hui très critique. Il est sain que des scientifiques mettent le doigt sur des difficultés que les autres n'ont pas vues, cela fait partie du processus normal de la recherche. C'est en essayant de répondre à ce genre de critiques que l'on améliore une théorie ou, au contraire, que l'on se rend compte qu'elle n'est pas satisfaisante. Un article virulent de Paul Steinhardt a été mal accueilli par la communauté et une trentaine de scientifiques lui ont répondu dans une lettre ouverte. Les critiques de Paul Steinhardt sont multiples ; il évoque notamment la non-testabilité de l'inflation et le problème de l'inflation éternelle.

De quoi s'agit-il ?

L’inflation éternelle est l'idée que si un champ scalaire provoque l'inflation, cette phase d'expansion ne peut pas prendre fin, parce qu'elle est alimentée par des fluctuations quantiques. Cela avait été découvert en 1983 par Paul Steinhardt et d'autres. L’expansion exponentielle ne s'interromprait que dans des régions limitées, où se formeraient des univers analogues au nôtre. Ces bulles forment un multivers. Le problème, pour Paul Steinhardt, c'est qu'à chaque « univers-bulle » correspondront des conditions initiales arbitraires, puisque les fluctuations ayant conduit à la formation de cet univers-bulle sont aléatoires. Il est alors impossible de prédire les propriétés de notre propre univers. C'est un cadre qui se prête à de nombreuses réflexions théoriques. Par exemple, Yasunori Nomura utilise cette idée d'inflation éternelle et de multivers pour dresser un parallèle avec l’interprétation de la mécanique quantique proposée par Hugh Everett en 1957 (voir l’article : page 26 à 34). La plupart des cosmologistes pensent que la question de l'inflation éternelle est probablement importante sur le plan conceptuel, mais que ses conséquences pratiques sont limitées. C'est peut-être une erreur, mais au quotidien, on n'utilise pas cette notion d'inflation éternelle lorsqu'on cherche à résoudre les problèmes de l'inflation dans notre univers.

Le problème du réchauffement, par exemple ?

Oui, mais pas seulement. J'ai récemment publié un article qui, je pense, sera important pour étudier des scénarios inflationnaires réalistes. Jusqu'à présent, nous nous sommes uniquement concentrés sur la forme du potentiel. Mais j'ai montré que nous avons omis une autre propriété importante. Dans une théorie à plusieurs champs scalaires, la dynamique de ces derniers est soumise à la géométrie de l'espace interne dans lequel vivent ces champs et ne dépend donc pas uniquement du potentiel. L’une des conséquences de ce nouveau facteur

est que l’inflation peut s'interrompre de façon prématurée. Pour chaque modèle donné, les limites de compatibilité des données observationnelles sont alors modifiées. On le voit, il y a encore beaucoup de chemin à faire pour comprendre vraiment l’inflation.

Existe-t-il des alternatives à l'idée d'inflation ?

Il y en a quelques-unes. Je n'en suis pas spécialiste, mais le consensus scientifique est qu'elles présentent toutes des problèmes plus importants que l’inflation. L’univers avec rebond, par exemple, décrit un univers qui se contracte puis repart en expansion. L’idée est séduisante dans la mesure où elle évite la singularité initiale du Big Bang. Selon Paul Steinhardt, ce modèle ne présente pas certains problèmes de conditions initiales de l’inflation. Mais aucune théorie physique ne permet à l'heure actuelle de réaliser de manière satisfaisante un tel rebond.

L’inflation cosmique reste aujourd'hui le scénario le plus satisfaisant sur les plans théorique et observationnel. Mais les physiciens adorent les surprises et guettent la nouvelle idée qui fera progresser notre compréhension du monde - même si elle doit détrôner l'inflation !

Propos recueillis par Sean Bailly

Partager cet article
Repost0
29 août 2017 2 29 /08 /août /2017 10:34

Comment les humains interagissent avec la Nature ? Comment nous questionnons la Nature ?

Ces interrogations, je les ai lues dans un article de N. Gisin et à l’instant de leurs lectures je me suis intéressé à la suite que l’auteur allait accorder à ce territoire interrogatif qu’il envisageait d’explorer. Après deux années, j’ai eu confirmation qu’il n’irait pas au-delà d’une ouverture interrogative. Cette situation me rappelle celle constatée à la lecture du livre de L. Smolin : « La Renaissance du Temps ; Pour en finir avec la crise de la Physique. », (programme ambitieux, légitime, nécessaire et selon moi particulièrement prioritaire), qui réalise une analyse de très grande qualité de la loi de la relativité générale conduisant à la mise en évidence de l’univers bloc bornant l’intelligence humaine dans un univers bloc totalement déterminé, et donc soustrayant la moindre faculté fondatrice à cette intelligence qui n’aurait effectivement aucun horizon par lequel elle pourrait mettre à l’épreuve sa faculté d’exercer un libre arbitre arc-en-ciel. Enfin Smolin formule un diagnostic crucial : « Mais l’univers réel a des propriétés qui ne sont pas représentables par un quelconque objet mathématique. L’une de celles-ci est qu’il y a toujours un moment présent… » (voir article du 2/05/2013). Depuis, plus une pensée publiée sur ce sujet, dommage qu’il soit resté sur le seuil d’un tel chantier que j’ai considéré comme très prometteur et à mon sens l’est encore. Pourtant dans son livre vacille une petite lumière qui ne me laisse pas indifférent : les lois de la physique pourraient évoluer, à la manière des lois de l’évolution en biologie. Petite lumière à laquelle je prête la clarté suivante : les possibilités de découvertes des lois de la physique évoluent concomitamment avec les lois de l’évolution qui concernent l’être humain depuis son émergence.

Je ne veux pas appesantir cet article avec trop d’interrogations mais on peut se demander pourquoi il y a des flashs d’idées percutantes mais sans germinations. Les deux auteurs que je cite ont accumulé suffisamment de pratiques réflexives et d’obstacles au cours de leur carrière pour, en relevant leur regard prospectif, intuiter valablement les défaillances des corpus théoriques en question. Ils ont aussi intuité l’aspect trop étriqué, prétendument autosuffisant, des critères et postulats qui prévalent au raisonnement en science physique. Malgré cela une sorte de ‘surmoi’ (il serait celui de la communauté scientifique) interdit de franchir le Rubicon. En effet, les grands ancêtres : Galilée, Descartes, Newton, ont verrouillé et jeté les clefs de l’enclos qui délimite ce qui est propre à la pensée en physique.

            C’est le thème, que mettent en relief les questions en titre de cet article, que je reprends ci-dessous. Reprise parce que ce thème est déjà en partie développé dans ses balbutiements par les articles précédents récents. Comme toute nouveauté, surtout de cette nature, il faut revenir plusieurs fois sur le chantier de son élaboration, quitte à ce qu’au cours de son développement il faille rebrousser chemin, si des incohérences, des incongruités finissent par s’imposer. J’espère que la réflexion que je vous propose ne se fait pas trop fastidieuse car vous avez remarqué, je suis convaincu qu’il est nécessaire d’emprunter de nouveaux chemins d’investigations car les physiciens sont depuis de très (trop) nombreuses années face à des impasses, c’est-à-dire dire confrontés à des phénomènes qu’ils ne peuvent expliquer. Ce chemin que je vous propose ci-après, est tout nouveau pour moi et je n’ai pas encore rencontré une prospection réalisée avant que j’en ai l’intuition (elle existe peut-être) si ce n’est que c’est la lecture du livre de D. Buonomano qui a contribué à fournir les éléments déclencheurs.

Donc les interrogations de N. Gisin, je les reprends mais j’y ajoute : quels sont les dispositions actuelles de l’être humain pour questionner la Nature ?

Selon mon point de vue, elles seraient double :

  1.      Dispositions cérébrales ;
  2.      Dispositions intellectuelles.

Les dispositions cérébrales sont celles qui sont établies grâce à un câblage empirique, établi, de nos neurones, correspondant et révélant l’histoire de notre évolution en tant qu’être humain.

Les dispositions intellectuelles sont celles qui permettent un dépassement des dispositions cérébrales, (actuellement façonnées lesquelles s’activent naturellement), et qui établissent et établiront des nouveaux câblages parce que notre évolution est toujours en cours. Voir article du 20/06/2017, page 3 : « L’évolution ne s’arrête pas, nous évoluons encore et toute la différence, entre les premiers sapiens et nous, tient probablement dans l’organisation interne du cerveau, sa connectivité. Malheureusement… »

On peut considérer que les dispositions cérébrales reflètent l’évolution du genre humain qui a été générée par la confrontation aux lois de la nature qui valent à l’échelle classique : confrontation pour la survie. Echelle classique : échelle de la sensibilité de nos sens, nos instruments de perception, naturels Grâce aux dispositions intellectuelles, qui se développent et ne cessent de s’amplifier, s’acquière la faculté de dépassement de cette confrontation à l’échelle classique et le regard intelligent au-delà et en deçà de cette échelle (grâce à la conception matérielle d’instruments de perception dans une gamme de plus en plus riche) constitue actuellement le challenge des physiciens fondamentalistes.

Dans une certaine mesure les conséquences de la confrontation à l’échelle classique sont toujours extrêmement prégnantes, puisqu’elles s’inscrivent sur une très longue période (pas moins de 2 millions d’années) et en conséquence les dispositions cérébrales sont encore la référence (la grille d’interprétation) pour l’être humain donc pour les physiciens. Il en résulte que l’ensemble des dispositions cérébrales constitue un facteur d’inertie intellectuelle qui est en cours de réduction mais pas encore dépassée malgré un siècle de pratique de la mécanique quantique. Toujours présentement, je prête donc aux physiciens le rôle d’avant-garde, de précurseurs, d’acteurs de ce qui conduira à de nouvelles dispositions cérébrales. Les données et les phénomènes obtenus avec la conquête intellectuelle en cours du corpus de la mécanique quantique sont toujours interprétés, décryptés à l’aune des dispositions cérébrales pas encore dépassées. C’est pourquoi pour l’essentiel nous sommes confrontées aux ‘bizarreries’ de la mécanique quantique qui révèlent des frictions entre l’inertie cérébrale et la capacité d’avancée de l’intellectuelle. A l’évidence, il y a encore des sauts conceptuels à effectuer pour que ce que nous nommons bizarreries (voir article du 05/08), terme qui reflètent notre inintelligibilité actuelle, perde ce statut et que des propriétés intelligibles rendent compte des lois qui prévalent dans l’interaction Homme-Nature à l’échelle correspondante.

Il me faut expliquer pourquoi je prête aux physiciens fondamentalistes le rôle d’avant-garde aux conquêtes intellectuelles qui provoqueront les nouvelles dispositions cérébrales. A mon sens le souverainisme des lois de la physique dans cette affaire est encore prépondérant. Il suffit de reprendre l’arborescence chronologique de la diffusion des concepts quantiques dans les autres sciences de la nature pour s’en rendre compte. Jusqu’au point, et d’une façon hasardeuse, ceux-ci furent aussi testés dans les sciences humaines.

Cette prépondérance des concepts de la physique diminuera dans l’avenir parce que l’être humain dépendra de moins en moins d’une confrontation aussi univoque avec la Nature. Son émancipation en se développant avec son évolution en devenir l’amènera à bâtir de nouveaux savoirs sur la base de ce qu’il librement voudra dépasser, du point de vue de son Être en tant que tel, devenant ainsi de plus en plus autonome vis-à-vis de son Être de la Nature dont il est originaire.

Comme vous pouvez le constater à ce moment de la fin de la lecture : tous les arguments exploités ont été exposés dans les articles précédents mais en les assemblant d’une façon nouvelle et toujours logique (à mon sens), j’ai pu expliciter le concept d’inertie cérébrale et le mettre en rapport avec celui de ‘Bizarreries’ de la mécanique quantique et aussi donner plus de sens à l’article intuitif et précurseur du 26/09/2015 : ‘Non, on ne pense pas quantique. Pas encore !

Si ma proposition de considérer effectivement : dispositions cérébrales distinctes de dispositions intellectuelles, s’avérait pertinente, alors nous aurions débusqué un authentique nouveau paradigme qui par ricochet révélerait un nouveau paradigme en physique qui nous rendrait complètement intelligible les lois propres à la mécanique quantique.

Il ne peut pas nous échapper que nous serions alors témoin d’un renversement de situation puisque jusqu’à présent ce sont les découvertes des lois de la physique qui ont fait évoluer l’intelligence de l’être humain, ici ce serait la découverte des lois de l’évolution de l’intelligence humaine qui permettrait enfin de découvrir des nouvelles lois de la physique.

Partager cet article
Repost0
18 août 2017 5 18 /08 /août /2017 08:51

Présentation d’une expérience qui pourrait annuler mon hypothèse si…

Si… on considère qu’elle est exhaustive et si on considère qu’elle s’engage sur des préalables corrects d’interprétation de la mécanique quantique. Cet article date du 11/08, sur le site de phys.org, je vous en propose une traduction pour l’essentiel, ensuite un commentaire et puis finalement la version originale (sans la figure illustrative, malheureusement car impossible).

C’est une expérience relative à l’observation de franges d’interférences de particules de matière massives observables lorsqu’elles sont soumises à traverser des fentes du type appareil d’Young mais ici l’appareil (le masque) est modifié comprenant, une, deux, trois fentes à des niveaux distincts.  

« En mécanique quantique les particules peuvent se comporter comme des ondes (sic) et prendre plusieurs chemins dans une expérience. Cela requière simplement des combinaisons de paires de chemins, plutôt que trois ou plus, pour déterminer la probabilité pour une particule d’arriver quelque part. Les chercheurs de l’université de Vienne et Tel Aviv ont interrogé ce problème explicitement en utilisant les interférences d’ondes de molécules derrière une combinaison de simple, double, et triple fentes (dessinées sur un même support matériel à des niveaux distincts)

La mécanique quantique décrit comment la matière se comporte sur des échelles les plus petites du point de vue de la masse et de la longueur d’onde. Toutefois, l’absence de phénomènes quantiques dans notre vie quotidienne a provoqué une recherche des modifications minimales de la mécanique quantique, qui seraient seulement perceptibles pour les particules massives. Une piste est de rechercher l’ainsi nommé : plus haut ordre d’interférence. En mécanique quantique standard, le motif d’interférence résultant d’un nombre arbitraire de chemins ouverts non interagissant peut toujours être décrit par toutes les combinaisons des paires de chemins.

Tout autre motif restant serait dû à des ordres plus élevés d’interférences et serait indicateur éventuel d’une nouvelle physique.

Tandis que cette règle a été testé précédemment avec de la lumière et du rayonnement micro-onde, les chercheurs à l’université de Vienne et de Tel Aviv ont maintenant lancé pour la première fois une expérience dédiée avec des molécules massives. « L’idée est connue depuis plus de 20 ans. Mais c’est seulement maintenant que nous disposons des moyens technologiques pour réunir ensemble tous les composants et construire une expérience capable de réaliser le test avec des particules massives. »

Diffraction d’une onde de matière avec de fentes multiples.

Dans leurs expériences, les chercheurs de Vienne préparent des molécules organiques complexes en tant qu’ondes de matière (sic). Ce but est atteint en évaporant ces molécules à partir d’un point de diffusion de l’ordre du micron et ensuite laisser évoluer celles-ci librement pendant un instant. A la suite de cet instant chacune des molécules délocalisées, se répartissent dans différents endroits immédiatement. Ceci signifie que lorsque chaque molécule rencontre le masque contenant les multiples fentes, elle peut traverser plusieurs fentes en parallèle. En comparant avec précaution la position des molécules arrivant sur le détecteur après une combinaison de simple, double, triple, fentes, les chercheurs étaient capables d’attribuer des limites correspondantes à chacun des chemins multiples empruntés.

La nano-fabrication favorisant cette technologie… »

Commentaire : L’apriorisme du dualisme onde/particule est une interprétation qui conditionne complètement la conception et le traitement des résultats obtenus. En effet, il est abusif de considérer que « En mécanique quantique les particules peuvent se comporter comme des ondes (sic) », car l’apparaître comme une onde n’est pour nous qu’une interprétation pour expliquer le résultat final de l’expérience. En aucun cas on observe le caractère ondulatoire avant l’expérience d’observation qui permettrait de constater un comportement ondulatoire réel d’une particule. Ici on est dans un schéma explicatif qui considère que la situation est : onde et particule, cela est un abus, un parti pris, un apriori qui n’a toujours pas de justification. Quant à l’interprétation que je privilégie c’est celle de : onde ou particule… c’est selon, le type d’appareil d’observation que l’on utilise et les modalités de la réalisation de l’expérience. Ainsi, l’expérience indiqué ci-dessus laisserait voir des impacts ponctuels sur le détecteur dès que l’observateur aurait l’information (par des moyens appropriés couramment utilisés) à propos de par laquelle des fentes chaque particule de matière serait passée, c’est-à-dire que l’observateur dispose de l’information spatio-temporelle du chemin suivi (résultat historiquement bien connu et reproductible). On voit, là, que le processus de l’observation conditionne le résultat final de l’expérience.

Je serais très intéressé que cette expérience soit aussi effectuée avec le protocole de mon projet d’expérience tel que je l’ai décrit dans l’article du 06/08/ : ‘Appel d’Offres’ comprenant les trois catégories d’observateurs équipés d’un dispositif de détection d’images cérébrales. Les cas a) et b) sont très concrètement réalisables dans le cas de figure exposé par les chercheurs de Vienne et permettront de produire des conditions d’observations qui seront interprétables d’une façon nette.

 

Texte original :

« Massive particles test standard quantum theory 11 August 2017

Comparing the diffraction patterns behind a combination of precisely written slits allows testing quantum mechanics with complex molecules. Credit: Group for Quantum Nanophysics, Faculty of Physics, University of Vienna; Image-Design: Christian Knobloch

In quantum mechanics particles can behave as waves and take many paths through an experiment. It requires only combinations of pairs of paths, rather (plutôt) than three or more, to determine the probability for a particle to arrive somewhere. Researchers at the universities of Vienna and Tel Aviv have addressed this question for the first time explicitly using the wave interference of large molecules behind various combinations of single, double, and triple slits.

Quantum mechanics describes how matter behaves on the smallest mass and length scales. However, the absence of quantum phenomena in our daily lives has triggered a search for minimal modifications of quantum mechanics, which might only be noticeable for massive particles. One candidate is to search for so-called higher-order interference. In standard quantum mechanics, the interference pattern resulting from an arbitrary number of non-interacting open paths can always be described by all combinations of pairs of paths.

Any remaining pattern would be due to higher-order interference and be a possible indicator for new physics.

While this rule has been tested before with light and microwave radiation, researchers at the Universities of Vienna and Tel Aviv have now run for the first time a dedicated experiment with massive molecules. "The idea has been known for more than twenty years. But only now do we have the technological means to bring all the components together and build an experiment capable of testing it with massive molecules," says Christian Brand, one of the authors of the study.

Multi-slit matter wave diffraction

In their experiments at the University of Vienna, researchers of the Quantum Nanophysics Group headed by Markus Arndt prepared complex organic molecules as matter waves. This was achieved by evaporating them from a micron-sized spot in high vacuum and letting them evolve freely for some time. After a while, each molecule delocalized, spreading across many places at once. This means that when each molecule encounters a mask containing multiple slits, it can traverse many of the slits in parallel. By carefully comparing the position of molecules arriving at the detector behind a combination of single-, double- and triple slits they were able to place bounds on any multipath contribution.

Nanofabrication enabling technology

A crucial component of the experiment is the mask - an ultra-thin membrane into which arrays of single-, double- and triple-slits were fabricated. It was designed and fabricated by Yigal Lilach and Ori Cheshnovsky at Tel Aviv University. They had to engineer a diffraction mask, where the maximum deviation in the slit dimensions was not much larger than the size of the molecules it was diffracting. The mask was integrated in the Vienna laboratory.

and the researchers studied a broad range of molecular velocities in the same experimental run. For all of them, the scientists found the interference pattern to follow the expectations of standard quantum mechanics with an upper bound in the deviation of less than one particle in a hundred. "This is the first time an explicit test of this kind has been conducted with massive particles", says Joseph Cotter, the first author of this publication. "Previous tests have pushed the frontiers with single photons and microwaves. In our experiment, we put bounds on higher-order interference of massive objects."

The study is published in Science Advances.”

 

Partager cet article
Repost0
15 août 2017 2 15 /08 /août /2017 08:00

Disposition ou Dispositions ?

En relisant l’article précédent du 05/08, j’ai réalisé qu’une logique implicite avait fini par pointer dans celui-ci alors qu’à aucun moment dans ma réflexion je ne l’avais anticipée. Cette logique laisserait entendre qu’il y aurait chez l’être humain deux dispositions, l’une serait cérébrale et l’autre serait intellectuelle. Attention ! j’ai conscience que lorsque l’on aborde ce type de sujet il faut être précautionneux car il est facile de déraper d’autant que ce que l’on pourrait appeler la science du cerveau est une science native.

            La disposition cérébrale serait une disposition réflexive, déductive, naturelle et spontanée puisque le cerveau est prédisposé à engendrer cette réflexion-déduction à cause d’un apprentissage très antérieur dans le temps. Cette prédisposition s’expliquerait par le fait que l’organisation neuronale est déjà établie (câblée) et elle est permanente. C’est ce que D. Buonomano suggère lorsque parlant de l’instinct, dans toutes ses formes, des animaux, il évoque les ‘instincts câblés’. Je cite : « La plupart des exemples de planifications apparentes de long terme chez les animaux, semblent actuellement être des instincts câblés[1]. » (Penser à l’exemple de l’écureuil qui instinctivement stocke des noisettes pour se nourrir l’hiver)

            Les câblages acquis et qui perdurent sont le fruit de l’évolution. Je vais une fois de plus me référer à D. Buonomano pour justifier mon propos : « La vérité est, bien que les humains soient bien meilleurs pour la planification à long-terme que tous les autres animaux, nous ne sommes pas particulièrement bon pour ceci. Ceci ne doit pas être une surprise. Le cerveau humain est le produit d’un processus de l’évolution qui s’est développé depuis des centaines de millions d’années (sic). Donc la plupart de notre bagage neuronal provient des animaux qui vivait, sur le plan cognitif, dans le présent immédiat. En conséquence, en tant qu’espèce, nous humains continuons d’apprendre pour perfectionner nos nouvelles compétences[2] »

La disposition intellectuelle est celle qui est à l’œuvre (nous humains, nous continuons d’apprendre) au cours de l’existence propre de chacun d’entre nous, dès le début de celle-ci. La disposition intellectuelle est corrélée à l’étude, à l’apprentissage récent ou en cours qui peut se développer aussi profondément que le peut une génération, celle-ci bénéficiant des acquis de la précédente. La disposition intellectuelle peut évidemment conduire à une émancipation à l’égard de la détermination correspondant à la disposition purement cérébrale installée. Ainsi quand je considère nous ne pensons pas quantique, pas encore, voir article du 26/09/2015, je signifie que notre rapport historique avec la Nature à l’échelle classique a provoqué un câblage cérébral qui s’impose toujours en premier lieu et un dépassement est nécessaire pour accéder à une pensée quantique sans artefact (s) : ce qui n’est pas encore le cas.

Notre pensée à l’égard de phénomènes à l’échelle quantique ne peut se développer qu’en réinitialisant sans cesse celle-ci et à chaque fois sur la base des postulats fondamentaux appris qui dictent ce qui est franchement en rupture avec la mécanique classique. Penser, justement, naturellement, quantique sera possible lorsque à force de sa pratique une organisation neuronale appropriée se mettra en place à demeure et pourra se transmettre génétiquement. Je fais l’hypothèse que cette mise en place à demeure se cristallisera lorsque de plus on mettra en évidence un ou des paradigmes de ruptures valant tout autant pour la mécanique classique que la mécanique quantique, notamment à propos de l’espace-temps et de sa source.

Dans l’expérience que je propose (voir article précédent), je souhaite pouvoir tester cette hypothèse, je le pense avec insistance en prenant aussi en compte les résultats éloquents d’autres expériences citées déjà dans l’article précédent qui révèle que « le cerveau fait plus confiance à sa propre information inventée qu’à ce qu’il voit à l’extérieur dans le monde. » Ainsi, les personnes non formées à la physique ne peuvent rien inventer[3], lorsqu’ils n’ont plus d’information spatio-temporelle de la trajectoire de l’objet quantique dans l’interféromètre. Par contre les personnes formées à la mécanique quantique[4] ont intellectuellement intégré les outils, les schémas, pour que leur cerveau conçoive une image relative à la dispersion spatio-temporelle. Ces personnes transcendent le câblage établi du repérage spatio-temporel du déplacement dans la nature immédiate de l’individu (qui ici est le correspondant de l’objet classique), établi depuis au moins 2 millions d’années. C’est-à-dire à une époque où une conscience de soi s’établit. Ce câblage est typiquement d’essence humaine. Il en résulte, selon mon hypothèse, que l’espace-temps n’est pas donné dans la Nature. Si les résultats a) et b) sont ce que je prévois, mon hypothèse sera valide, sinon elle sera invalidée.

Une disposition cérébrale serait donc une disposition qui serait acquise du point de vue des réseaux des connexions neuronales, cela constitue une potentialité et on naît avec, globalement, elle correspond à l’état de notre évolution pour l’époque considérée (évidemment, il y a à nuancer suivant les cultures, les patrimoines génétiques, etc…) C’est un héritage.  

Une disposition intellectuelle serait une disposition qui serait une aptitude à transcender ce qui s’imposerait du point de vue de la disposition cérébrale. Une disposition intellectuelle qui cogiterait pertinemment conduirait à un nouveau câblage et à une disposition cérébrale actualisée. Dans le cas de la physique une disposition intellectuelle pertinente est celle qui prédit des résultats expérimentalement vérifiés et expliqués, et qui élucide les postulats qui ont prévalus à l’origine. Ce n’est pas encore le cas des cogitations à propos de la mécanique quantique car nous sommes toujours obligés d’accepter les postulats de l’Ecole de Copenhague, sans jusqu’à présent comprendre pour autant, quels sont leurs fondements, d’où proviennent naturellement (dans la Nature) ces postulats[5]. Et puis ce n’est pas par hasard ni par habitude que sans cesse l’on évoque : l’étrangeté des propriétés quantiques, des actions fantômes, etc…

Nos capacités intellectuelles sont encore essentiellement celles qui ont comme support les capacités cérébrales qui ont été façonnées par notre confrontation aux conséquences des lois de la nature qui prévalent à l’échelle classique, parce que la principale finalité était la survie humaine physique. Ce façonnement a permis à l’humanité de passer du statut de Chasseur-Cueilleur au statut de Producteur-Créateur-Scrutateur de ressources de plus en plus conscient, c’est-à-dire prévoyant. De l’enjeu de la survie à l’échelle classique on a transité (on transite) vers l’expansion aux échelles qui se situent de part et d’autre. De plus, il y a un engendrement de dispositions intellectuelles qui s’autonomisent. C’est-à-dire dans mon schéma l’Être dans la Nature réduit sa dépendance de l’Être de la Nature.

Pour terminer cet article, je cite P. Picq, dans ‘Dossier pour la Science’ de juillet-septembre 2016, « Le roman des intelligences », page 8 : « La première coévolution concerne tous les organismes vivants et leurs interactions. La deuxième se met en place avec les premiers hommes (Homo erectus) avec des innovations techniques et culturelles, comme la cuisson et la taille des outils, qui modifient et sélectionnent nos organismes, des gènes aux capacités cognitives. La troisième se manifeste depuis le début du XXIe siècle avec l’impact des NBIC (nanotechnologies, biologie naturelle et de synthèse, sciences informatiques et cognitives)

Mais contrairement aux sirènes du transhumanisme qui postulent que l’évolution est arrivée à son terme et que nos technologies doivent prendre le relais, il faut penser notre avenir en fonction des interactions de ces trois coévolutions (sic) ; l’émergence, en quelque sorte, d’une nouvelle intelligence… Notre humanité doit se remettre en marche. Notre cervelet possède 70 milliards de neurones connectés à l’ensemble de notre corps et de notre cerveau et des études récentes montrent que la marche et tout particulièrement dans un bout de nature, augmente notre créativité de 60% ; et c’est encore mieux avec les autres. »

Tout ce qui est écrit dans cet article a à voir, selon mon point de vue, avec le sujet relatif à comment pourrons-nous penser quantique et de quelle façon cela va advenir ? Quelles en seront les conséquences ?

Descartes affirmait que de l’arbre de la connaissance, le tronc représentait : la science physique, toutes les autres sciences étaient des ramifications qui s’y rattachaient. Connaître les sciences relatives à ses ramifications permet aussi réciproquement de mieux analyser la sève centrale qui irrigue le tronc et amplifie la vigueur de l’arbre. Pour cette raison, il est vivement souhaitable que les physiciens enrichissent le domaine de leurs propres investigations des domaines qui prospectent et expliquent cette histoire et cette dynamique. Par exemple ainsi procèdent les paléoanthropologues qui intègrent maintenant, la biologie, la génétique et les neurosciences dans leur corpus d’analyse prospective. D’où mon projet d’un manifeste qui conduirait les physiciens à solliciter et provoquer un rapprochement semblable entre différents corpus.   

Je viens de découvrir qu’un livre vient d’être publié (le 07/08) aux E.U. : « Life through time and space. », « La vie à travers le temps et l’espace. » En résumé : “The origins of intelligent life: How did life, and eventually intelligent life, come into existence on Earth?” Je n’ai pas encore pu l’acquérir, dès que ce sera possible, s’il présente de l’intérêt, pour notre propos, j’en parlerais. Déjà on remarque que c’est dans le cadre de l’espace-temps que l’auteur tente de rendre compte de l’émergence de la vie intelligente. Comme s’il ne pouvait y avoir d’intelligence qui ne soit sertie dans l’espace-temps, en tous les cas à propos de celle dont nous pouvons développer un discours. Ce qui laisse possible toutes les autres formes d’intelligence mais pour nous indicible parce que hors ce cadre. Selon l’auteur si l’espace-temps est d’une nature intelligente, pour le moins concomitante avec l’émergence de l’intelligence, on comprend la difficulté des physiciens pour résoudre l’aporie spatio-temporelle, qui veulent la traiter dans le cadre de la matière inerte.  Par contre cela donnerait tout son poids à ma conception : « Je dirais que l’espace-temps est un concept qui a émergé quand une première intelligence a créé le besoin de ce concept pour se situer sur la planète Terre de façon non instinctive. » Voir article précédent du 05/08.

 

           

 

[1] Page 199 : « Most examples of apparent long-term planning in animals actually seem to be hardwired instincts. »

[2] Page 206 : “The truth is that even though humans are far better a long-term planning than all other animals, we are not particularly good at it. This should not come as a surprise. The human brain is the product of an evolutionary process that unfolded over hundreds of millions of years (sic). So, most of our neural baggage comes from animals that lived, cognitively speaking, in the immediate present. Consequently, as a species, humans are still learning to perfect our newly acquired skills…”

[3] Elles sont déterminées par leur cortex entorhinal, sans échappatoire.

[4] Le cortex préfrontal et/ou temporal actif(s) grâce a un processus d’apprentissage. 

[5] N. Bohr et Heisenberg ont toujours indiqué que le savoir (les résultats des mesures) que nous obtenons sur les objets quantiques, est uniquement un savoir relatif à l’échelle de nos capacités humaines. C’est un savoir transposé, interprété, adapté pour qu’il soit humainement transmissible.

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens