Overblog
Suivre ce blog Administration + Créer mon blog
9 mai 2018 3 09 /05 /mai /2018 13:08

Le presque dernier article de S. Hawking : mettant une fin au début de l’univers.

            Ceci est le titre d’un article publié dans la revue ‘Science’, constitué d’une interview par A. Cho de Thomas Hertog cosignataire avec S. Hawking de l’article qui théorise le début de la fin du Big Bang de l’univers. Dans le présent article je propose une traduction de l’interview, avec une copie de l’original en Anglais en fin d’article. La seule chose que je peux ajouter présentement c’est que cela fait longtemps que je considère qu’il faut dépasser cette histoire de Big Bang (voir, entre autres, articles : ‘Pour un authentique Big bang’ du 26/08/2014 ; ‘Big bang et au-delà’ du 13/02/2016 ; ‘Quid du Big Bang ?’ du 27/06/2017) et donc je suis satisfait de cette publication qui ne peut représenter qu’un début de confirmation de ce sujet. Je ne peux préciser si cette théorie proposée est valable et je dirais, quitte à choquer, que peu importe car c’est le début d’un dépassement très significatif qui compte. C’est comme si un tabou de la pensée scientifique s’effritait et c’est ce qui est présentement essentiel. J’ai toujours dit que la thèse du big bang avait son utilité tant que les cosmologistes avaient besoin de poser leur pensée sur une origine pour que celle-ci puisse se déployer valablement sur une histoire de l’univers jusqu’à ce que cette origine provisoire devienne un obstacle pour penser un nouvel univers, avec plus d’ampleur et de richesses, qui inclurait, enchâsserait, évidemment celui actuel. A mon sens cela faisait beaucoup de temps qu’il fallait franchir le Rubicon et c’est tant mieux.

            De même la thèse du multivers me convient parfaitement puisqu’elle nous permet de dépasser la frontière de notre univers qui correspond à l’étape actuelle de nos capacités de connaissances. D’autres univers du multivers avec des lois physiques différentes, plus riches, deviendront accessibles et nous les intègrerons dans notre univers qui prendra de l’ampleur et c’est un processus incontournable. Je pense par exemple au fait que la vitesse de la lumière est une borne qui sera dépassé et que des événements ou phénomènes (voir la physique des neutrinos) se produisent à des vitesses qui lui sont supérieures et nous finirons par les inférer. Cela n’est pas facile parce que nous sommes, nous-mêmes, des êtres de cette lumière (sachant que la matière qui nous constitue et la lumière qu’elle rayonne sont les deux versants d’une même entité).

            Je rencontre ainsi un fondement à ma métaphysique : « Au sein d’une Eternité, parmi tous les possibles Anthrôpos ne cesse de creuser sa connaissance de l’univers… » Et il y a encore à creuser pour rejoindre l’éternité qui est évidemment inaccessible mais elle est un horizon !! Ce qui est essentiel c’est la dynamique qui rend compte de la ‘Présence’ du ‘Sujet Pensant’.

« Aujourd’hui 2 Mai, ‘Le Journal de la Physique des Hautes Energies’ publie le dernier travail de Hawking en cosmologie – la science qui rend compte comment l’univers surgit et évolue. Dans ce nouvel article, S. Hawking et Th. Hertog, tentent de coller une épingle dans un concept bizarre appelé l'inflation éternelle, ce qui implique – inévitablement, selon plusieurs physiciens – que notre univers est simplement un parmi une infinité d’autres dans un multivers. Empruntant un concept de la théorie des cordes, Hawking et Hertog argumentent qu’il n’y a pas d’inflation éternelle et seulement un univers. Mais ce qu’ils déduisent est encore quelque chose de plus basique : Ils affirment que notre univers n’a jamais connu un moment singulier de création.

Comment leur argument fonctionne ? Suivons leur fil sinueux de la fin du début.

Suit ce dessous l’interview de Th. Hertog par A. Cho.

Question : Commençons avec ce qui est basique : Qu’est-ce que l’inflation cosmique ?

Réponse : L’inflation cosmique est une poussée de croissance monumentale qui aurait étiré l'univers naissant pendant la plus petite fraction de seconde. Imaginé en 1979 par le théoricien américain Alan Guth, l’inflation se produit juste après le Big Bang, l’espace s’étend exponentiellement, doublant la dimension de l’univers encore et encore au moins 60 fois avant de ralentir considérablement.

Q : Pourquoi les cosmologistes croient en quelque chose d’aussi si bizarre ?

R : L’inflation résout un casse-tête majeur : Pourquoi l’univers est aussi uniforme ? Par exemple, l’espace est rempli d’une radiation persistante du big bang, le fond de microondes cosmique (cosmic microwave background : CMB). Il a exactement la même température dans toutes les parties du ciel. C’est étrange, que des points si largement séparés semblant à première vue être trop éloignés pour une quelconque influence l’un sur l’autre après 13.8 milliards d’années d’existence de l’univers. L’inflation résout ce casse-tête en impliquant que tous les points de l’univers étaient, au tout début, suffisamment proches pour interagir, et par la suite réparties très loin de l’un à l’autre.

Q : Est-ce que c’est tout ce que l’inflation produit ?

R : Ironiquement, l’inflation fournit aussi une explication pourquoi l’univers n’est pas complètement uniforme. Evidemment, l’espace est parsemé de galaxies. En accord avec la théorie, l’expansion étend des fluctuations quantiques infinitésimales durant ces premiers instants jusqu’à la dimension extragalactique. Les fluctuations produisent alors des variations dans la soupe dense des particules fondamentales qui ensemencent la formation des galaxies. L’inflation prédit un spectre spécifique de grandes et petites fluctuations. D’une façon frappante, les études du fond diffus cosmologique confirment cette distribution. L’inflation cosmique explique avantageusement la naissance de l’univers provenant d’une  poussée de croissance ahurissante, étirant instantanément des ondulations subatomiques à l'échelle cosmique.

Q : Alors qu’est-ce que l’inflation éternelle ?

R : C’est là que le concept d’inflation pose ses propres problèmes. Les physiciens désapprouvent profondément l’idée que l’inflation s’arrêterait soudainement, sans aucune raison particulière. Ils préféreraient de loin avoir un mécanisme qui explique ce qui a conduit à l'inflation, puis ce qui l'a fait s'arrêter. Ceci explique pourquoi ils acceptent qu’une sorte de champ quantique conduise celle-ci, avant de disparaître. L’idée est que le champ surgit seulement dans un état approximativement stable, conduisant à un état d’énergie plus élevé de ‘faux vide’ durant lequel l’espace s’étire exponentiellement. Ensuite il se relaxe à son véritable état d’énergie, durant lequel l’espace s’étend plus lentement. Toutefois ce scénario fonctionne un petit peu trop bien. L’expansion exponentielle de faux vide s’autoproduit de plus en plus, il y a donc encore plus d’expansion de l’espace à une vitesse de plus en plus grande. Notre univers est un patch qui a subi la transition vers l'état de vide vrai de basse énergie. Mais de telles transitions doivent se produire d’une façon aléatoire, donc il devrait y avoir aussi une grande quantité d’autres univers. En fait, le processus devrait produire une quantité d’espace sans cesse croissante à la vitesse exponentielle, ponctué par un nombre infini d '"univers de poche" croissant plus lentement.

Q : Est-ce que cela pose problème ?

R : Cela dépend de qui interroge. Au niveau le plus basique, l’existence de tous ces autres univers n’affecterait pas notre univers. Ils sont tellement éloignés qu’ils ne peuvent avoir la moindre connexion avec le nôtre. D’un autre côté, la notion d’inflation éternelle et de multivers peut contrecarrer toute l'entreprise des cosmologistes d'expliquer pourquoi l'univers est comme il est. Les choses comme les valeurs de certaines constantes physiques clés pourraient variées aléatoirement parmi les univers de poche, ce qui rendrait discutable les efforts pour expliquer pourquoi ils ont les valeurs qu’elles ont dans notre univers. Ils seraient déterminés par chance aléatoire et ce n’est pas très satisfaisant (sic).

Q : Donc comment la publication de Hawking et Hertog résout le problème ?

R : Hawking et Hertog argumentent qu’en fait l’inflation éternelle ne se réalise pas. Pour penser ainsi, ils empruntent un concept de la théorie des cordes qui les rend capables d’assimiler deux types différents de théories avec différentes dimensions. En 1997, le théoricien J. Maldacena a considéré un volume d’espace dans laquelle la gravité fonctionnait. Maldacena, démontra que la théorie était équivalente à une autre plus facile à travailler avec la théorie quantique sur l’espace enveloppe de ce volume qui n’incluait pas la gravité. C’est comme dire quel que soit ce qu’il y a l’intérieur d’une canette de soda il peut être saisi ce qu’il y a  dedans par une théorie décrivant seulement ce qui se produit sur la surface de la canette.

L’inflation éternelle émerge parce que dans le très primordial univers, les fluctuations quantiques du champ quantique qui mène l’inflation sont aussi importantes que la valeur moyenne du champ. Mais Hawking et Hertog argumentent que sous ses conditions on ne peut pas simplement continuer avec la relativité générale d’Einstein, mais autrement on peut exploiter une manœuvre comme celle de Maldacena pour voir toute la situation dans un espace avec une dimension en moins. Dans cet espace alternatif, les choses sont plus dociles, et la physique ne mène pas à une inflation éternelle. Au contraire, un simple, bien défini, univers fusionne.

Alors qu’est-ce que ceci a à voir avec le tout début de l’univers ?

C’est là que les choses deviennent intéressantes – et rusées. Le concept d’assimiler une théorie à une autre dans un espace avec une moindre dimension est connu par les physiciens théoriciens comme l’holographie. Dans ce travail, Maldacena assimile une théorie à une autre avec une dimension spatiale en moins. Mais il est considéré que le principe de l’holographie permet aussi d’abandonner la dimension du temps. Donc dans la théorie de Hawking et Hertog, grâce au principe de l’holographie, l’univers très primordial devrait être décrit par une théorie avec juste trois dimensions spatiales et pas de temps.

Q : Mais pourquoi voudriez-vous vous débarrasser du temps ?

R : Dès qu’il devint clair que l’univers avait un début, le moment de sa naissance devint un casse-tête pour les théoriciens. Grosso modo, la théorie de la relativité générale d’Einstein est performante pour explique les choses après le big bang, mais est inefficace pour rendre compte du moment de la création lui-même. Ce moment constitue une ‘singularité’ de l’espace-temps – comme une fonction mathématique qui explose à l’infini – disparaît de la théorie. Donc les théoriciens ont longtemps cherchés un moyen d’éviter cette singularité – et perdre le temps serait une voie pour cela.

C’est un problème qui a fasciné Hawking toute sa carrière. Il y a des dizaines d’années, il suggérait une solution alternative en spéculant qu’au tout début, le temps était, grossièrement parlant, dimensionnel, une idée qui ne correspond pas à ce  nouveau travail.

Q : Ainsi donc ceci est la fin de l’inflation éternelle et de la singularité du big bang ?

R : Probablement pas. D’autres étudieront cette publication invoquant la relation avec  changement de dimension. Et même si d’autres chercheurs sont d’accords, il y a encore une question majeure à résoudre. Si les théoriciens commencent avec une théorie comprenant seulement des dimensions spatiales, comment est-ce que le temps finalement émerge de cet espace ? Nous avons lancé un nouveau paradigme. Mais il y a beaucoup de travail à faire.  

 

Stephen Hawking’s (almost) last paper: putting an end to the beginning of the universe

By Adrian ChoMay. 2, 2018 , 5:55 PM

When Stephen Hawking died on 14 March, the famed theoretical physicist had a few papers still in the works. Today, the Journal of High Energy Physics published his last work in cosmology—the science of how the universe sprang into being and evolved. (Other papers on black holes are still being prepared.) In the new paper, Hawking and Thomas Hertog, a theoretical physicist at the Catholic University of Leuven (KU) in Belgium, attempt to stick a pin in a bizarre concept called eternal inflation, which implies—unavoidably, according to some physicists—that our universe is just one of infinitely many in a multiverse. Borrowing a concept from string theory, Hawking and Hertog argue that there is no eternal inflation and only one universe. But what they’re driving at is something even more basic: They’re claiming that our universe never had a singular moment of creation.

How does the argument work? Follow its winding thread to the end of the beginning.

Let’s start with the basics: What is cosmic inflation?

Haut du formulaire

Bas du formulaire

Cosmic inflation is a monumental growth spurt that supposedly stretched the infant universe during the first tiniest fraction of a second. Dreamed up in 1979 by American theorist Alan Guth, inflation holds that just after the big bang, space stretched exponentially, doubling the size of the universe again and again at least 60 times over before slowing dramatically.

Why would cosmologists believe in something so bizarre?

Inflation solves a major puzzle: Why is the universe so uniform? For example, space is filled radiation lingering from the big bang, the cosmic microwave background (CMB). It has almost exactly the same temperature everywhere in the sky. That’s odd, as widely separated points seem at first glance to be too far apart for any influence to reach from one to the other over the 13.8 billion years the universe has been around. Inflation solves that puzzle by implying that all the points in the sky started out close enough to interact, and then were stretched far apart.

Is that all inflation does?

Ironically, inflation also does a great job of explaining why the universe isn’t completely uniform. Obviously, space is studded with galaxies. According to the theory, inflation stretched infinitesimal quantum fluctuations in those first moments to extragalactic size. The fluctuations then produced variations in the dense soup of fundamental particles that seeded the formation of the galaxies. Inflation predicts a particular spectrum of longer and shorter fluctuations. Strikingly, studies of the CMB and the galaxies confirm that distribution. 

 

So what’s eternal inflation?

Here’s where the concept of inflation runs into problems of its own. Physicists deeply dislike the idea that inflation would stop suddenly, for no particular reason. They’d much rather have a mechanism that explains what drove inflation and then caused it to stop. That’s why they assume some sort of quantum field drove it, before petering out. The idea is that the field starts out in an only approximately stable, higher-energy “false vacuum” state in which space stretches exponentially. It then relaxes to its true lowest energy state, in which space expands much more slowly.

The scenario works a little too well, however. The exponentially expanding false vacuum produces more and more of itself, so there’s ever more space expanding at an incredibly fast rate. Our universe is a patch that has undergone the transition to the low-energy true vacuum state. But such transitions should happen randomly, so there should be lot of other universes, too. In fact, the process should produce an ever-increasing amount of space that’s growing at an exponential rate, peppered with an infinite number “pocket universes” growing more slowly.

Is that a problem?

It depends on whom you ask. At the most basic level, the existence of all these other universes wouldn’t affect our universe. They’re just too far away to have any connection with ours. On the other hand, the notion of eternal inflation and a multiverse may thwart cosmologists’ entire enterprise of explaining why the universe is the way it is, Hertog says. Things like the values of certain key physical constants could vary randomly among the pocket universes, he says, which would render moot any effort to explain why they have the values they do in our universe. They would be set by random chance, Hertog says, and that’s not very satisfying.

So how does Hawking’s and Hertog’s paper solve the problem?

Hawking and Hertog argue that, in fact, eternal inflation does not occur. To do that, they borrow a concept from string theory that enables them to equate two different types of theories with different dimensionalities. In 1997, Argentine-American theorist Juan Maldacena considered a volume of space in which gravity was at work. Maldacena, who is now at the Institute for Advanced Studies in Princeton, New Jersey, then demonstrated that theory was equivalent to an easier-to-work-with quantum theory on the boundary of the space that didn’t include gravity. It’s like saying whatever goes on inside a can of soda can be captured by a theory describing only what’s happening on the can’s surface.

Eternal inflation emerges because, in the very early universe, the quantum fluctuations in the field that drives inflation are as big as the field’s average value. But Hawking and Hertog argue that under those conditions one cannot simply carry on with Albert Einstein’s general theory of relativity, but instead must use a maneuver like Maldacena’s to view the entire situation in a space with one less dimension. In that alternative space, things are more tractable, they claim, and the physics does not lead to eternal inflation. Instead, a single, well-behaved universe merges.

So what does this have to do with the beginning of the universe?

That’s where things get interesting—and tricky. The concept of equating one theory to another in a space with one fewer dimension is known to theoretical physicists as holography. In his work, Maldacena equated one theory to another in a space with one less spatial dimension. But, Hertog argues, the principle of holography allows theorists to jettison the dimension of time, instead. So in Hawking’s and Hertog’s theory, through the principle of holography, the very early universe should be described by a theory with just three spatial dimensions and no time.

But why would you want to get rid of time?

Ever since it became clear that the universe had a beginning, the moment of its birth has been a headache for theorists. Roughly speaking, Einstein’s general theory of relativity does a fine job of explaining things after the moment of the big bang, but cannot handle the instant of creation itself. That moment forms a “singularity” in spacetime—like a mathematical function that explodes to infinity—that trips up the theory. So theorists have long sought a way of avoiding that singularity—and losing time would be one way to do that.

It’s a problem that fascinated Hawking his entire career, Hertog says. Decades ago, he suggested an alternative fix by speculating that in the very beginning, time was, crudely speaking, dimensional, an idea that doesn’t mesh with the new work.

So is this the end for eternal inflation and the big bang singularity?

Probably not. Others will scrutinize Hawking’s and Hertog’s invocation of the dimension-changing relation. And even if other researchers find it to be sound, there’s still a major question to be answered, Hertog acknowledges. If theorists start with a theory with only spatial dimensions, how does time finally emerge from it? “We threw out a new paradigm,” Hertog, says, “but there's a lot of work to be done.”

Posted in:

doi:10.1126/science.aau0598

Partager cet article
Repost0
29 avril 2018 7 29 /04 /avril /2018 06:52

L’Ordre du Temps selon C. Rovelli

J’ai encore récemment abordé le sujet du temps dans l’article du 04/04/2018 où j’ai cité E. Witten : « L’espace-temps est peut-être maudit » et N. Seiberg : « l’espace-temps était une illusion ». Plus antérieurement entre autres, le 03/06/2016 : « Bienvenu au ‘Temps Créatif’ de N. Gisin » j’avais indiqué que l’approche de ce sujet par Gisin était intéressante et j’en avais discuté directement avec lui, mais c’était de sa part juste un ‘éclat’ auquel il n’avait pas l’intention d’y consacrer plus de temps (dommage !!). Le 02/05/2013, j’ai posté un article : « Bienvenu au ‘Moment Présent’ de Lee Smolin » mais je n’ai jamais pu en parler avec lui. Par contre, il me fut possible d’échanger sur ce sujet avec Carlo, le 09/01/2016 puis le 10/12/2016. Ces échanges sont communiqués ici à la fin de l’article dans P.S.1. Enfin, on ne peut ignorer l’article du 19/07/2017, consacré à la publication du livre de Dean Buonomano : ‘Your Brain is a Time Machine ; The neuroscience and Physics of Time’.

            Dans son livre récent, édit : Flammarion, C. Rovelli[1] présente une synthèse du travail essentiel de sa vie de chercheur consacrée au questionnement sur la nature du temps. D’emblée les premières lignes de son livre nous disent : « Je m’arrête. Je ne fais rien. Rien ne se produit et je ne pense à rien. J’écoute le temps qui passe. C’est cela, le temps. Familier et intime. Son vol nous emporte. La fuite des secondes, des heures, des années nous lance vers la vie, puis nous entraîne vers le néant… Nous habitons le temps comme les poissons habitent l’eau. Notre être est un être au temps. Sa cantilène nous nourrit, nous ouvre au monde, nous trouble, nous épouvante, nous berce. C’est entraîné par le temps, selon l’ordre du temps, que l’univers dévide son devenir… »

            Dommage, car dès ces premières lignes superficielles Carlo nous annonce une des conceptions du temps des plus banales. Je me permets de le dire parce qu’en 2000, j’ai publié un livre[2] comprenant un chapitre premier s’intitulant : « Portraits du Temps » traitant du même sujet durant 15 pages, extraits en copie en P.S.2, et aboutissant à une conclusion franchement différente : « Le temps s'accroche à tout ce qui vit. » ; « Il savourait une réelle sérénité induite par la pensée de l'enchevêtrement du temps physique et du temps de l'humain pour rendre compte de l'équilibre de l'existence, là où se noue, dans un flux continu comme dans un dialogue perpétuel, la nature de l'univers et la nature de l'humain. Cette conclusion le comblait»

            Ma thèse est que l’être humain est le fondateur du temps et celui-ci est inhérent à la pensée qui investit la compréhension, la connaissance, du monde physique. ‘Présence’ du sujet pensant et ‘Temps’ sont les versants d’une seule et même entité. Selon Rovelli : « Le temps de la physique, en définitive, est l’expression de notre ignorance du monde. Le temps est ignorance. » Au contraire, je considère que le temps est le symptôme, le cheminement du sujet pensant qui inexorablement doit conquérir une plus grande connaissance du monde pour toujours se situer et s’émanciper des déterminations du monde naturel qui l’a engendré. En conséquence, il est erroné de vouloir découpler ces deux versants de la seule et même entité.

            Plus loin en page 12, il pose des questions plus appropriées, mais les idées prémisses biaisent les réponses à ce questionnement. Je cite : « J’ai aussi découvert que nous ne savons pas encore exactement comment fonctionne le temps. Sa nature reste un mystère, peut-être le plus grand de tous. D’étranges liens le rattachent à d’autres énigmes non résolues : la nature de la consciences, l’origine de l’univers, le destin des trous noirs, le fonctionnement de la vie. Quelque chose d’essentiel nous renvoie sans cesse à la nature du temps. » ; « Est-ce que nous existons dans le temps, ou bien le temps existe-t-il en nous ? Qu’entend-on exactement par « l’écoulement » du temps ? Comment le temps est-il relié à notre nature de sujet ? Et qu’est-ce que j’écoute, lorsque j’écoute le temps qui passe ? »

            Ce livre de C. Rovelli sera le sujet d’un prochain article dans quelques temps, notamment sur le thème de la déconstruction comme Carlo l’annonce.

P.S.1. Première discussion :

o De Carlo Rovelli le 09/01/2016

o Cher Philippe,
Merci pour votre intéressant message. Est-ce que vous avez des articles ou de textes dans lesquelles votre idée est développée ? Comment arrivez-vous à l'estimation de 10-23 à 10-25s pour ce temps du sujet ?

L'idée d'un temps minimal dans le fonctionnement de la conscience est très convaincante, bien sûr, mais un rôle de ce temps au niveau physique est une idée nouvelle, à notre connaissance.
C'est intéressant de considérer la possibilité que la réalité physique soit interprétée en termes de relations entre systèmes, et dans ce cas, le temps de résolution de sujet de l'information devient important, mais d'où viendrait-t-il un temps de l'ordre 10-24s ? Quels phénomènes indiqueraient ce temps ? Carlo Rovelli 

o  Le 16/01

Cher Carlo Rovelli, je vous joins volontiers mes réponses à votre questionnement. Voilà où j’en suis avec mes réflexions. Peut-être qu’un échange fructueux va s’installer. J’y suis favorable. Bien amicalement.  

Réponses à C. Rovelli.

Comment estimer 10-23 à 10-25s ? Cette estimation résulte de la conjonction de 2 réflexions distinctes a priori. En premier, dans les années 1960-70 nous étions submergés par la production de particules résonantes. Certaines avaient une durée de vie τ tellement brève que l’on ne pouvait pas observer leur trace physique dans les détecteurs quels qu’ils soient. Par contre on pouvait les reconstituer à partir des éléments de désintégration. Cela a conduit à l’idée qu’il y avait des particules virtuelles mais réelles jusqu’à une certaine limite et au-delà on ne savait plus se prononcer quant à la réalité en maintenant l’idée de virtualité. La limite se situait autour de 10-21 à 10-22s. Cette limite d’observation est encore vraisemblable malgré les progrès technologiques de la détection directe. Pour avoir de la marge j’ai placé le point aveugle de l’observateur autour des valeurs estimées

L’autre réflexion concerne mon impossibilité d’adhérer au réalisme absolu d’Einstein. A mon sens son affirmation : « Ce qui du point de vue physique est réel … est constitué de coïncidences spatio-temporelles. Et rien d’autres. », contient une contradiction, puisque dans ce contexte l’observateur n’a plus besoin d’être présent. Le mot « observateur » employé après coup (seulement à partir de 1936) par Einstein est à cet égard révélateur. Les coïncidences peuvent exister dans la réalité mais on ne peut pas les observer. Ce n’est que lorsque la présence de l’observateur est incluse que l’on peut constater des quasi coïncidences qui ne sont pas réelles mais considérées comme telles. L’observateur occupe un intervalle de temps TpS qui est la condition de sa ‘Présence’ et qui est aussi un point aveugle de ses facultés. Vous comprenez qu’à ce niveau je fus très intéressé lorsqu’après coup j’ai lu les propositions d’A Connes en 1997 car malgré TpS la métrique est égale à 0 ; (voir article blog du 26/05/2015). Il y avait la possibilité d’une superposition qualitative qui m’intéressait car en plus je partageais sa thèse que le point 0 avait une structure interne. Mais il n’y eut pas de suite de sa part, autant que je sache. Il serait intéressant de comprendre pourquoi il n’a pas persévéré.

Il n’y a pas la possibilité pour le sujet pensant d’accéder à la réalité du monde physique (au sens einsteinien), car ce monde ne peut être pensé que par la ‘Présence’ intégrale de l’être réflexif pour qu’il y ait un discours scientifique sur ce monde.

Enfin un article de Marcia Bartusiak, en avril 1993 : relatant vos travaux avec Ashtekar et Smolin m’avait interpelé : ‘ They need a quantum clock. And that may require some new mathematics…”. Je considère que TpS est le tic-tac primordial de cette horloge quantique.

Vous dites : « un rôle de ce temps au niveau physique est une idée nouvelle. » Effectivement je ne connais pas un développement équivalent et à ce sujet j’éprouve parfois, depuis une dizaine d’années, une solitude intellectuelle pesante. J’ai reconnu des convergences intéressantes. Ainsi L. Smolin, il y a quelques années, a émis l’hypothèse du ‘moment présent’ mais il n’a pas su franchir le Rubicond c’est-à-dire le quantifier. Il n’a pas voulu non plus toucher au totem (voir article blog : 2/05/2013). 

 En ce qui concerne les travaux de S. Dehaene, ils sont de très grandes qualités mais ils traitent de la conscience (voir article blog du 26/05/2015). Je m’appuie sur ces résultats pour accentuer le caractère vraisemblable de mon hypothèse TpS mais cela se joue sur un autre plan. On ne peut pas envisager qu’à partir du résultat de Dehaene on puisse par intégration passer au niveau de l’existentialité ou bien par un chemin inverse analytique trouver une correspondance logique entre les deux termes. Il y a des niveaux intermédiaires extraordinaires qui relient ces deux extrêmes de la mesure de l’être humain qui nous interdisent de l’envisager (actuellement et probablement jamais). Toutefois il serait intéressant de poser la question à S. Dehaene ou à des spécialistes de ce domaine. Il m’arrive de penser que TpS pourrait être considéré comme un existential au sens donné par Heidegger. Les travaux de Dehaene confirment ce que j’appelle une petite ‘présence’ et il est impossible de considérer : ‘Présence’ = ∑ petites ‘présences’.

A partir du moment où une grandeur physique est attribuée à la ‘Présence’ de l’être réflexif, il est possible, comme vous le dites, d’envisager : « en termes de relations entre systèmes, et dans ce cas, le temps de résolution du sujet de … » D’accord pour systèmes, au pluriel, puisque dès qu’il y a quantification de la ‘Présence’, le sujet pensant peut être considéré comme système (à nuancer). Mais sujet de l’information me semble réducteur car la ‘Présence’ du sujet pensant ne peut être réduite au rôle de vecteur d’information(s). A tout moment il est concepteur, il traite l’information et la façonne.

Votre question : Quels phénomènes indiqueraient ce temps ?

En premier lieu TpS, sa valeur, et le concept de ‘Présence’ sont totalement corrélés.

En plus des considérations sur les particules réelles mais virtuelles le résultat des travaux de Seth Lloyd validerait mon hypothèse. La dimension du proton est in fine la dimension ultime que nous savons estimer. Quid de l’électron.

Le phénomène de l’intrication s’explique, selon moi, à cause de TpS qui est un invariant et Δti < TpS, avec Δti : la durée de la production de l’intrication qui donc obéit à la R.R. Si un observateur observe cette opération dans un référentiel qui se déplace à grande vitesse, s’il voit Δt’i = ϒ Δti> TpS, l’observateur ne voit aucune intrication. J’admets que c’est une expérience compliquée mais…

Une autre expérience est, je crois, maintenant possible. Elle concerne la thèse de la ‘Présence’. Il s’agit de faire appel aux moyens de la magnéto-encéphalographie (Labo de Dehaene, par ex.). Il s’agit de placer un physicien appareillé devant un interféromètre et de détecter ce qui se produit dans son cerveau lorsqu’il a une information spatio-temporelle sur l’objet quantique qui parcourt l’interféromètre, puis lorsqu’il n’a aucune information spatio-temporelle sur sa trajectoire. Cette même expérience doit être réalisée avec une autre personne qui n’a pas de connaissance (formelle) au moins sur le phénomène ondulatoire. On devrait constater que ce ne sont pas les mêmes parties du cerveau qui travaillent. Ainsi on pourrait mieux comprendre le pourquoi de deux apparaitre distincts.

Maintenant que nous savons mesurer l’attoseconde cela a permis de traiter l’effet tunnel d’une façon différente (voir article blog : 17/06/2015). La prochaine étape sera d’accéder à la mesure de 10-21s. Etape intéressante car on sera au bord de la limite de TpS mais il faut attendre encore quelques années.

Les articles indiqués : blog, sont accessibles en demandant sur internet : philip.maulion et les articles apparaissent dans l’ordre chronologique.

Deuxième discussion :

Je me réfère à l’article du 10/12/2016 et plus spécifiquement au paragraphe qui commence par : « Ce que je voudrais dire à CR (Carlo Rovelli)… », puisque CR a répondu à mon interpellation, promptement, après que je lui ai envoyé un tiré à part avec ce commentaire préalable : « En premier lieu, je remercie Carlo qui formule avec clarté et force de sa conviction ses idées originales car cela oblige, quand on ne partage pas son point de vue, d’essayer de répondre avec une clarté et une force les plus équivalentes. »

            Mon interpellation était suscitée par ce qu’il affirmait dans une interview de l’actuel N° hors-série de décembre-janvier de la revue ‘La Recherche’ : « Même si l’on ignore exactement comment cela se passe, je suis persuadé que le temps émerge parce qu’on n’a accès qu’à une vision partielle du monde qui nous entoure. » ; « Imaginons un système – nous-mêmes – qui interagit avec le reste du monde. Le temps émerge (distinction entre le futur et le passé) au moment où il y a interaction entre les systèmes. » ; « En fin de compte, je suis dans le camp de ceux non pas qui pense que le temps n’existe pas, mais qu’il n’est pas utile d’avoir du temps dans les équations fondamentales. »

            Ci-joint, ce qu’il m’a fait parvenir en retour à cette interpellation :

               Cher Philip,

« Je vous remercie de l’appréciation que vous aviez manifesté quant à mes paroles, et je voudrais vous répondre avec le plus de précision possible, étant donné que nous sommes, dans les domaines dont vous parlez, à la limite de la physique et de la philosophie.
Quand vous dites « je n’utilise pas la notion de conscience, car c’est une notion trop subjective », je voudrais vous dire, que si l’on veut suivre un grand maître en la matière, Sir Roger Penrose, la conscience dans (sic) l’univers est la notion la plus objective qui soit.
C’est à partir d’elle que, selon nous, devrons être construits, aussi bien les concepts d’intelligence dans le monde, que la notion de temps.
En ce qui concerne le temps, nous avons probablement, encore là, un point de désaccord amical car je crois que la notion de temps a déjà reçu un sérieux choc, avec le concept de cohérence quantique entre deux particules éloignées, ce à quoi s’ajoute la relativité générale où Einstein avait démontré combien les notions de temps étaient justement très « relatifs ».
Voilà donc pourquoi, j’ai cru pouvoir dire, qu’il ne serait pas utile d’avoir le temps dans les équations fondamentales. »

Carlo Rovelli 

Réponse exprimée sur le site le 20/03 :

o   SMC Quantum Physics Dit:

20th March 2016 at 9:43 pm

 

Cher Philip Maulion,
 
Ceci est un sujet qui se trouve au cœur de la gravité quantique. Comme vous le dites, « l'invariance par difféomorphisme » conduit à la conclusion que le
champ métrique à partir duquel nous définissons la relativité générale ne correspond pas lui-même à un objet physique (voir "hole argument" et "manifold sustantialism"). Au contraire, l'espace-temps est identifié avec le champ gravitationnel (c.a.d. avec le champ dynamique).  Cette interprétation est à la base de la gravité quantique à boucles. Un exposé complet se trouve dans le livre de Carlo Rovelli "Quantum Gravity" (section 2.3.2 ‘la disparition de l’espace-temps’). Néanmoins l'espace-temps est toujours bien présent dans la théorie, sous cette nouvelle forme dynamique, qu'ici nous appelons le "métabolisme" de l'espace-temps.  Ainsi donc, pour répondre à votre question : ce qu'on appelle l'espace-temps et le champ gravitationnel sont ultimement la même chose. Puisque que c’est un objet dynamique, ce n'est pas très étonnant qu'il contienne des oscillations qui se propagent dans sa structure.

            P.S.2 ‘Portrait du Temps’, chapitre I du livre « En dix Escales vers l’ouest » publié en mars 2000.

« Il essayait d'imaginer un espace vide de toute présence matérielle, plus désertique qu'un ciel sans nuage.

            Il essayait d'imaginer un espace totalement silencieux, plus silencieux encore que celui de l'océan profond.

            Il essayait de se représenter mentalement un espace sans limite, sans relief, sans aspérité, infiniment lisse où le regard ne rencontre aucun obstacle, où l'ouïe ne distingue aucune sonorité.

               Evidemment une telle étendue infinie, vidée de toute présence, n'a probablement pas d'équivalent réel. Dans tout notre univers, jusque dans ses confins extrêmes, il doit être impossible d'isoler, en toute logique, une étendue qui satisfasse simultanément à ces conditions exceptionnelles. 

               Il devait donc procéder par abstraction pure, mettre en jeu la puissance imaginative de la pensée pour approcher progressivement l'idée d'un espace théorique à trois dimensions,

 

[1] C. Rovelli est physicien, auteur avec Lee Smolin de la théorie de la gravité quantique à boucles. Il est directeur de recherche au CNRS à Marseille.

[2] ‘En dix escales vers l’Ouest’, édit : Publisud. (si vous souhaitez l’acquérir : maulion.philip ϱ orange.fr)

absolument vide, où aucun événement ni aucune présence ne demeurent.

 

            A l'époque où Frédéric menait le plus fréquemment cet exercice intellectuel, sa capacité de concentration était parfois soumise à rude épreuve. Il habitait dans une maison entièrement construite en bois, craquant sans cesse à cause du vent qui par bourrasques plus ou moins soudaines la bousculait. Aussi il devait attendre tard dans la nuit jusqu'à ce que les personnes aimées, avec lesquelles il partageait le toit, soient assoupies. Chaque fois qu'un craquement réel transperçait l'état de vide qu'il imaginait, il lui fallait redoubler de concentration pour amortir au plus vite son écho et colmater ainsi la brèche ouverte dans la volonté de s'immerger dans un état d'isolement parfait.

            A force de volonté et par idéations successives, il parvenait à stabiliser une représentation du vide le plus pur. Il disposait alors d'un banc d'essai, lui servant de référence, pour soumettre à l'épreuve du questionnement logique quelques hypothèses qui l'intriguaient, à propos de l'existence d'un temps physique discernable, indépendamment de toute autre présence.

            Produire un savoir sur l'existence du temps physique ne peut pas se concevoir autrement que par la saisie de son écoulement grâce à une opération de mesure. Cette mesure consiste toujours à définir au préalable, les bornes entre lesquelles celle-ci sera effectuée. L'exercice implique que se mette à l'œuvre une conscience humaine déployant une intention continue partant d'une borne origine, jusqu'à son aboutissement prévu dans un futur appréhendé où est positionnée la borne terminale. L'activité de mesure d'une distance temporelle, met en jeu une faculté de projection, dans le temps à venir, d'une action commencée à un instant présent identifié par l'opérateur de la mesure. Seul l'être humain est doué d'une telle faculté de projection, lui seul a une conscience du temps en devenir ; évaluer des distances temporelles est une activité exclusivement humaine.

En s'appuyant sur cette première observation, Frédéric poursuivait sa réflexion et tentait de comprendre jusqu'à quel degré, l'existence d'un flux du temps physique perceptible est inhérente à l'activité humaine dans toute sa diversité.

            Dans l'espace imaginé par Frédéric à force d'abstraction, vidé d'événements, de reliefs, de bornes et d'appareils de mesure, la saisie d'un intervalle de temps devenait a priori inconcevable. Dans ces conditions l'écoulement du temps n'était plus repérable par une mesure directe ou indirecte. Mais formuler une pensée, de l'évanescence du temps, du silence temporel, n'est pas un exercice aisé, au contraire, le sentiment troublant d'une mise en cause essentielle toujours l'accompagne. C'est pourquoi avant de se hâter de conclure, Frédéric recherchait toutes les failles éventuelles de son raisonnement et essayait d'imaginer d'autres processus susceptibles d'assurer la saisie du temps. Après de nombreuses tentatives toujours infructueuses, il ne pouvait plus exclure la conclusion suivante : il est impossible de dire le temps en dehors de sa mesure entre deux intervalles.

Une question qu'il considérait comme essentielle mobilisait aussi toute son attention : "Peut-on identifier au moins un support de représentation du temps physique autre que celui déterminé par l'action et la pensée humaines ?"

            Depuis plusieurs années, Frédéric relançait régulièrement cette enquête intellectuelle, activité résiduelle d'une curiosité qui avait pris son essor pendant ses études supérieures scientifiques lorsqu'il avait été initié à l'interprétation relativiste du temps.

            Depuis les découvertes d'Einstein on peut démontrer par le calcul que la grandeur mesurée d'un intervalle de temps a une valeur relative aux conditions de la mesure réalisée par l'observateur. Un intervalle de temps fini peut devenir, dans certaines conditions extrêmes de mesure par un observateur, infiniment grand. Dans ce cas les bornes qui servent à repérer l'intervalle de temps sont rejetées à une distance temporelle infinie. Alors, devenu infiniment grand, l'intervalle de temps rejoint l'ordre de grandeur des durées éternelles.

 

            Au fur et à mesure que Frédéric affinait sa conception théorique de l'espace imaginé de silence temporel, un autre temps faisait entendre son rythme et se révélait à sa conscience. C'était un temps intérieur, intime, jusqu'alors implicite et il bruissait maintenant, alors que dans tous ses raisonnements précédents Frédéric avait négligé son existence. Il devait maintenant se rendre à l'évidence, les battements de son cœur, le mouvement cadencé d'inspiration et d'expiration de l'air de ses poumons, ainsi que toutes les autres fonctions élémentaires et essentielles de son organisme constituaient autant d'horloges et d'instruments potentiels de mesure d'intervalles du temps.

            Ses premières conclusions avaient une validité limitée, et pis encore, une durée de vie très courte. Il avait privilégié les conditions de l'évanescence du flux du temps extérieur à son enveloppe physique existante, alors que dans le même instant une multitude d'horloges biologiques lui révélaient maintenant leurs tempos, elles rappelaient que l'opérateur d'une mesure d'un intervalle de temps n'est pas passif, n'est pas neutre, il est là, il interfère, il ne peut pas faire abstraction de sa présence.

            Le temps s'accroche à tout ce qui vit.

            Frédéric devait donc persévérer, aiguiser toujours plus loin ses capacités de concentration, tenter, par extrapolation, d'imaginer un espace où s'effaceraient les horloges biologiques qui font vibrer son enveloppe corporelle. Avec moult précautions, toujours avec rigueur, il tentait de s'engager dans ce nouveau processus d'abstraction. Mais peu à peu un tel projet s'avérait irréalisable et il devait accepter l'évidence que l'opération mentale de l'abstraction du bruissement de l'existant biologique devenait clairement insuffisante. Car à peine prospectait-il cette piste par le raisonnement, qu'un nouveau plan de références entrait en jeu et des horloges immatérielles donnant le tempo de sa propre pensée ondulante relevaient les indices d'une ponctuation du temps qui s'écoule.

            Sa propre activité cérébrale devenait un obstacle à sa tentative de conception théorique d'un espace parfaitement vide de signes. Cette pensée prenait forme et persistait avec ses redoutables conséquences. L'édifice du raisonnement construit avec précautions et patience se fissurait. Comment pouvait-il produire des réponses, en tout cas au moins une, à ses interrogations relatives à l'existence d'un temps physique indépendant de toute "conscience humaine", si son cerveau devait, séance tenante, cesser toute production de pensées ? Puisqu'il devait s'abstraire en tant qu'être biologique et être pensant, il ne pouvait pas être le témoin de la conclusion qu'il cherchait à produire ! Il s'inclinait devant le mur infranchissable de son projet initial qui lui paraissait, maintenant, totalement incongru.

            Alors qu'à plusieurs occasions il avait cru formuler l'ultime interrogation qui lèverait l'ultime voile masquant l'accès à une compréhension de l'existence autonome du temps physique, il se trouvait en fait à chaque fois embarqué dans une dérive de questions successives, à propos des conditions préalables à sa mesure. Son entendement n'avait jamais pu franchir l'obstacle ; il n'avait jamais pu atteindre l'objectif qu'il s'était fixé. Mais il se souvenait des face-à-face vertigineux avec la question fondamentale de l'existence du temps, quand il croyait raisonner dans le champ de la rigueur de la physique rationnelle, et qu'il se retrouvait dans un domaine où se croisaient des interrogations de nature plutôt métaphysiques sans pouvoir discerner le passage par lequel, à son insu, ces deux mondes communiquaient.

            En dernier recours, Frédéric disséquait alors ce qui apparaissait comme un piège de la raison : la moindre trace d'existence était saisie par le temps pour y inscrire la marque de son passage, il fallait donc au préalable concevoir l'inexistence absolue, avant qu'une pensée exprime un point de vue positif ou négatif à propos d'une réalité supposée d'un temps autonome.

            Loin de ses préoccupations initiales, irrésolues, Frédéric découvrait, par contre, une communauté apparente de destin entre le cours du temps mesurable et le cours de l'existence humaine. Il découvrait que le moindre frémissement d'une vie matérielle ou immatérielle servait de support à l'empreinte du temps. Frédéric avait recensé et analysé toutes les conditions irréductibles pour procéder à sa mesure quantitative, mais dès qu'il avait tenté de déterminer le sens de sa mesure, de comprendre s'il mesurait effectivement une grandeur indépendante de son projet conscient, il s'était trouvé confronté à une série de questions gigognes qui l'avaient progressivement entraîné sur le terrain d'un questionnement existentiel.

            A l'époque où il était accaparé par ces réflexions, il vivait dans un pays du cône sud de l'Amérique latine. Librairies et bibliothèques étaient rares et peu garnies ; dans son entourage il ne connaissait pas de collègues avec lesquels il aurait pu prolonger et réactiver ses interrogations par des dialogues. Enfin, il faut le dire aussi, avant qu'il ne prenne le risque de les exposer à d'autres personnes, il eut fallu qu'il soit lui-même nettement plus convaincu de la validité et de l'exhaustivité de son raisonnement. A cette époque, il ignorait le nom du philosophe allemand Heidegger ainsi que la substance de ses travaux, pourtant déjà connue de par le monde. Celui-ci affirmait au cours de son enseignement en 1935 : " Il est parfaitement possible que l'homme ne soit pas. Il a été un temps où l'homme n'était pas. En tout temps l'homme était et est et sera, parce que le temps se temporalise seulement du fait que l'homme est. Il n'y a aucun temps où l'homme n'ait pas été, non que l'homme soit de toute éternité et pour l'éternité, mais parce que le temps n'est pas l'éternité et que le temps ne se temporalise que pour chaque temps…"

            Frédéric aurait peut-être été stimulé dans sa réflexion à propos de la relation entre le temps et la conscience humaine de sa perception, s'il avait eu la chance de connaître alors cet enseignement. Mais la réalité était tout autre.

            Il était convaincu d'avoir épuisé toutes les ressources de sa pensée sur ce sujet ; il pouvait entr'apercevoir, sur un versant du prisme temporel, les couleurs contrastées du temps psychologique, du temps sociologique, du temps physique, ..., mais il renonçait à s'interroger si, sur l'autre versant du prisme, on pouvait distinguer une ou plusieurs sources du temps.

            Irrémédiablement, il se trouvait dans une impasse…

            Entre conscience et flux du temps, quel est l'un qui prête vie à l'autre ? Voilà bien le genre de questions qu'il voulait éviter, parce que sans réponse satisfaisante, même à titre provisoire. Interrogation obsédante, elle précipite dans la solitude celui qui l'entretient. Après avoir recherché en vain tous les appuis susceptibles de nourrir un nouveau regard scrutateur, Frédéric optait donc pour une fuite en avant et il s'accommodait d'une représentation dynamique où l'un et l'autre constituaient un entrelacs intime et perpétuel tissant ainsi le substrat de l'existence.

            Il évacuait les origines temporelles de cet entrelacs en le déclarant perpétuel. Il l'imaginait infini dans sa durée future, mais sa pensée vacillait dès qu'il avait la velléité de remonter la flèche du temps et tentait d'imaginer une origine quand la dynamique de l'entrelacs prenait son élan. Il ne se faisait aucune illusion sur sa capacité à partager avec d'autres sa conception, et cela n'était plus une priorité. Il savourait une réelle sérénité induite par la pensée de l'enchevêtrement du temps physique et du temps de l'humain pour rendre compte de l'équilibre de l'existence, là où se noue, dans un flux continu comme dans un dialogue perpétuel, la nature de l'univers et la nature de l'humain. Cette conclusion le comblait. »

Partager cet article
Repost0
19 avril 2018 4 19 /04 /avril /2018 07:11

Quel est ce Monde ?

Dans les pages Sciences et Médecine du journal ‘Le Monde’ daté le 28 Mars 2018, nous pouvons lire des articles intéressants à propos de ‘Neandertal, une autre humanité ?’

            Neandertal est évalué en le comparant à Homo sapiens et comme le précise le paléoanthropologue Ludovic Slimak, le débat sur Neandertal met en lumière deux courants de la paléoanthropologie : « Le premier, qui est un courant plutôt latin, tend à dire et à essayer de montrer que les néandertaliens ont été victimes de leur faciès, mais qu’ils sont comme nous. L’autre courant est plutôt anglo-saxon. Il s’en tient plus à une approche biologique de Neandertal, et la notion de culture néandertalienne telle qu’on la perçoit dans la recherche française est moins développée. Il est d’ailleurs marquant que, pour les Anglo-Saxons, le mot ‘humain’ soit strictement réservé à Homo sapiens » 

            « Cela fait vingt-cinq ans que je travaille sur Neandertal avec les mains dans le cambouis, quatre mois par an sur des fouilles, je connais intimement son artisanat, son mode de vie, mais je ne sais toujours pas qui il est. » Pour ce chercheur, il est vain de se bagarrer sur tel ou tel type de production qui serait le propre de l’homme moderne et dont les Néandertaliens seraient incapables. « A chaque fois qu’on affirme cela, on peut être sûr que, dans les années qui suivent, une équipe montrera que Neandertal le faisait aussi… Il faut l’aborder de manière structurelle et se demander s’il existait chez lui une manière de voir le monde (sic), de se comporter, qui lui était propre. »

            Je cite encore ‘Le Monde’ : Malheureusement Neandertal n’a pas laissé ses Mémoires, et il faut bâtir cette éthologie à partir des vestiges qui sont parvenus jusqu’à nous, essentiellement de la pierre taillée… Mais c’est justement là que Ludovic Slimak décèle une différence structurelle entre Neandertal et Homo sapiens, lorsque les deux populations avaient des connaissances techniques similaires : « Si vous regardez des outils de silex de sapiens contemporains, une fois que vous en avez vu dix, vous allez vous ennuyer pendant des années parce que les 100 000 suivants sont les mêmes. Ce qui n’existe pas chez Neandertal, c’est cette standardisation. Quand vous voyez un des produits finis, chaque objet est magnifique et unique, une création, un univers en soi. Là, on est au cœur de la bête : c’est révélateur d’un univers mental qui ne semble pas le même, d’une autre manière de s’inscrire au monde, de penser le monde. Ces divergences-là ne sont ni techniques ni culturelles, et on peut ici proposer que l’encéphale ne fonctionne pas de la même manière. »

            Cette dernière phrase est redoutable car elle nous laisse entendre que c’est le fonctionnement de notre encéphale qui détermine, qui précède, notre façon de penser le monde. En effet, si cela est vrai pour Neandertal, pourquoi cela serait différent pour Homo sapiens. Certes, l’encéphale d’Homo sapiens est différent[1] de celui Neandertal mais il est difficile de penser que cette différence permet d’échapper à ce type de détermination, ce qui ferait qu’Homo sapiens s’inscrit au monde et le pense étant donné le fonctionnement de son encéphale qui lui serait propre. Dès lors que son encéphale serait caractérisable par un mode de fonctionnement spécifique (recherches très actives actuellement concentrant des très gros budgets étatiques et privés), cela déterminerait une manière spécifique de s’inscrire au monde et de penser le monde.

Comme le précise Slimak les traces qui sont repérées aujourd’hui, grâce aux fouilles, sont autant de preuves de savoirs techniques et de savoir-faire imprimés sur des pièces de silex et c’est à partir de ceux-ci que les paléoanthropologues parviennent à décrypter ce que seraient les représentations mentales, qui feraient références, qui façonneraient et animeraient des représentations ‘intellectuelles’. Nous devons retenir que celles-ci sont toujours l’émanation d’un monde global particulier, préalable, perçu, in fine conçu, dont l’un caractériserait Neandertal et l’autre  caractériserait Homo sapiens. D’où la curiosité évidente que nous devons entretenir pour comprendre ce qui différencie ces mondes perçus.

Je retiens aussi dans l’article qu’une très forte corrélation est établie entre s’inscrire au monde et penser le monde et il me semble qu’il est naturel de considérer que c’est toujours ce qui est le moteur de notre pensée actuelle : « penser le monde, maîtriser notre pensée du monde, pour y inscrire avec plus d’assurance, plus de véracité, les racines de notre existence ». Comment comprendre autrement la dynamique des motivations profondes de la communauté scientifique et notamment celles des astrophysiciens et des cosmologues qui ne cessent de chercher à caractériser et à identifier au mieux ‘Notre Univers’. On comprend aussi pourquoi pour pouvoir penser notre présent Univers, il faut que nous soyons situés spatialement et temporellement, d’où l’utilité de la production d’une origine spatio-temporelle avec la thèse du Big-Bang, jusqu’à ce qu’il soit possible intellectuellement de s’émanciper de cette thèse spécifique voire de la substituer par une autre. Ainsi en est-il de toutes les cosmogonies qui ont prévalues au cours de l’histoire de l’humanité.

Je propose maintenant de revenir sur l’article du 05/01/2018 : ‘Turing or not Turing’ et reprendre les arguments présentés par S. Dehaene qui ne cessent pas de m’interpeller : « La pensée géométrique est assez ancienne. Il est très intrigant de voir que, il y a 1.6 à 1.8 millions d'années, les hommes façonnaient déjà des objets aux propriétés mathématiques élaborées, notamment des pierres en forme de sphère, comme s'ils possédaient la notion d'équidistance à un point. On connaît également des dizaines de milliers de bifaces, ces outils pourvus de deux plans de symétrie orthogonaux : ils ont le même degré d'ancienneté, et leur perfection géométrique démontre une recherche délibérée de la symétrie, au-delà de la simple utilité fonctionnelle. Dès lors, je me demande si la capacité de représentation symbolique et récursive n’est pas apparue, dans un premier temps, indépendamment du langage, avant tout comme un système de représentation rationnelle du monde.

Le cerveau d'Homo erectus avait peut-être déjà atteint la compétence d'une machine de Turing universelle (sic), capable de représenter toutes les structures logiques ou mathématiques possibles. Peut-être est-ce une illusion, mais pour l'instant, notre espèce a réussi à comprendre l'organisation des structures du monde à toutes les échelles de l'Univers. Dans un deuxième temps, il y a environ 100.000 ans, on observe une explosion culturelle qui suggère un langage, une communication... On peut donc se demander s'il n’y a pas d'abord la mise en place d'un système de représentations mentales enchâssées, puis l'apparition d'une capacité à communiquer ces représentations. »

Si, comme le prétend S. Dehaene, le cerveau d’Homo erectus avait peut-être déjà atteint la compétence d’une machine de Turing universelle, alors on peut se demander pourquoi, étant donné que la divergence entre néandertaliens et hommes modernes remonte à 600 000 ans, Neandertal a perdu cette compétence ? Je pose cette question parce qu’il me semble qu’il est logique de corréler : capacité de fabriquer des outils standards avec compétence d’une machine de Turing, ainsi que : algorithme avec capacité de réplication. De même on peut se demander si l’affirmation de S. Dehaene est juste quand il dit : « La pensée géométrique est assez ancienne… » Car on pourrait inverser l’ordre des choses et considérer que c’est en premier lieu la nécessité de façonner des objets prioritairement fonctionnels permettant d’accomplir des tâches pratiques qu’est née une pensée géométrique.

Il y a de toutes façons des convergences très significatives entre paléoanthropologues et neuroscientifiques à propos de l’idée qu’il y aurait une interdépendance prononcée chez nos lointains ancêtres entre manière de voir le monde et structuration d’un univers mental comme l’infère L. Slimak et la réussite de notre espèce à comprendre l'organisation des structures du monde à toutes les échelles de l'Univers comme l’infère S. Dehaene. La perception d’un monde imprègnerait la structure mentale.

            L’homme n’est pas une île, est une affirmation plus que vrai depuis le début d’une pensée possible d’une histoire de l’humanité. Est-ce que notre univers mental est toujours dépendant de l’idée du monde dans lequel nous pensons nous situer ? Ou bien est-ce que l’autonomie de notre univers mental, intellectuel, est prouvée par la conception progressive d’un univers objectivé répondant à des lois physiques ? En fin d’article, en N.B., je propose un extrait d’article dans Wikipédia concernant des études de Claude Lévi-Strauss à propos de ce qu’il conçoit comme étant une : « oscillation constitutive de l’esprit humain… »

Ce qui devrait être précisé c’est le sens du mot monde qui est utilisé dans les discours de Slimak et de Dehaene. On devrait se mettre d’accord pour considérer que cela fait référence à monde extérieur à l’être qui le perçoit et le pense, et donc à monde extérieur qui apparaît comme tel au cours de l’évolution. Il est légitime de considérer que la désintrication entre ce qui est de l’ordre du monde extérieur avec ce qui est de l’ordre du monde intérieur de l’être pensant est permanente. Et je propose de considérer que ce processus de désintrication permanente[2] soit une des caractéristiques de l’évolution de l’humanité.

En Occident, culturellement nous sommes toujours très influencés par des mondes premiers restitués qui ne sont que des mondes purement intériorisés, pensés.

Ainsi en est-il du monde proposé par Platon, quatre siècles avant notre ère : le monde est compréhensible parce qu’il a une structure (sic). Il a une structure parce qu’il est une œuvre d’art créée par un Dieu qui est un mathématicien. Plus exactement, la structure du monde est faite des pensées de Dieu, qui sont mathématiques. Platon, fait référence à une réalité véritable pour expliquer que notre monde, qui n’en est qu’une image, possède pourtant assez de régularité et de permanence pour permettre à l’homme de penser, de parler et d’agir. Pour Platon, notre monde est, grâce aux mathématiques, un kosmos, dans lequel, autant que possible, règnent ordre et beauté. (Voir article : ‘La vérité laide’ 20/03/2018)

Plus proche de nous, Descartes (1596-1650) soutient qu’il y a qu’une science (l’arbre) et qu’une méthode parce que l’esprit humain est un. Il identifie la matière à l’étendue, prône une distinction absolue entre la matière et l’esprit, entre l’étendue et l’intellect… Selon lui, le projet de connaître le monde dans sa vérité commence par un examen de conscience. Il assigne à tout phénomène une cause, de sorte que le monde dans son ensemble est régi par le principe de causalité et, des chaînes causales étant des chaînes nécessaires, elles revêtent une forme mathématique. Le projet de Descartes est identique à celui de Galilée (1564-1642) : comprendre le monde dans sa vérité. Toutefois le cheminement est différent, Galilée, inspiré par le mathématisme platonicien, partait de l’idée que la nature parlait le langage de la géométrie, langage que la science avait pour but d’entendre et de comprendre.

Le monde préconisé par Newton (1643-1727) est déjà enrichi de données observées obtenues avec méthode. A l’époque de Newton le Système ptolémaïque est déjà tombé en désuétude chez les hommes de science. Les principaux responsables de la chute du système de Ptolémée sont Nicolas Copernic (1473-1543) ; Tycho Brahe (1546-1601) ; Galilée et Johannes Kepler (1571-1631). Malgré tout il y a encore avec Newton, une spiritualisation de la nature, une métaphysique à l’œuvre, car par exemple ne sachant pas répondre rationnellement à la question de l’équilibre des étoiles, en dernier recours il invoque la divine Providence : « Parce que son Dieu, son « Grand horloger », a œuvré dans ce sens, et après avoir créé l’Univers, son Dieu veille par un « miracle perpétuellement renouvelé » à ce qu’aucune des étoiles ne tombe l’une sur l’autre. »

 

Kant (1724-1804), grand sédentaire, de sa ville de Königsberg, nous délivre sa ‘Révolution Copernicienne’ qui nous dit que c’est « nous-mêmes qui introduisons l’ordre et la régularité dans les phénomènes, que nous nommons nature, et nous ne pourrions les y trouver, s’ils n’y avaient été mis originairement par nous ou par la nature de notre esprit. » C’est de la profondeur de sa raison, d’une sorte d’architecture rigoureuse de l’investigation rationnelle que solitairement, depuis Königsberg, interpellé par D. Hume (1711-1776), il a délivré sa thèse qui a presque atteint la valeur d’une thèse universelle. A méditer !!

N.B.

Évolution du modèle: Totémisme et pensée sauvage

Lévi-Strauss avait déjà, en 1949, détaillé cette fonction d'organisation et de mise en cohérence de processus inconscients par le symbolisme dans deux articles (Le Sorcier et sa magie, et L'efficacité symbolique) à propos des fonctions de magicien et de chaman dans certaines sociétés sans écriture. Tout au long des années 1950, il continue de travailler sur ces questions, et affine ce concept de pensée symbolique qu'il va finalement appeler « pensée sauvage », et livrer au public en 1962 dans un ouvrage éponyme qui connaîtra un succès considérable.

La pensée sauvage (que Lévi-Strauss appelle aussi « bricolage intellectuel ») est une opération symbolique de l'esprit humain en société organisant le concret (la perception sensible immédiate) de façon globale sans étape de découpage ni d'analyse; elle se définit par complémentarité (plus que par opposition) avec la pensée dite domestiquée (ou scientifique, « pensée de l'ingénieur ») qui procède quant à elle lentement, par étapes intellectuelles d'induction et de déduction, pour aboutir à des résultats toujours partiels mais reproductibles. Point fondamental par lequel Lévi-Strauss renverse l'évolutionnisme anthropologique historique, la pensée sauvage n'est en rien une quelconque « pensée des sauvages » considérée péjorativement (car « chaque civilisation a tendance à surestimer l'orientation objective de sa pensée (sic)») mais constitue à l'inverse un mode de pensée universel et intemporel à côté de la pensée scientifique, en alternance et en « compétition » avec elle : « Au lieu, donc, d'opposer magie et science, il vaudrait mieux les mettre en parallèle, comme deux modes de connaissance, inégaux quant aux résultats théoriques et pratiques […], mais non par le genre d'opérations mentales qu'elles supposent toutes deux, et qui diffèrent moins en nature qu'en fonction des types de phénomènes auxquels elles s'appliquent ». La pensée sauvage continue donc de s'exprimer à tout moment et dans toute société, y compris l'occident contemporain, dans des domaines de la production humaine où elle « se trouve relativement protégée: c'est le cas de l'art, auquel notre civilisation accorde le statut de parc national […] ; et c'est surtout le cas de tant de secteurs de la vie sociale non encore défrichés ».

Cette oscillation constitutive de l'esprit humain (sic), de tout temps et de tout lieu, est alors à même de rendre compte du « paradoxe néolithique », c'est-à-dire de cette période d'effervescence technique considérable où en des endroits différents du globe l'homme découvre l'agriculture et la maîtrise d'outils nouveaux, suivie de siècles de stagnation. La pensée scientifique (abstraite) est en effet énergétiquement coûteuse, et peut déstabiliser l'ordre social en cas d'évolution technique trop rapide (perte de repères explicatifs): la pensée sauvage (concrète) intervient alors comme mode spontané et complémentaire d'organisation et de rééquilibrage collectif, de garantie pour l’homéostasie du système social.

La pensée sauvage, même si elle procède sans logique scientifique, est pourtant comme n'importe quel processus cérébral une pensée classificatoire, terme-clé dans la théorie lévi-straussienne. Elle se saisit des formes du réel dans leur globalité pour catégoriser et nommer les phénomènes culturels par analogie avec la nature: c'est par ce raisonnement que Lévi-Strauss dans La Pensée Sauvage reprend et réinterprète entièrement le problème, classique en anthropologie, du totémisme, qu'il avait déjà abordé dans un livre plus bref publié quelques mois auparavant, début 1962, Le Totémisme aujourd'hui. Dans son optique, le totémisme (façon dont les clans ou groupes vénèrent des animaux ou plantes d'après lesquels ils se nomment eux-mêmes, dans certaines sociétés) est en réalité une illusion ethnographique par erreur d'échelle : là où on a cru le voir, il ne fallait pas en fait considérer de façon isolée chaque ressemblance groupe-totem, mais des « différences qui se ressemblent », c'est-à-dire un différentiel entre le plan de la nature (les totems) et celui de la culture (les groupes) en se plaçant à l'échelle globale de l'ethnie considérée voire de plusieurs ethnies voisines.

 

[1] De Jean-Jacques Hublin dans l’article, ‘Il est difficile de tester l’intelligence de Neandertal’ : « On sait en revanche que le cerveau de Neandertal, bien que de grande taille, est différent de celui des hommes modernes. Sur le plan anatomique, certaines zones cérébrales sont plus développées dans un groupe que dans l’autre. Pour une raison que l’on ne comprend pas bien, le cervelet s’est développé particulièrement chez les hommes modernes et pas chez les néandertaliens. Il agit dans la synchronisation et la précision des gestes, dans certains apprentissages et on pense qu’il peut jouer un rôle dans la production du langage… »

[2] Je pense que l’extraordinaire émotion renouvelée (en tous les cas en ce qui me concerne) quand on contemple les scènes rupestres de la grotte Chauvet est provoquée par le formidable spectacle d’une désintrication entre le monde perçu d’Homo sapiens et le monde animal. En effet comment expliquer, étant donné l’extraordinaire économie de moyens utilisée, la remarquable restitution de ce monde animal qui semble encore sous nos yeux s’animer ? Le fait que ces animaux peuvent être figurés, peuvent être projetés, sur les parois de la grotte, nous dit qu’Homo sapiens se différencie de ceux-ci, mais ils sont encore dans la proximité, le prolongement, de leur être. Les mains des artistes qui les représentent avec autant d’authenticité sont encore animées, guidées, par la vitalité de ces animaux qui les habitaient avec lesquels auparavant ils ne faisaient qu’un.

Partager cet article
Repost0
4 avril 2018 3 04 /04 /avril /2018 09:06

Angélisme, Conviction, Raison, Enfermement.

Plusieurs articles tout récemment publiés laissent voir que les physiciens, en l’occurrence les cosmologues, les astrophysiciens, sont plutôt fascinés par leur non découverte alors qu’on s’attendrait à ce qu’ils prennent du recul face aux obstacles qu’ils rencontrent d’une façon répétitive. Sur le site phys.org du 15/03, l’article avec le titre suivant : ‘The frustrating and fascinating world dark matter research’ ; ‘Le frustrant et fascinant monde de la recherche de matière noire’, nous indique d’une façon nette le balancement intellectuel dans lequel des scientifiques évoluent. Selon l’auteur : Niklas Nielsen, « La matière noire comme phénomène est fermement établie (sic), et nous avons plein d’évidences convaincantes qui suggèrent qu’elle est cinq fois plus importante que la matière visible. » Je le cite parce qu’ils sont nombreux ceux qui partagent ce point de vue alors que jusqu’à présent cette matière noire n’a jamais été constatée directement qui plus est : la diversité de la matière noire hypothétique est vraiment ahurissante. Aucun élément de cette diversité n’a montré le moindre indice. Tout récemment l’hypothèse, de l’axion de quelques milliélectronvolts comme candidat, a été une fois de plus minimisée (article du 15/02/2018), ainsi que l’hypothèse des rayons gamma observés depuis 10 années au centre de notre galaxie, preuves de l’annihilation de matière (WIMP) et antimatière (anti WIMP) noire n’est pas retenue (article du 13/03/2018).

Rappelons que la nécessité de la matière noire résulte du scénario qui impose un Big Bang originaire. Celle-ci serait fabriquée au bout de 10-12s et serait responsable de la formation des étoiles et galaxies. Le scénario d’un début de l’Univers avec Big Bang a tellement structuré voire formaté la pensée des physiciens qu’il est compliqué voire impossible de prendre le recul aujourd’hui nécessaire : « Dans la toute première fraction de seconde après le Big Bang, notre Univers était incroyablement chaud et dense. Dans cette soupe primordiale à 10-12s, il est supposé que les WIMP se constituent. Armés de la connaissance de l’expansion de notre Univers et en conséquence de son refroidissement, nous pouvons correctement calculer le nombre de WIMPs produit sous ces conditions. Remarquablement, ce calcul nous fournit un nombre de WIMPs qui correspond à la quantité de matière noire observée… Bien, cela semble trop bien pour que cela ne soit pas juste. Le miracle ne s’est pas produit puisque nous n’avons jamais observé de particules WIMP depuis des décennies qu’on les cherche. Si on les découvre ces particules elles seront différentes de ce que l’on présume. »

Il est aussi étonnamment considéré que la partie visible de notre Univers est connue exhaustivement et c’est en fonction de cette considération que l’on infère comment la partie sombre doit s’ajuster : « Il n’y a pas de raison fondamentale que la partie noire de notre monde soit moins divers que la partie visible. On peut même imaginer que la matière noire s’agglutine en étoiles noires, planètes, et vie, qui existeraient entièrement isolés de notre monde. Nous serions ainsi dans la réciprocité d’une obscurité d’un monde pour l’autre. Comment envisager des moyens de détection d’une partie de ce monde qui nous serait aussi absolument obscur ? » Le 08/02/2018 un article a été publié pour confirmer qu’aucun photon noir : élément hypothétique de ce monde obscur, n’a été jusqu’à présent détecté.

La fascination de l’auteur pour « le modèle de matière noire fermement établi (sic) » est telle qu’il est incapable d’évoquer la théorie MOND, développée par le physicien M. Milgrom depuis le début des années 1980, théorie qui n’implique pas l’existence de matière noire, et qui progressivement s’avère être une théorie capable d’être parfaitement prévisionnelle, là où la théorie de la matière noire ne l’est pas. A ce titre il n’est pas possible d’exclure la valeur alternative de cette théorie. Une fois de plus nous constatons, et c’est désagréable voire inquiétant, chacune des parties tenant d’une théorie ou de l’autre s’est installée dans sa propre tranchée et est incapable de prendre en considération les résultats partiels de l’autre. On mesure ici que la fascination anime un tropisme franchement incompatible avec ce qui favorise le cheminement d’une pensée scientifique.

Un autre article du 23/03/2018 dans phys.org qui relate la confiance qu’ont les physiciens en l’aboutissement de leur théorie qu’ils labourent depuis 50 ans mérite d’être analysé. Il s’agit de l’interview de deux membres de l’Université de Rutgers (New Brunswick), l’un est théoricien de la physique des particules et l’autre est expérimentateur de la physique des particules élémentaires. L’un et l’autre nous affirment qu’il n’y a pas de doute possible, ils sont sur la bonne route, l’article le confirme avec son titre : ‘Physicists at crossroads in trying to understand universe’ ; ‘Physiciens au carrefour pour tenter de comprendre l’univers’. Ils évaluent qu’avec le LHC, ils sont dans un domaine d’énergie qui leur permet d’ausculter les premiers instants de l’univers soit à 10-12s après le Big Bang. Ils ont été impliqués dans la découverte du Higgs, élément clé du Modèle Standard. Pour eux le Modèle Standard doit être considéré : « Comme la théorie la plus fantastiquement réussie de tous les temps. Elle est le triomphe de l’intelligence humaine. » Nous ne pouvons qu’être totalement en accord avec cette qualification mais cela ne doit pas conduire par fascination à un tarissement de cette intelligence, au contraire il faut souhaiter que cela provoque une nouvelle vague des capacités créatrices de l’intelligence humaine. C’est selon moi à ce carrefour où nous devrions nous trouver. Or, plutôt que d’être admiratif, voire médusé, du chemin que l’on a parcouru en cinquante années, il est temps de considérer que le Modèle Standard (M.S.) nous a porté au plus loin de ce que l’on peut connaître actuellement mais maintenant il est obsolète pour atteindre un nouveau plus loin.

Il est possible que ce soit ce que pensent les auteurs de l’article : « Le problème c’est qu’en tant que théoriciens, nous sommes victimes de notre propre succès. Le Modèle Standard est tellement couronné de succès que la théorie n’indique pas comment répondre aux questions que nous avons encore. » Il est évident que ces deux phrases se choquent, et elles expriment la difficulté de prendre du recul et de pouvoir penser que les succès obtenus n’ont pas une valeur universelle mais qu’ils sont ceux d’une étape, celle-ci ne permettant pas d’atteindre la prochaine étape avec le(s) même(s) paradigme(s). Contrairement à ce que nous disent les auteurs de l’article nous ne sommes pas avec le M.S. entrain de dévoiler le monde réel mais nous sommes en contact avec un aperçu du monde, aperçu correspondant à nos capacités actuelles de le penser. Le repos sur ses lauriers de la pensée scientifique des physiciens ne peut pas être d’actualité comme ils le pensent : « Le boson de Higgs répond à beaucoup de questions, mais nous n’obtenons pas directement (sic) les indices de cette structure théorique comment les réponses aux questions restantes pourraient être formulées, donc nous sommes à carrefour avec cette quête de 50 années. Nous avons besoin des expériences qu’elles nous fournissent des indications et alors, avec un peu de chance (sic), ces indications seront suffisantes pour nous dire la prochaine structure théorique qui sous-tend le Modèle Standard. » Une fois de plus on est confrontés au fait de ne pas pouvoir considérer que l’absence d’indication(s) est l’indication qu’il faut retenir.

Très récemment une nouvelle publication du 23/03/2018 avec le titre : ‘Cosmic Instability Could Have Created Dark Matter’ ; ‘l’instabilité cosmique aurait pu créer de la matière noire’, montre que dans le cadre du Modèle Standard on peut théoriquement inventer et justifier une très grande variété de matière noire. Cela est possible parce que le M.S., n’est qu’un modèle que l’on tente d’enrichir et de justifier théoriquement avec ce que l’on observe. Ainsi la première image de l’univers, celle du rayonnement fossile ou encore nommée fond diffus cosmologique, est une source voire un cadre de formulation d’hypothèses variées qui doivent, pour être retenues, confirmer et être en phase avec ce que l’on considère avoir décrypté dans cette première image de l’univers. Au sein du M.S. il y a pour les théoriciens beaucoup de degrés de liberté (peu de contraintes) qui autorisent des ajouts d’hypothèses.

Donc dans l’article (dans le Physical Review letters) dont je fais référence il est dit : qu’une hypothèse de l’instabilité du champ de Higgs aurait pu semer l’Univers de trous noirs primordiaux qui servent maintenant de matière noire. En accord avec ce scénario, la matière noire consisterait en une large population de trous noirs qui se seraient formés grâce aux fluctuations du champ de Higgs instable à l’aube de l’Univers. Ces ci-nommés trous noirs primordiaux ont déjà été proposés antérieurement (sic), mais c’est la première fois qu’une hypothèse qui n’implique pas de la physique au-delà du modèle standard est proposée.

Dans leurs calculs les théoriciens explorent les fluctuations du champ de Higgs supposé très intense pendant le tout début de la phase d’expansion de l’Univers, appelée inflation. Moyennant certaines suppositions (c’est à ce niveau, entre autres, que l’on profite des degrés de libertés), ces fluctuations provoquent des effondrements dans certaines régions et produisent les germes de trous noirs microscopiques avec des masses voisines de 1015kg ce qui donne une densité consistante avec les prédictions cosmologiques de matière noire.

Il n’est pas possible de croire que le champ de ce que nous pouvons observer actuellement de notre univers soit fermé. Il vaut mieux considérer qu’avec nos moyens d’observations de plus en plus performants nous allons disposer d’informations de plus en plus riches et supplémentaires sur les objets célestes. Il se pourrait donc que l’antagonisme, matière noire ou pas et celui de MOND ou pas, devienne obsolète.  Il se pourrait que nous ne soyons pas si éloignés d’une telle situation. En effet, sur le site de Physics World du 29/03 et de Futura Sciences le 01/03/2018 un article : ‘Galaxy devoid of dark matter puzzles astronomers’ ; ‘Une galaxie dépourvue de matière noire rend perplexe les astronomes’ peut-être nous dit-il qu’il y a déjà matière à cette perspective.  Aussi grande que la Voie lactée, DF2 est une galaxie très pauvre en étoiles et, surtout, elle ne contient que très peu de matière noire voire pas du tout. Ce qui est inexplicable dans le cadre du modèle cosmologique standard. Son alternative la plus connue, la théorie Mond, en apporte-t-elle une meilleure description ? C'est le contraire : cette étrange galaxie pourrait même la réfuter.

DF2 est une galaxie, comme on en a déjà observée plusieurs centaines, qui est ultra-diffuse : ‘UDG ‘ en anglais. Sa taille est comparable à la Voie Lactée mais elle n'abrite pas de trou noir central et ne comporte pas de bras spiraux ni de disque. Et elle ne ressemble pas non plus à une galaxie elliptique... Elle semble finalement au moins 400 fois moins riche en matière noire que ce que l'on aurait pu prévoir. Et encore cette valeur n'est-elle qu'un maximum : le minimum pourrait être zéro.

DF2 pose un gros problème au modèle de la matière noire froide, qui, en effet, n'a jusqu'à présent jamais prédit l'existence d'un tel objet. La théorie alternative Mond est encore plus contredite par DF2.

Cette nouvelle énigme qui se présente avec des objets de la catégorie DF2, s’ajoute à celle confirmée il y a 2 semaines à propos du désaccord entre les évaluations différentes de l’ordre de 10% de la vitesse de Hubble étant données les conditions distinctes mais rigoureuses de ces évaluations. Le Modèle Standard est un modèle qui n’offre toujours pas de pistes significatives pour élucider des énigmes devenues anciennes. Il s’agit entre autres de l’énigme de la disparition de l’antimatière, et celle de la nature de la masse du neutrino et de sa faible valeur toujours insaisissable, ainsi que celle de l’unicité ou pas du boson de Higgs. Je fais ce rappel pour indiquer qu’il faudrait sérieusement considérer que le modèle standard de la cosmologie avec l’hypothèse du Big Bang est un modèle qui au bout de 50 ans a épuisé son utilité en tant que référentiel et étape d’auscultation de notre univers. Dorénavant il est la cause d’une crise, peut-être nécessaire si elle favorise le dépassement. Il faut que la pensée des physiciens se libère de ce qui constitue un carcan de cette pensée. Peut-être y sommes-nous. Voir P.S.

P.S. Dans le journal ‘Le Monde’ daté du 4 Avril, il y a un article de deux pages la ‘Matière noire, Clé introuvable de l’Univers’. Il y a un paragraphe qui a particulièrement retenu mon attention puisqu’au risque de vous lasser, à force d’articles, sous des angles multiples je réitère ce même constat : « La communauté scientifique vit donc une crise multiple : il y a une crise du WIMP qu’on ne voit pas dans les détecteurs ; il y a une crise de l’idée favorite des théoriciens, la supersymétrie, qui accompagnait le WIMP ; et il y a une crise de la théorie des cordes qui a besoin de la supersymétrie pour s’appliquer aux particules de matière. C’est typiquement le signal qui annonce un changement majeur…on se demande si cette crise n’est pas en train de nous amener à revoir notre conception de l’espace et du temps. » Est-ce que je peux maintenant m’exclamer, ‘Diantre, je découvre avoir, là-bas, des compères qui ont aussi saisi où se trouve le nœud de la crise ainsi que sa résolution, et non des moindres, entre autres E. Witten qui sous pèse : « L’espace-temps est peut-être maudit » ou N. Seiberg qui déclare que l’espace-temps était « une illusion ». Il aurait ajouté : « Il faut changer nos lois ». Je peux ajouter, non il n’y a rien à changer, mais il faut comprendre que nos lois résultent de notre aperçu du monde avec lequel nous sommes en contact (dépendant de nos capacités instrumentales d’observations), aperçu correspondant à nos capacités actuelles de le penser. Et à la base de cette conception je postule que le sujet pensant est le fondateur de l’espace-temps. Autrement dit l’espace-temps est un propre de l’être humain. Dès lors que N. Seiberg et d’autres accepteront ce fondement, j’ai la conviction que sans changer nos lois actuelles, ils pourront en formuler de nouvelles.     

Partager cet article
Repost0
23 mars 2018 5 23 /03 /mars /2018 07:49

Trois communications qui pourront n’en faire qu’une…

            N’en faire qu’une sera dans un futur assez proche car il me semble que les principaux ingrédients constitutifs d’une communication unique, unifiant, sont déjà bien pensés dans chacune des communications que je cite ci-après.

Première communication : ‘Un progrès dans la précision des horloges atomiques optiques"A Boost in Precision for Optical Atomic Clocks’. Ce nouveau record de précision des horloges atomiques est publié dans le Physical Review Letters du 5 mars. Une équipe de l’Université du Colorado a maintenant établi un nouveau record parmi les horloges atomiques optiques en réalisant une horloge de strontium (Sr) avec une précision relative de 2,5 × 10-19s, améliorant le record de 2017 : 3,5× 10-19s. Soit une imprécision de 100ms sur la durée de vie estimée de l’Univers. Bien que Les horloges atomiques actuels marquant le temps officiel perdent l'équivalent de seulement une seconde tous les 200 millions d'années (soit une précision de 1×10-16s) les métrologues ne sont pas, plus, satisfaits. Une norme de temps plus précise pourrait concrètement améliorer la navigation des vaisseaux spatiaux et aider les expérimentateurs à rechercher des variations des constantes fondamentales qui signaleraient une nouvelle physique. Étant donné que les horloges ont déjà des niveaux de précision aussi étonnamment élevés, pourquoi chercher à en savoir plus ? Pour un scientifique, la réponse est évidente : Avec chaque amélioration ce sont des nouvelles perspectives qui font jour pour l'exploration scientifique et donc pour des découvertes (sic). Des phénomènes autrefois impossibles à étudier ou des questions sur la nature qui semblent purement rhétoriques se transforment soudainement en lignes de recherche expérimentale. Par exemple : Les améliorations des horloges optiques peuvent également conduire à de nouvelles technologies, notamment des systèmes GPS avec une précision du subcentimètre, la navigation dans l'espace lointain, des télécommunications plus sûres, de nouvelles méthodes d'exploration des réserves de pétrole et de gaz et la détection plus précise des mouvements tectoniques.

En améliorant ainsi la précision des horloges nous pouvons accéder avec plus de précision à des phénomènes comme celui du magnétisme et celui de la supraconductivité.  Dans le futur la méthode peut permettre aux physiciens de finalement voir de la nouvelle physique telle que celle concernant la connexion entre la physique quantique et la gravité (sic).

Bref, en résumé, gagner en précision des mesures d’intervalles de temps c’est accéder à de nouveaux paysages scientifiques jusqu’à présent cachés aux observateurs. Ce fut le cas, il y a deux ans, quand une équipe australienne a réussi à observer un effet tunnel effectif d’un électron se produisant durant un intervalle de 10-18s. Ces résultats sont obtenus grâce à des progrès technologiques remarquables. La marche progressive de ces progrès est de plus en plus asymptotique mais malgré cette lenteur qui en résulte on pense qu’il y a encore une marge de gains possibles. ‘Homo Faber’ a de la ressource ! Cette corrélation évidente entre voir de la nouvelle physique et mesure d’intervalle de temps de plus en plus étroit, précis, nous encourage à penser à l’extension du champ des phénomènes et des propriétés physiques que nous devons encore éclairer. En même temps qu’en sera-t-il si de fait il y a une limite propre à l’être humain comme j’en fais l’hypothèse dans le voisinage de 10-25s ? Voir article du 21/07/2017 : ‘Flirte-t-on déjà avec le point aveugle ?

Deuxième communication : c’est l’article, dans le N° de Mars de ‘Pour la Science’ de G. Dowek : ‘Pourquoi le monde est imprédictible’, qui m’a inspiré pour cette deuxième communication. Au début de l’article l’auteur fait référence aux cogitations bien connues de Simon Laplace à propos du déterminisme classique et de la prédictibilité envisageable du futur du Monde. L’auteur y ajoute une préoccupation supplémentaire vraiment légitime : en conséquence, où doit se trouver l’intelligence qui serait censée moyennant sa capacité d’analyse immense et sa capacité de calcul de prédire le futur déterminé du monde ? Selon G. Dowek, si comme nous et comme nos ordinateurs, cette intelligence se trouve à l’intérieur du monde, il devient hardi de supposer qu’elle puisse calculer aujourd’hui l’état dans lequel le monde sera demain.

Je propose que l’on suive au plus près le raisonnement de l’auteur : « Imaginons une telle intelligence, par exemple un ordinateur, capable de prédire aujourd’hui l’état dans lequel le monde sera demain, et demain celui dans lequel il sera après-demain, etc., et qui présenterait chacune de ces prédictions sous la forme d’une image. Alors, comme cet ordinateur appartient au monde, il apparaîtrait lui-même sur l’image du monde de demain, et il y présenterait une image du monde d’après-demain. L’image du monde de demain contiendrait une image du monde de tous les jours suivant. Ainsi, prédire l’état dans lequel le monde sera demain demanderait de prédire aussi celui dans lequel il sera après-demain, après-après-demain, etc. Cela demanderait donc une quantité infinie de calculs, impossibles à effectuer en un temps fini.

Ainsi, nos possibilités de prédictions ne sont pas uniquement limitées par l’indéterminisme du monde ou par notre connaissance imparfaite de celui-ci, comme le supposait un certain idéalisme qui plaçait l’observateur à l’extérieur du monde, mais également par le fait que nous ne pouvons faire de prédictions que depuis l’intérieur du monde lui-même.

Ce constat que l’imprédictibilité est aussi liée aux limites du traitement de l’information illustre deux idées caractéristiques de la « pensée informatique », de la façon dont les informaticiens pensent. La première idée est que ce n’est pas uniquement l’existence d’un algorithme qui importe, mais aussi sa complexité, c’est-à-dire le temps que prend son exécution. Si un algorithme, par exemple, permet de prédire un séisme, mais que ce calcul prend plus de temps que celui qui nous sépare de cet événement, nous ne pouvons parler, au sens propre, de « pré »diction. La seconde idée est que les ordinateurs ne sont pas des abstractions hors du monde, mais des objets soumis aux lois de la physique, lesquelles contraignent, de ce fait, ce que nous pouvons calculer. (Sic)»

Cette communication n°2 est bienvenue pour nous rappeler que le sujet pensant avec tous les outils, les plus puissants et les plus sophistiqués, qu’il puisse élaborer pour favoriser sa quête de connaissances est totalement partie prenante du monde qu’il cherche à connaître. Et nous ne pouvons pas faire abstraction que cette assertion conduit à des contraintes dont nous ne pouvons pas nous émanciper si facilement. Pour ma part, ce rappel n’est pas suscité pour prétendre qu’il y aurait des limites incontournables qui in fine contrecarreraient définitivement notre quête de connaissances en physique, mais pour rappeler la nécessité impérative d’avoir une intelligence des choses qui ne soit pas troublée par l’idéalisme, et qui assume que le sujet pensant avec ses déterminations et ses outils qui participent à la dynamique de sa quête sont parties de ce monde prospecté.

Troisième communication :

  En grande partie, dans l’article du 20/02/2018 : ‘S’écarter du CERN’, j’ai déjà cité l’article qui est l’objet de cette 3e communication. C’est l’article du 12/01/2018, dans Phys.org : « Vitesse quantique limite peut freiner l’ordinateur quantique. » ; « Quantum speed limit may put brakes on quantum computers », qui enrichit et conforte les arguments de l’auteur de la 2e communication et qui confirmeraient ceux que j’ai déjà développés dans de nombreux articles et in fine valideraient mon hypothèse. Je cite quelques extraits de cet article de Sebastian Deffner : «… mais ma recherche récente a révélé que les ordinateurs quantiques auront des limites (de vitesse de calcul) qui leurs seraient propres – et a indiqué la voie par laquelle on peut préciser ce qu’elles seraient… » ;  

Les limites de la compréhension.

« Pour les physiciens, nous, humains, vivons dans ce que nous appelons le monde « classique » et dans ce contexte nous avons progressivement compris intuitivement la physique. Avec les lois de la physique classique il y a des limites théoriques qui s’imposent. Mais elles sont tellement élevées : par exemple nous savons qu’un objet ne peut jamais dépasser la vitesse de la lumière. Les gens ne rencontrent jamais les limites physiques du monde, mais elles existent (Sic). Jusqu'à récemment, cependant, les savants avaient seulement une idée assez vague que la physique quantique avait des limites aussi, mais ne savaient pas réellement comprendre comment cela pourrait s'appliquer dans le monde réel. »

« L’incertitude de Heisenberg »

« Il est important de réaliser que cette « incertitude quantique » n’est pas un défaut de l’équipement de mesure ni de l’ingénierie, mais témoigne plutôt de la façon dont notre cerveau fonctionne (sic). Nous avons évolué par l’intermédiaire d’une confrontation courante avec le "Monde Classique " et nous comprenons comment il fonctionne alors que les mécanismes physiques réels du "Monde Quantique" sont tout simplement au-delà de notre capacité à les saisir pleinement »

Ce 15 mars, un nouvel article dans Phys.org a signalé les résultats des travaux de deux équipes du MIT et de l’Université de Tokyo pour indiquer, et ceci pour la première fois, que les limites de la vitesse quantique ont une contrepartie : des limites de la vitesse classique. Ces nouveaux articles indiquent que « Les limites de vitesses basées sur le troque entre énergie et temps existent tout autant dans les systèmes classiques que dans les systèmes quantiques. Ces résultats démontrent que les limites de la vitesse quantique ne sont pas la conséquence d’un quelconque sous-phénomène quantique mais au contraire sont la conséquence d’une propriété universelle de la description de tout processus physique, qu’il soit quantique ou classique » ; « Comme les limites de vitesse quantique ont des applications potentielles pour comprendre les limites ultimes de l'informatique quantique, les nouveaux résultats peuvent aider à déterminer quels scénarios peuvent bénéficier d'une accélération quantique par rapport aux méthodes classiques. »

 

Partager cet article
Repost0
20 mars 2018 2 20 /03 /mars /2018 08:24

La vérité laide

‘The ugly truth’ : ‘La vérité laide’, est le titre d’un article du 3 mars 2018 dans le NewScientist qui valablement commence à interroger l’impasse dans laquelle les physiciens théoriciens et expérimentateurs de la physique des particules élémentaires se trouvent coincés. C’est la première fois que je lis un article qui va dans le sens d’articles que j’ai postés, notamment le 08/11/2011 : ‘Qui se permettra de le dire’ ; le 16/01/2016 : ‘Et si notre pensée était mal placée’ ; le 29/09/2017 : ‘Un déni ne procède pas d’une démarche scientifique’. Le sous-titre de l’article du NS relate que les physiciens ont cru longtemps que l’univers doit être beau et a juste titre l’auteur : Daniel Cossins, indique que Paul Dirac (un des fondateurs de la théorie quantique des champs), à la fin des années 1930, adepte de la philosophie de Platon, avait exprimé la conviction qu’il était guidé par la recherche de la beauté dans les équations plutôt que de chercher à les vérifier expérimentalement. Selon lui la beauté était incorruptible et donc source de vérité vrai. C’est-à-dire, selon lui, la nature est réellement harmonie.

            Cette conviction est semblable à celle des réalistes et elle guide le travail d’une très grande majorité des physiciens théoriciens. Etrangement dans cet article le concept de réalisme n’est pas utilisé, il est substitué par celui de naturalité : « Une dévotion presque religieuse à la beauté continue de servir de référence parmi les théoriciens de la physique fondamentale. Une vision de l’élégance en particulier s’est imposée en premier plan : le principe de la naturalité (the principle of naturalness). Globalement dit, il est cru que les lois de la nature seraient sublimes, inévitables, et intrinsèques, au contraire de fabriquées et arbitraires. »

            Mais si ce n’était pas ainsi ? C’est la possibilité inquiétante qui est nouvellement partagée par un nombre de plus en plus important de physiciens depuis la découverte du boson de Higgs (2012) qui aurait dû constituer une percée enclenchant en conséquence une série de découvertes récurrentes. En fait la découverte du boson de Higgs, nous aurait plutôt confirmé la fin d’un cycle de prédictions, nous aurait plutôt confirmé l’épuisement du référentiel théorique constitué par la théorie quantique des champs avec ses propriétés de symétrie (signes d’harmonies), que les physiciens croyaient, inépuisable. Ainsi M. Dine, théoricien de l’Université de Californie nous dit : « Il se pourrait que nous comprenions que la nature n’est pas si naturelle (sic). » Ainsi la théorie en cours de la supersymétrie qui profite ‘naturellement’ des succès précédents des propriétés d’unifications ne conduit pas, jusqu’à présent, à des prédictions observables. Pourtant le L.H.C a été conçu pour détecter des particules supersymétriques (sparticules), mais les détecteurs sont muets. Depuis 6 années nous sommes carencés de nouveautés.

            « Nous sommes coincés, nous ne voyons rien venir, ce qui me rend suspicieux et nous aurions donc pris le mauvais chemin avec le principe de naturalité. » nous dit Ben Allanach : théoricien de l’Université de Cambridge. Effectivement, de plus en plus de physiciens commencent à vaciller, ainsi Gian Giudice, directeur du département de physique théorique au CERN, a récemment concédé que la naturalité n’offrait pas la bonne vision théorique pour progresser et il considère que nous sommes à un tournant. Sabine Hossenfelder, théoricienne allemande, indique dans un prochain livre à sortir : ‘Comment la beauté conduit la physique à l’égarement.’ Mais n’oublions pas que le conservatisme est une tendance étonnamment très prégnante au sein de la communauté scientifique des physiciens. Comme l’affirme Allanach beaucoup de physiciens ne sont pas prêt, loin de là, à franchir le Rubicon. Ainsi M. Dine a toujours l’espoir que les particules supersymétriques existent, a des énergies plus élevées que prévues, au point qu’aucune machine ne pourra les produire !!

             Ceux qui ont renoncé au principe de la naturalité et à l’impasse du boson de Higgs avec sa masse si faible, trop faible, conduisant à un cul-de-sac, considèrent que la théorie des multivers est une alternative car elle permet d’échapper au principe anthropique[1]. Echapper au principe anthropique c’est d’une certaine façon vouloir échapper à l’idée que nous sommes dans un univers dont nous connaissons déjà en grande partie ce qu’il est, avec une origine, un déploiement, un contenu élucidé, bref une représentation à laquelle il ne resterait plus qu’à découvrir des détails secondaires bien que parfaitement nécessaires. Cette conception des choses est corrélée à l’idée que les êtres humains que nous sommes aujourd’hui, sont des êtres aboutis du point de vue des capacités cognitives qui seraient émancipées de toutes déterminations, bref, les connaissances que les êtres humains sont capables d’inférer en observant la nature ont une valeur universelle. Vouloir échapper au principe anthropique par le biais de la théorie des multivers ne peut pas être confirmé car cette théorie résulte de la théorie quantique des champs et donc cette pensée théorique des physiciens se déploie encore dans le même référentiel naturaliste, réaliste. On mesure donc qu’il est difficile d’inaugurer une nouvelle pensée ouverte sur la nature, et notre rapport avec elle, en dehors des schémas déjà empruntés.

            Ce que je propose, pour sortir de l’impasse, c’est qu’il nous faut aussi interroger l’être humain qui interroge la nature, en prenant en compte qu’à l’origine l’être humain est un être de la nature. Comme je l’ai déjà précisé, cela oblige les physiciens, pour qu’ils renouvellent effectivement leur référentiel, à penser en puisant dans d’autres corpus de connaissances tels que la paléoanthropologie et les neurosciences. Quand le paléoanthropologue Jean Guilaine nous dit : « Il me semble en effet que l’intégration psychique espace-temps chez l’homme (voire ses progrès) doit être abordée au départ, c’est-à-dire aux temps de l’hominisation voire au Paléolithique inférieur. Il est certain, du moins je pense, que cette notion est totalement bien maitrisée au Paléolithique moyen et supérieur chez les Sapiens ne serait-ce qu’en raison de la nécessité de déplacements saisonniers pour se procurer de la nourriture… », il y a vraiment matière à réfléchir ensemble. Lorsque le neuroscientifique S. Dehaene nous dit : « Je me demande si la capacité de représentation symbolique et récursive n’est pas apparue, dans un premier temps, indépendamment du langage, avant tout comme un système de représentation rationnelle du monde. Le cerveau d’Homo erectus avait peut-être déjà atteint la compétence d’une machine de Turing universelle, capable de représenter toutes les structures logiques ou mathématiques possibles… », il y a vraiment matière à creuser ensemble, et s’interroger si cela peut être plus ou moins validé, quelles seraient alors les conséquences contemporaines chez l’homme moderne ?

 

[1] Ce principe conduit à penser que l’univers a les propriétés qui sont les siennes parce que c’est celui où nous vivons et que nous pensons. Echapper au principe anthropique c’est refuser des limites à l’enquête scientifique.

Partager cet article
Repost0
25 février 2018 7 25 /02 /février /2018 12:33

Bilan utile suite au dialogue M. Mueller – Ph. Maulion

Dans l’article du 16/02, nous avons été amenés à évoquer quatre références théoriques dont chacune a vocation à rendre compte pourquoi l’être humain a mis, et continue de mettre en évidence des lois physiques, dans quel contexte, et pour chacune d’elles quel est processus qui les justifie.

La première référence théorique nettement dominante est celle du réalisme. On peut la résumer ainsi : les lois de la physique que l’être humain a découvert jusqu’à présent sont celles qui atteignent l’os du monde réel. Malgré les difficultés d’interpréter les propriétés que nous identifions en mécanique quantique dans le cadre du réalisme, celui-ci est toujours intellectuellement rassurant en conséquence il est pensé qu’il y a un monde quantique réel.

La référence théorique franchement minoritaire est celle que je propose et que l’on peut qualifier d’anthropocentrique. C’est-à-dire que c’est l’intelligence évolutive de l’être humain qui est fondatrice des lois physiques sans pouvoir faire référence à une quelconque réalité car celle-ci nous est inaccessible et ne peut être évoquée. Le tropisme d’un monde réel sans ‘Présence’ est superflu. Souvent je la résume suivant cette dynamique : « Au sein d’une éternité, parmi tous les possibles, l’anthropos ne cesse de creuser sa connaissance de l’univers… »

Markus Mueller nous propose une nouvelle théorie qui par beaucoup d’aspects semble identique à celle que je propose mais elle fait référence, certes sur un mode mineur, à un fond de monde réel. Ce monde réel est, selon son hypothèse, clairsemé dans le sens où il ne comprendrait pas toutes ces lois courantes que nous croyons avoir identifiées. Mais il y aurait ce monde préalable, celui qui sert de support à ce qu’il appelle ‘le point de vue de la première personne’. Il y a donc une hybridation qui n’a pas de justification autre que celle de pouvoir entreprendre, grâce à la théorie algorithmique de l’information, une simulation du monde tel qu’in fine, il nous apparaît.

La quatrième référence théorique faiblement suggérée, au cours de ce dialogue, se dénomme :’ QBism’ soit la contraction de ‘Quantum Bayesianism’. Grâce à cette théorie, depuis une quinzaine d’années, il est tenté de repenser les fondements de la mécanique quantique hérités de l’Ecole de Copenhague en intégrant un rôle significatif à la conscience de l’observateur. Avec le QBism, une nature subjective est objectivement attribuée aux fondements de la mécanique quantique. C’est à dire que la conscience de l’observateur conditionne les résultats de la mesure sur l’objet quantique. Pour certains le QBism est une forme d’antiréalisme, pour d’autres il est considéré comme un ‘réalisme participatif’. A mon sens ces atermoiements entre, subjectivisme-antiréalisme/réalisme participatif, sont dus au fait que la conscience, en général, de l’être humain : on ne sait pas ce que cela signifie. Aucune compréhension et partant aucune définition stable ne peut prévaloir car état de conscience que l’on peut corréler à état d’éveil, diffère d’un individu à l’autre. Pas de conscience générique ! en conséquence c’est une notion qui ne peut être exploitée dans le cadre de la physique. (Voir article du 11/01/2014 : ‘L’étrangeté quantique, une illusion ?’).

J’ai quelques raisons de penser que la référence théorique que je privilégie a de l’avenir car je rencontre des recoupements dignes d’intérêt. En citant ce que j’ai exprimé avec conviction dans l’article du 11/01/2014 : « L’étrangeté provient du fait que nous sommes des êtres classiques, déterministes, déterminés par notre rapport façonnant avec la Nature à l’échelle classique et notre intelligence naturelle ne peut évoluer que lentement au fur et à mesure que notre rapport avec la Nature s’enrichit, se densifie, s’approfondit. », et en le mettant en rapport avec cet extrait de l’article du 12/01/2018 de Sebastian Deffner sur le site de Phys.org : « Il est important de réaliser que cette « incertitude quantique » (de Heisenberg) n’est pas un défaut de l’équipement de mesure ni de l’ingénierie, mais témoigne plutôt de la façon dont notre cerveau fonctionne (sic). Nous avons évolué par l’intermédiaire d’une confrontation courante avec le "Monde Classique " et nous comprenons comment il fonctionne alors que les mécanismes physiques réels (sic) du "Monde Quantique" sont tout simplement au-delà de notre capacité à les saisir pleinement ». J’ai, avec cet exemple, une bonne raison de penser, qu’avec S. Deffner, il y a une convergence de pensée très intéressante qui accorde donc une primauté aux capacités d’inférer du ‘sujet pensant’ pour décrypter le monde physique. C’est-à-dire que nous le pensons en fonction de nos capacités intellectuelles. J’ajoute que notre capacité à saisir pleinement les mécanismes évoluera grâce au développement d’une capacité à penser quantique. Nous devons considérer que notre évolution cérébrale est toujours en cours. Avec cet exemple j’ai une bonne raison de penser que Deffner a déjà intégré l’idée que le référentiel traditionnel des physiciens doit s’enrichir de ce que les corpus de la paléoanthropologie et des neurosciences ont déjà mis en relief.

A sa façon, S. Dehaene a déjà anticipé ce décloisonnement fertile que j’ai relevé largement dans l’article précédent avec la citation relative à son hypothèse de la compétence supposée du cerveau d’Homo erectus.

Avec ces citations récentes, il est possible d’espérer que l’élargissement du champ d’investigation traditionnel des physiciens que je préconise soit progressivement adopté. Toutefois, il ne faut pas oublier qu’en son temps E. Mach (cité dans l’article précédent), il y a plus d’un siècle avait exprimé des idées très claires et incisives sur ce sujet sans qu’elles essaiment pour autant dans le champ de réflexion des physiciens.

Je continue d’être évidemment vigilant à l’égard de toutes les expressions nouvelles sur ce sujet et je veux espérer pouvoir les signaler dans des prochains articles. A suivre…

Partager cet article
Repost0
16 février 2018 5 16 /02 /février /2018 09:00

Dialogue Markus Mueller – Ph. Maulion

Rappel : le 27/11/2017, j’ai posté un article : ‘La réalité ? C’est vous qui la faites II’ dans lequel je privilégiai le cheminement intellectuel du physicien théoricien Markus Mueller. La raison de ma curiosité et de mon intérêt à l’égard de ses recherches et publications tient au fait que ses hypothèses fondamentales sont très semblables aux miennes. Toutefois elles sont les mêmes préalables pour une exploitation très distincte. Je me suis rapproché de Markus pour tenter de constater les convergences et les différences entre nos façons, au-delà de nos hypothèses communes, d’extraire des conclusions. Markus exploite un arsenal mathématique très sophistiqué pour produire une modélisation théorique que vous pouvez consulter sur arxiv : https://arxiv.org/abs/1712.01816,ainsi que https://arxiv.org/abs/1712.01826, articles publiés le 05/12/2017


Ci-après, je joins quelques échanges de notre correspondance qui précisent nos points essentiels d’accord et ceux de désaccord.

Email que j’ai envoyé à Markus Mueller, le 11/12/2017 :

J’ai lu avec attention l’article de Philip Ball dans le NewScientist qui expose votre conception fondamentale du processus de découverte du monde physique par les physiciens.

            Avec votre conception, j’ai rencontré des convergences intéressantes mais moins radicales. Je suis en accord avec vous pour rejeter la conception des QBists. Je suis d’accord pour affirmer que les lois fondamentales de la nature – relativité générale, équations de Maxwell ou principe d’incertitude de Heisenberg – ne sont pas des lois de la nature mais elles sont là, intellectuellement conçues et font sens. Ces lois sont l’émanation de l’esprit humain[1] et révélatrices de l’interaction, de la dépendance, de l’être humain à l’égard de la nature. Pour moi : « La physique doit être décrypter comme une science de l’interface de l’être humain réflexif et de la nature. »

            Je suis en accord avec vous pour considérer que la loi de Bayes jouent un rôle dans notre quête de connaissance parce que les neuroscientifiques ont découvert (depuis 2011, à ma connaissance) que le cerveau humain est déterminé par la statistique bayésienne et il infère selon cette loi.

            Je suis d’autant plus en accord avec vous que je fais l’hypothèse que l’être humain véhicule d’autres déterminations et notamment que notre conception de l’espace-temps ne se réfère pas à la nature mais qu’il est un propre de l’homme. Selon mon hypothèse cela explique pourquoi les lois fondamentales de la physique quantique nous apparaissent si bizarres et encore maintenant indécryptables. Cette hypothèse peut être testé en réalisant une expérience comprenant une équipe mixte de physiciens, de neuroscientifiques. Par exemple mon expérience pourrait expliquer pourquoi l’étrangeté quantique de la lumière survit après un aller et retour dans l’espace.

             Ceci constitue une synthèse de ma théorie, depuis 10 ans que je l’échafaude. La vôtre m’intéresse car j’y trouve des convergences et je souhaiterais que l’on puisse en discuter si cela vous convient.

Markus m’a répondu le 13/12/2017

Je suis profondément d’accord avec votre idée qu’il est essentiel de voir que les lois de de la nature doivent être comprises comme décrivant l’interface entre les observateurs (par exemple humains) et le monde en quelque sorte, et non comme “directement le monde en soi ”, qu’elle qu’en soit la signification. En particulier, comme vous l’avez écrit, je suis d’accord que cette vision est essentielle pour comprendre le monde quantique.

Je pense pourtant qu’il peut y avoir un important point de désaccord entre nous, sur ce que nous signifions en disant cela. Laissez-moi illustrer cela à titre de comparaison, notamment avec la fameuse expérience de pensée du “physicien dans l’ascenseur“. Comme vous le savez sûrement très bien, ici l’expérience de pensée dit qu’un scientifique dans un ascenseur ne peut jamais savoir si l’ascenseur est en chute libre ou bien planant dans l’espace ailleurs.
Étant donné cela (sans connaître la relativité générale), on peut exprimer différentes conclusions possibles. Une conclusion possible serait de dire que cela révèle une limite essentielle des observateurs et d’une certaine manière que nous ne puissions jamais connaître le monde directement. Mais une autre conclusion possible serait que “les 2 situations sont fondamentalement les mêmes“ en quelque sorte — ce n’est pas une limite de l’observateur, mais une compréhension du monde actuel que nous obtenons (déduisons) de cette expérience de pensée.
Dans ce cas, la dernière conclusion est la plus féconde, puisque conduisant à une formulation du principe d’équivalence.


Maintenant, dans l’approche que je considère, je prends les limites fondamentales au sérieux dans le dernier sens. Ma vision est *non* : nous humains nous ne sommes pas en quelque sorte limités, mais c’est l’ontologie du monde qui est simplement plus clairsemée (réduite) que nous ne le pensons. S’il n’y a en principe aucun moyen de connaître quoi que ce soit concernant ce monde sous-jacent, alors peut-être (et c’est mon hypothèse) il n’y a simplement pas une telle chose comme un “monde“ selon la manière habituelle que nous tendons à le penser. Une question naturelle alors est : “mais pourquoi pratiquement cela nous apparaît comme s’il y en avait un“ et c’est sur ce thème que le plus gros de mon travail est publié dans mes articles — notamment celui qui propose la notion émergente de “monde“ automatiquement, et qui ressemble sous plusieurs aspects fondamentaux à celui que nous voyons.

Ci-dessous : Abstract de l’un de ses articles cités sur arxiv, traduit par mes soins :

Le monde physique pourrait-il être émergent au lieu d’être fondamental, et pourquoi devrions-nous nous le demander ?

Selon la conception courante de la physique, une théorie physique valide est supposée décrire l'évolution objective d'un monde extérieur unique. Cependant, cette hypothèse est contestée par la théorie quantique, qui indique que les systèmes physiques n'ont pas toujours des propriétés objectives qui sont simplement révélées par la mesure. En outre, comme soutenu ci-dessous, plusieurs autres énigmes conceptuelles dans les fondations de la physique ainsi que des domaines connexes indiquent des limitations possibles de la perspective courante et motivent l'exploration d’alternatives.

Ainsi, dans cet article, je propose ici une approche alternative qui commence avec un (rigoureusement formalisé) concept d'«observation» comme première notion, et qui n'assume pas d'emblée l'existence d'un «monde» ou de lois physiques. Elle peut être incluse dans un postulat unique : à savoir que l'induction de Solomonoff prédit correctement les observations futures. En utilisant des outils de la théorie algorithmique de l’information, je montre que la théorie qui en résulte suggère une explication possible pour rendre compte pourquoi il y a des ‘lois de la nature’ probabilistes calculables simples en premier lieu. Il prédit l'émergence de la notion d'un monde extérieur objectif qui a commencé dans un état de faible entropie. En outre, Modulo une conjecture/supposition, il prédit aussi que les observateurs verront typiquement les caractéristiques de la théorie quantique, à savoir la violation des inégalités de Bell, malgré la validité du principe de non-signalisation. Ces caractéristiques sont liées à l'incertitude d'auto-localisation (sic) des observateurs (comme le tristement célèbre "Sleeping Beauty Problem") et aussi au "Principe Principal" de David Lewis.  En outre, la théorie résout le problème du cerveau de Boltzmann de la cosmologie via un «principe de régularités persistantes », et il fait la prédiction inhabituelle que la notion émergente d’un monde objectif externe se décompose dans certaines situations extrêmes, conduisant à des phénomènes tels que  "probabilistes zombies " En outre, il fait en principe des prédictions concrètes pour certains problèmes conceptuels fondamentaux liés à la simulation par ordinateur d'agents intelligents (d'observateurs).

Ce document ne prétend pas décrire exactement « comment fonctionne le monde ». Il ose plutôt soulever la question de savoir si le point de vue de la première personne peut être un départ plus fructueux pour aborder certaines questions fondamentales de longue date, et il fournit une preuve du principe que nous pouvons construire de simples théories rigoureuses de ce genre qui semblent être cohérentes avec nos observations physiques.

Ma réponse communiquée le 15/02/2018 :

Maintenant que nous avons identifié les points d’accord significatifs qui contribuent à nos conceptions respectives, expliquant pourquoi l’être humain atteint une connaissance d’un monde physique sans lien avec une quelconque réalité physique supposée, il est maintenant approprié que nous mettions en évidence nos différences voire nos divergences. Celles-ci pouvant, peut-être, aider à améliorer nos conceptions respectives.

A priori vous considérez que l’être humain (sujet pensant) n’a pas de limite. A priori je considère que l’être humain générique est vecteur de déterminations et chacune de celles-ci est levée lorsqu’un nouveau paradigme de la physique permet d’expliquer ce qui auparavant ne l’était pas. Prenons comme exemple[2] le paradigme des valeurs discrètes des grandeurs de la physique atomique (quantique) et pensons à la résistance de M. Planck, lui-même, à accepter ce paradigme. Mais le caractère discret des valeurs quantiques fondamentales, s’est imposé à l’intelligence de la communauté des physiciens (via N. Bohr et Heisenberg) et puis, progressivement, s’est naturellement (intellectuellement) imposé auprès des chimistes et des biologistes. Les scientifiques pensent de mieux en mieux naturellement quantique mais pas encore totalement puisque la propriété d’intrication[3] n’est pas encore explicable. Cela le sera lorsqu’un nouveau paradigme s’imposera à l’intelligence collective des physiciens, mon hypothèse est : l’espace-temps est un propre de l’homme.

Lorsque le bon paradigme s’imposera, bien des énigmes actuelles de la physique fondamentale seront levées. C’est ce que nous dit L. Smolin avec le titre de son livre : La renaissance du temps : Pour en finir avec la crise de la physique’ (bien que, selon moi, son paradigme du temps réel soit erroné). A partir de cette situation nouvelle un cours nouveau d’avancées significatives de connaissances en physique s’engagera jusqu’à ce que de nouveaux obstacles à la dynamique de la compréhension du monde tel qu’il apparaît aux physiciens surgissent. Des déterminations ignorées jusqu’à ce point feront obstacles et se lèveront à force de nouveaux paradigmes.

Selon ma conception, une détermination correspond à une impossibilité de la part de la communauté scientifique à formuler une pensée fondamentale nouvelle jusqu’à ce qu’objectivement confrontée à ses contradictions la communauté accepte de concevoir ce qui était auparavant impensable. Lever une détermination cela correspond à l’enrichissement du patrimoine culturel, intellectuel, cérébral, qui permet d’aller vers de nouvelles découvertes, de nouvelles compréhensions pour l’être humain.

Je privilégie la connaissance en physique parce que c’est le domaine de la confrontation première, principale et objectivable entre l’être humain et la Nature et elle se situe dans une dynamique sans fin de survie comme l’exprime en synthèse Mach. Ernst[4].

Je privilégie le concept de détermination parce que l’être humain a une origine naturelle, c’est-à-dire qu’il fut avant tout un : ‘Être de la Nature’ et il devint progressivement un : ‘Être dans la nature’, dans la nature lorsqu’il commença à investir avec une pensée première[5] : la Nature, grâce à un facteur primordial (très difficile à identifier mais il ne faut pas l’exclure dans le futur). Cette fracture, ce surgissement, sont balisés par mon concept de ‘Présence’ car ‘l’Être dans la Nature’ qui commence à se hisser sur son promontoire d’observation, qui prend du recul, est un intrus avec un bagage intellectuel rudimentaire propre, il est totalement hétérogène à ce qu’est la Nature.

Formulons l’hypothèse que cela s’est engagé lors de la transition Australopithèques/Homo, peut-être avant, mais il y eut une transition avec le surgissement d’une ‘Présence’[6]. De là, s’engage une évolution physique globale de l’être pensant incluant le cerveau avec sa structure[7] (jusqu’au stade de la globularitée actuelle[8]) donc des facultés intellectuelles c’est-à-dire des facultés à distinguer, à différencier, à corréler, à apprendre, à communiquer, grâce à un processus d’apprentissage et de mémorisation. Lever progressivement les déterminations qui sont liées à cette origine naturelle est la raison d’être de l’humain.

Comme vous pouvez le constater mon observateur est toujours et absolument incarné. La mise en évidence d’un paradigme nouveau correspond toujours à une rupture, à un saut historique de capacités intellectuelles nouvelles qui s’appuient sur un savoir nouveau acquis. Un paradigme ne peut être simulé… avant qu’il ne soit effectivement pensé c’est-à-dire qu’il ne soit effectivement déclaré et accepté par la communauté scientifique. Peut-être qu’une fois que ce paradigme est considéré comme opérationnel cela peut se voir au niveau cérébral grâce à des connexions cérébrales nouvelles qui s’établissent d’une façon pérenne, ou tout au moins plus fréquemment, selon la théorie de l’apprentissage (cela est encore trop tôt pour être affirmé globalement et scientifiquement même du point de vue des neurosciences).

A propos des physiciens qui intègrent le concept de la conscience à la base de leur conception théorique, je considère qu’ils font fausse route car la conscience en général est insaisissable, indéfinissable. Seulement la conscience de quelque chose est identifiable et depuis une vingtaine d’années nous mesurons que la conscience de quelque chose nécessite une durée de 1/3 de seconde. Cette contrainte temporelle de notre prise de conscience ne peut pas être sans conséquence.

Comme vous pouvez le constater, je m’appuie sur d’autres corpus que ceux de la physique et des mathématiques, principalement ceux de la paléoanthropologie et ceux des neurosciences. Ces corpus sont maintenant de plus en plus consistants grâce aux technologies nouvelles d’observation, d’évaluation. Je n’hésite pas à considérer que les physiciens devraient dorénavant puiser dans ces corpus et dialoguer avec les spécialistes en question. Les physiciens ne peuvent plus considérer que leur référentiel propre est toujours autosuffisant pour aborder et traiter les questionnements actuels. Un manifeste Européen qui réunirait les leaders de ces trois corpus pour préconiser : comment associer ceux-ci pour engager des recherches sous un angle nouveau serait le bienvenu. Je prends en exemple le neuroscientifique français S. Dehaene qui nous dit : « La pensée géométrique est assez ancienne. Il est très intrigant de voir que, il y a 1.6 à 1.8 millions d’années, les hommes façonnaient déjà des objets aux propriétés mathématiques élaborées, notamment des pierres en forme de sphère, comme s’ils possédaient la notion d’équidistance à un point… Dès lors, je me demande si la capacité de représentation symbolique et récursive n’est pas apparue, dans un premier temps, indépendamment du langage, avant tout comme un système de représentation rationnelle du monde. Le cerveau d’Homo erectus avait peut-être déjà atteint la compétence d’une machine de Turing universelle, capable de représenter toutes les structures logiques ou mathématiques possibles… ». Bien que je n’adhère pas a priori au point de vue de S. Dehaene, je suis convaincu que physiciens et mathématiciens ont tout à gagner à s’enquérir sur quelle base S. Dehaene formule cette hypothèse. En tant que neuroscientifique, il a des raisons de formuler cette hypothèse. Quelles sont ces raisons ? 

Pour nous, les lois physiques sont des inventions de l’être humain qui résultent d’un processus d’interprétation évolutif des lois de la nature. Pour moi cela s’inscrit dans un processus de survie de l’espèce au sein de cette nature. Ainsi la problématique d’une réalité physique ne se pose pas (c’est un cadre qui n’a pas de valeur opérationnelle) puisque ce qui est central c’est la dynamique de la compréhension sans fin de lois physiques à laquelle est associée une dynamique perpétuelle d’évolution de l’espèce humaine.

Notre conviction commune que l’être humain ne peut pas être exclu de la réalité du monde physique a la valeur d’un socle commun à partir duquel nous pouvons mettre à l’épreuve les conséquences respectives que nous projetons.

            Selon mon point de vue, en premier lieu la ‘Présence’ de l’être humain inexpugnable de la réalité du monde physique conçue intellectuellement doit être concrètement identifiable et au moins quantifiable. Sinon on reste au niveau d’une conviction métaphysique[9]. Ainsi, le TpS (Temps propre du Sujet pensant), que je postule à partir de mon désaccord sur une assertion d’Einstein, et que j’identifie comme le point aveugle de l’intelligence humaine aurait une valeur de l’ordre de 10-25s. C’est-à-dire que les phénomènes et les événements qui ont une durée inférieure à cet ordre de grandeur ne peuvent être observés. Depuis que j’ai émis cette hypothèse, je constate, en faveur de celle-ci, qu’au CERN depuis le Boson de Higgs (τ estimé 10-21s) on n’observe rien dans les détecteurs. Nous ne pouvons pas affirmer qu’il n’y a rien à observer, pour le moment nous ne pouvons qu’affirmer : nous sommes incapables d’observer. Est-ce que cela est provisoire ou sera permanent ? De même nous pouvons détecter les ondes gravitationnelles que si elles font subir un déplacement minimum aux miroirs de 10-18m soit un Tic < 10-26s. De même, il y a une dizaine d’années on attribuait à l’électron une dimension de 10-18m, maintenant que l’on a gagné en précision de mesure on est objectivement obligé de dire qu’il n’a aucune dimension, et qu’il est ponctuel !! Cela ne veut pas dire que mon hypothèse est validée mais ces données expérimentales qui s’accumulent constituent des indices.

Enfin on peut conjecturer qu’il est difficile de penser que le fonctionnement avéré par intermittence de la conscience de quelque chose de la part du sujet pensant conduise à un fonctionnement intellectuel, observationnel, absolument continu du sujet pensant.

            Bref, selon ma conviction, le rebond théorique en physique fondamentale que nous attendons depuis des décennies sera préalablement le fruit d’au moins un nouveau paradigme et une logique mathématique nouvelle (peut-être déjà existante) mettra en œuvre des développements significatifs.

 

 

 

 

 

 

[1] Voir article de Etienne Klein dans ‘Pour la Science Hors-série Février-Mars 2018.

[2] Cela pourrait être la découverte de Newton ou encore l’annulation du concept d’éther, et donc admettre le principe d’une propagation dans le vide, etc…

[3] Bien que cette propriété telle qu’elle nous apparaît soit technologiquement exploitable et déjà largement exploitée.

[4] E. Mach, à son époque affirmait : “La tâche des théories physiques consiste à organiser notre expérience conformément au postulat de l’économie de la pensée. Une loi physique est un condensé d’expériences permettant de faire l’économie d’innombrables expériences, une théorie scientifique est une construction coordonnant nos sensations en vue de la prédiction d’expériences futures. Mach lecteur de Darwin, tient les concepts et les théories scientifiques pour des instruments de la survie de l’espèce. »

[5] Celle-ci est, selon mon hypothèse, en relation avec la nécessité de penser l’espace-temps pour se situer dans la nature locale et en conséquence situer l’autre (représentant d’une espèce, prédateur…).

[6] ‘Présence’ ne peut se confondre avec ‘Conscience’. Si celle-ci était identifiable en tant que telle, elle ne serait qu’une conséquence de la ‘Présence’. Le concept de la ‘Présence’ est un concept de l’ordre de l’existentialité.

[7] Il ne me semble pas que votre concept de : ‘first-person’, puisse se situer à ce stade et puisse se superposer avec cet ‘être pensant’ qui met en œuvre une faculté de se projeter, j’attends que vous m’indiquiez ce que vous en pensez.

[8] Très recent article : ‘The evolution of modern human brain shape’, Department of Human Evolution, Max Planck Institute for Evolutionary Anthropology, Deutscher Platz 6, 04103 Leipzig, Germany: “Modern humans have large and globular brains that distinguish them from their extinct Homo relatives. The characteristic globularity develops during a prenatal and early postnatal period of rapid brain growth critical for neural wiring and cognitive development”

[9] ‘Le Moment Présent’ que L. Smolin a identifié au cours de sa remarquable analyse des conséquences de la R. G. n’a jamais été évalué par l’auteur. Puisque vous avez l’occasion de discuter avec lui, si vous le pouvez, posez-lui la question pourquoi il n’a pas franchi ce Rubicon de l’évaluation en durée de ce ‘Moment Présent’ ?

Partager cet article
Repost0
16 janvier 2018 2 16 /01 /janvier /2018 08:14

S’écarter du CERN : Il y a une voie plus économique pour percer la physique.

Ce titre est celui de l’article (publié en accès libre), le 10/01 dans ‘Nature’ : ‘Step aside CERN : There’s a cheaper way to break open physics’. L’article est signé par le physicien Gerald Gabrielse qui ouvertement ne croit plus que le LHC et ses détecteurs puissent révéler une nouvelle physique s’il y en a une. Je cite : « Mais la production de six années de données au LHC n’a pas permis de produire quelque chose de nouveau. » ; « Plus de physiciens suivent la même direction que Gabrielse, avec de modestes installations expérimentales qui correspondent à la dimension standard des laboratoires universitaires. Au lieu des méthodes de la force brute telles que celles de collisions de particules, ces expérimentateurs utilisent des techniques de précision pour chercher des déviations extraordinairement subtiles sur les paramètres de la nature les plus fondamentaux. Quelques différences, aussi faibles qu’elles soient, pourraient indiquer la voie vers des champs futurs. »

Cet article laisse entendre qu’à défaut d’une analyse sérieuse et collective de l’impossibilité de faire émerger une physique originale, nouvelle, au CERN, les physiciens définissent à leur niveau des cibles de recherche qu’ils considèrent plus prometteuses. Toutefois ces cibles privilégiées sont déterminées par ce que le CERN n’a pas été en mesure de confirmer ni d’infirmer. Ce qui indique qu’il n’est pas possible de se dispenser de cette réflexion collective qui devrait s’imposer. Dans l’article du 29/09/2017, suite au silence assourdissant à propos de l’ICHEP du 21 au 22 septembre, j’avais proposé que l’absence de résultats significatifs, depuis plusieurs années, provenant du CERN, soit considérée comme un résultat expérimental. Selon moi, c’est le propre d’un scientifique d’enclencher une réflexion sérieuse quand il n’y a pas de réponse à une (des) question(s) posée(s).

J’ai déjà exprimé une inquiétude certaine dans l’article 16/01/2016 dans lequel j’ai été amené à énoncer un désaccord total (et c’était à regret) à l’égard du contenu du premier article d’arrivée en fonction de la Directrice Générale du CERN qui affirmait : « Si une nouvelle physique est là, nous pouvons la découvrir, mais c’est entre les mains de la nature. » Je ne prenais aucun risque en disant que préalablement il faut avoir la pensée bien placée pour détecter une nouvelle physique. Prenons en exemple le domaine de l’astrophysique où les moyens d’observations, quels qu’ils soient, sont définis par des cahiers des charges très précis, ceux-ci témoignant d’un investissement intellectuel significatif préalable de ce que l’on cherche à voir avant de mettre en œuvre ces moyens d’observations. On comprend ainsi la remarquable vitesse avec laquelle des découvertes nouvelles et des précisions nouvelles sont annoncées dans ce domaine.

A propos du développement de la physique des particules élémentaires, G. Gabrielse met le doigt sur le fait que l’essor du développement de cette physique est dû aussi à des critères exogènes à celles-ci. Il a raison de pointer cette dynamique exogène qui a prévalue et dont les inconvénients se font ressentir encore actuellement. Après avoir rappelé qu’en 1956, Mme Chien-Shiung Wu avait découvert une propriété[1] physique inattendue et remarquable grâce à un dispositif expérimental à l’échelle du laboratoire dont il préconise le retour, il nous rappelle : « Mais la physique se développait déjà vers la création d’instruments de plus en plus gros et de plus en plus coûteux. Soutenu par un flux de crédits et de prestiges (sic) de l’après-seconde guerre mondiale et par les prédictions de nouvelles particules qui émergeraient des collisions à haute énergie, les physiciens demandaient des accélérateurs de particules toujours plus puissants et plus onéreux. Et ils les obtinrent : les équipements jaillissent à Stanford, au Fermilab, près de Batavia (Illinois), au CERN près de Genève, et ailleurs. Quarks, muons, neutrinos et, finalement le boson de Higgs était découvert. Le Modèle Standard était complet. » Quelques lignes plus loin il s’exclame : « J’aime dire que le Modèle Standard est un grand triomphe et une grande frustration de la physique moderne. D’une part, il permet aux physiciens de prédire et de calculer quelques quantités (avec une précision ridicule (sic)), d'autre part, nous avons un trou (de connaissances) dans lequel nous pouvons installer l'Univers. » Il est vrai qu’il peut exploiter cette image du trou dans lequel pourrait sombrer l’Univers puisque nous ignorons 95% de ce qui le constitue.

Paradoxalement, Gabrielse concentre toute son attention sur l’électron, l’objet quantique le plus exploré et a priori le mieux connu parce que le plus commun du modèle standard. Gabrielse considère que l’élection décèle une très, très, faible dissymétrie spatiale et en conséquence il serait doté d’un moment dipolaire électrique très, très, faible, qui n’a jamais été détecté ni évalué, jusqu’à présent. Cette piste risque de conduire à une impasse car plus nous gagnons en précision moins il est possible d’attribuer une dimension à l’électron. Il y a une dizaine d’année on lui attribuait (au doigt mouillé) encore une dimension de l’ordre de 10-18m (la dimension du proton est de 10-15m), maintenant on ne peut le considérer que comme sans dimension, c’est-à-dire ponctuel (sic). En tous les cas, il est plus petit que ce que permet nos capacités de mesure et c’est ce que nous devons retenir. Notons que 10-18m est la plus petite variation de distance qu’il est possible d’enregistrer en ce qui concerne les miroirs des interféromètres des ondes gravitationnelles Ligo et Virgo.

Pour d’autres raisons, étonnamment, l’électron pourrait encore être à l’origine d’une révision du Modèle Standard à condition que l’on prenne en compte ses particules jumelles que sont le muon et le tau. Ces trois particules sont de la famille des leptons et ce qui les différencie c’est leur masse respective. L’autre famille étant celle des quarks. D’après les règles établies du Modèle Standard ces trois particules leptoniques devraient se comporter comme un triplet de particules identiques. Or trois expériences indépendantes ont mis en évidence des indices que ces particules se comportent différemment en raison d’une influence qui reste encore inconnue.

Le premier constat d’une disparité éventuelle et significative entre ces trois leptons date de 2012 à propos de l’expérience BaBar du Centre de l'accélérateur linéaire de Standford (SLAC) en Californie. Ensuite deux autres expériences nommées LHCb au Cern et Belle au Japon ont en 2015 relevé des disparités similaires qui ont été à nouveau confirmées au LHCb en 2017. Etant donné les conditions très distinctes de l’apparition de ces disparités on ne peut pas a priori évoquer des erreurs expérimentales. Si une disparité était confirmée, il y aurait violation de l’universalité leptonique et donc le Modèle Standard devrait être reconsidéré et cela ouvrirait la porte pour cogiter une nouvelle physique. Toutefois, il ne faut pas s’emballer car bien que ces résultats soient de plus en plus consistants, ils ne sont pas irréfutables car ils pourraient encore être dus tout simplement aux effets de fluctuations, du hasard, donc statistiques. Il faut donc accroitre le nombre d’expériences et le nombre d’événements pour réduire la marge d’incertitude et ainsi pouvoir proclamer la découverte éventuelle d’une propriété nouvelle, d’une force nouvelle, etc… Patience dans 5 ans on en saura plus.

Certains physiciens sont sceptiques car même si ces déviations sont confirmées le nouveau modèle qui s’ensuivrait n’offrirait aucune nouvelle hypothèse transcendante : « À première vue, le type de modèle qui peut reproduire les anomalies n’explique... rien d’autre », précise Zoltan Ligeti. « Par exemple, il ne nous aidera pas à comprendre ce que peut être la matière noire. »

L’idée élémentaire de départ à la conception du LHC, a été que les physiciens devaient disposer d’un accélérateur qui produise des collisions aux énergies les plus élevées et en nombre par unité de temps le plus élevait. Et puis la puissance de stockage des données et de calcul informatique permettront de sélectionner le bon grain de l’ivraie parmi la foultitude de traces qui surgiront dans les détecteurs à une fréquence prodigieuse et là où il y a quelque chose d’inédit à voir les physiciens immanquablement le verront. Je ne caricature pas car c’est bien ce que nous a dit, début 2016, F. Gianetti et que j’ai critiqué.  A part le Boson de Higgs (et on peut dire qu’à ce propos la pensée des physiciens étaient placée depuis très longtemps), le LHC n’a rien montré par lui-même et cela devrait être considéré comme matière à réflexion collective.

S’il n’y a pas de point de vue théorique préalable, s’il n’y a pas d’investissement intellectuel préalable, s’il n’y a pas un regard intellectuel qui scrute intentionnellement, on ne peut être qu’aveugle. La légende dit que c’est quand Newton, se reposant sous un pommier, a reçu une pomme sur le crâne qu’il a découvert la loi de la gravitation mais la légende n’a jamais caché que son cerveau avait déjà largement cogité la chose. La légende dit aussi que lorsqu’Einstein a pris l’ascenseur il a été convaincu du bien fondé de son hypothèse basique (propriété d’invariance) qui allait le conduire jusqu’à l’invention de la loi de la Relativité Générale.

Il se pourrait qu’il y ait une cause réelle, concrète, de notre aveuglement intellectuel, et c’est une hypothèse que je n’exclus pas à cause de l’hypothèse que je privilégie avec TpS. Cette hypothèse est totalement corrélée avec le fait actuel (entre autres) que nous sommes incapables d’attribuer une dimension spatiale à l’électron. Car à TpS correspond un ∆l = C × TpS : aveugle, C étant la vitesse de la lumière.

Peut-être que l’article du 12/01/2018, dans Phys.org : « Vitesse quantique limite peut freiner l’ordinateur quantique. » ; « Quantum speed limit may put brakes on quantum computers », offre des arguments qui confirmeraient ceux que j’ai déjà développés dans de nombreux articles et in fine valideraient mon hypothèse, je cite quelques extraits de ce nouvel article de Sebastian Deffner : «… mais ma recherche récente a révélé que les ordinateurs quantiques auront des limites (de vitesse de calcul) qui leur seraient propre – et a indiqué la voie par laquelle on peut préciser ce qu’elles seraient… » ;  

Les limites de la compréhension.

« Pour les physiciens, nous, humains, vivons dans ce que nous appelons le monde « classique » et dans ce contexte nous avons progressivement compris intuitivement la physique. Avec les lois de la physique classique il y a des limites théoriques qui s’imposent. Mais elles sont tellement élevées : par exemple nous savons qu’un objet ne peut jamais dépasser la vitesse de la lumière. Les gens ne rencontrent jamais les limites physiques du monde, mais elles existent. Jusqu'à récemment, cependant, les savants avaient seulement une idée assez vague que la physique quantique avait des limites aussi, mais ne savaient pas réellement comprendre comment cela pourrait s'appliquer dans le monde réel. »

« L’incertitude de Heisenberg »

« Il est important de réaliser que cette « incertitude quantique » n’est pas un défaut de l’équipement de mesure ni de l’ingénierie, mais témoigne plutôt de la façon dont notre cerveau fonctionne (sic). Nous avons évolué par l’intermédiaire d’une confrontation courante avec le "Monde Classique " et nous comprenons comment il fonctionne alors que les mécanismes physiques réels du "Monde Quantique" sont tout simplement au-delà de notre capacité à les saisir pleinement »

Si les physiciens acceptaient l’idée qu’au CERN, l’impossibilité depuis plusieurs années de détecter des événements nouveaux, significatifs, devrait être considérée comme un fait expérimental significatif, alors les arguments exposés dans cet article de S. Deffner seraient d’une très grande utilité.

 

[1] Découverte que l’interaction nucléaire faible distinguée la droite de la gauche, c’est-à-dire qu’il y avait là une preuve d’une brisure de symétrie spatiale.

Partager cet article
Repost0
5 janvier 2018 5 05 /01 /janvier /2018 10:25

Turing or not Turing

Avant tout je souhaite une excellente année 2018 à mes lecteurs.

Je vous cite ci-dessous un extrait d’un article de ‘La Recherche’, (Octobre 2017) dans lequel S. Dehaene livre un entretien :

« La pensée géométrique est assez ancienne. Il est très intrigant de voir que, il y a 1.6 à 1.8 millions d'années les hommes, façonnaient déjà des objets aux propriétés mathématiques élaborées, notamment des pierres en forme de sphère, comme s'ils possédaient la notion d'équidistance à un point. On connaît également des dizaines de milliers de bifaces, ces outils pourvus de deux plans de symétrie orthogonaux : ils ont le même degré d'ancienneté, et leur perfection géométrique démontre une recherche délibérée de la géométrie, au-delà de la simple utilité fonctionnelle. Dès lors, je me demande si la capacité de représentation symbolique et récursive n’est pas apparue, dans un premier temps, indépendamment du langage, avant tout comme un système de représentation rationnelle du monde.

Le cerveau d'Homo erectus avait peut-être déjà atteint la compétence d'une machine de Turing universelle (sic), capable de représenter toutes les structures logiques ou mathématiques possibles. Peut-être est-ce une illusion, mais pour l'instant, notre espèce a réussi à comprendre l'organisation des structures du monde à toutes les échelles de l'Univers. Dans un deuxième temps, il y a environ 100.000 ans, on observe une explosion culturelle qui suggère un langage, une communication... On peut donc se demander s'il n’y a pas d'abord la mise en place d'un système de représentations mentales enchâssées, puis l'apparition d'une capacité à communiquer ces représentations. »

Depuis que j’ai lu ce document, je suis intrigué par ces propos avancés par l’auteur. Je suis interpelé parce que Dehaene laisserait entendre qu’Homo erectus est doté d’un cerveau qui avait peut-être déjà atteint la compétence d’une machine de Turing universelle… En conséquence dans une bonne mesure la compétence actuelle de notre cerveau est préétablie dès cette époque. Son hypothèse fait penser à une conception platonicienne inversée : ce ne seraient pas les pages de l’Univers qui seraient pré écrites et que le cerveau humain devrait apprendre à décrypter mais ce serait le cerveau de l’homme qui serait pré imprégné d’une compétence spécifique type machine de Turing universelle permettant d’accéder à une compréhension de l’Univers. Ainsi une capacité de perception du monde physique serait déterminée avec l’émergence d’Homo erectus. Notre compréhension actuelle et à venir serait inhérente au cerveau d’Homo erectus. Cela met à mal l’historicité de l’évolution car il est inenvisageable de séparer l’histoire de l’évolution du cerveau des Homos, jusqu’à nous, de l’histoire de ses évolutions physiques intégrales qui sont aussi la conséquence de sa volonté de survie face à l’hostilité de la Nature qu’il ne peut que progressivement comprendre pour progressivement s’adapter et la maîtriser (cf. Descartes)

Pour étayer mon scepticisme je me réfère à E. Mach (1838-1916), bien qu’il ne soit pas habituellement ma source d’inspiration, mais sur le point énoncé je suis totalement en phase : « La tâche des théories physiques consiste à organiser notre expérience conformément au postulat de l’économie de la pensée. Une loi physique est un condensé d’expériences permettant de faire l’économie d’innombrables expériences, une théorie scientifique est une construction ((sic) coordonnant nos sensations en vue de la prédiction d’expériences futures. » Mach, lecteur de Darwin, tient les concepts et les théories scientifiques pour des instruments de la survie de l’espèce.

La théorie de l’évolution met en jeu un processus d’évolution grâce à l’apprentissage, à l’observation, à la scrutation de l’environnement et le résultat s’appelle l’adaptation pour acquérir de l’indépendance vis-à-vis des contraintes environnementales. C’est-à-dire que le cerveau engrange des données mais aussi et surtout développe une capacité progressive à inférer. Capacité acquise à un certain stade de l’évolution du cerveau constituant un tremplin pour projeter une nouvelle phase d’évolution. L’évolution de ces capacités est marquée par l’évolution du volume de ce cerveau et par l’enrichissement des connexions neuronales. Cela correspond à ce que l’on appelle l’encéphalisation : il y a de la matière cérébrale produite pour une taille corporelle qui reste à peu près équivalente. Le volume du cerveau des Homo erectus les plus jeunes a doublé (1200 cm3) au regard des plus anciens, cela correspond à une durée d’un million d’années.

Ainsi concevoir qu’il puisse y avoir une correspondance complète voire partielle entre la compétence d’une ‘machine de Turing universelle’ et le cerveau humain ne peut valoir à mon sens qu’à un stade de développement cérébral correspondant à celui d’Homo Sapiens et encore c’est à voir. Si on tient compte du découvreur (Jean-Jacques Hublin) de l’Homo sapiens le plus ancien (300 000 ans, au Maroc), il nous dit qu’entre notre cerveau d’Homo sapiens « moderne » et celui dont le crâne a été découvert il n’y a pas beaucoup de différences si ce n’est ce qui affecte le câblage du cerveau. C’est peut-être à ce niveau que se joue une différence qualitative significative. 

Rappelons-nous de ce qu’est une machine de Turing universelle : universelle, parce que c’est une machine de Turing qui peut simuler n’importe qu’elle machine de Turing sur n’importe qu’elle entrée (sic). Une machine universelle prend en entrée la description de la machine à simuler et l'entrée de cette dernière (re-sic), (voir wikipédia). La référence à la machine de Turing universelle est obligatoire pour qu’il y ait une relation avec la récursivité.

Dans le ‘Dictionnaire d’histoire et philosophie des sciences’, on peut lire ce qu’implique tout ce qui concerne l’invention de A. Turing (1912-1954) : « Sa conception de machine[1] qui en tant que dispositif mimant les manipulations symboliques qu’opère un humain qui réalise un calcul, prétend modéliser la notion intuitive de calculabilité. » ; « La notion de machine universelle de Turing laissait entrevoir la possibilité de construire un dispositif capable de calculer tout ce qui est calculable, ou disons-le dans les termes de la thèse de Turing, tout ce qu’un calculateur humain peut faire. Les bases formelles étaient posées pour la quête du « cerveau artificiel ». Enfin, en héritage je cite cette problématique durable qu’il nous a confiée : « Le deuxième grand legs de Turing, lié aux présupposés matérialistes de la thèse de Turing, et plus généralement à la tradition (sic) identifiant calcul et pensée, est aujourd’hui perpétué par ceux qui, au sein de la recherche en Intelligence artificielle, considérant les thèses avancées par Turing en 1950 comme leur programme. Leurs réponses, aujourd’hui encore, sont pour le moins insuffisantes. Si calculer est une manière de penser, la pensée en est-elle calculable ? »

A ce stade de l’article, je dois indiquer qu’en exprimant un désaccord avec la thèse de Dehaene, je véhicule peut-être une contradiction car en faisant l’hypothèse que l’espace-temps est un propre de l’homme et en proposant un scénario d’émergence de ce propre (voir article du 05/08/2017) je dois assumer l’idée qu’en conséquence, concomitamment, Homo erectus commence à entreprendre la cogitation, le calcul, de la trajectoire de son déplacement sur la planète Terre. Est-ce que la reconnaissance de cette entreprise peut conduire à rallier le point de vue de S. Dehaene ? Non, je ne le crois pas, même en termes de potentialité, la compétence d’une machine de Turing universelle ne peut pas être un attribut d’Homo erectus. (C’est un sujet à suivre, de toute façon je considère que ce débat est très, très, important et remercions S. Dehaene d’en être l’initiateur.)

 

[1] Alan Turing a imaginé une telle machine en 1936. Cette machine est considérée par certains comme l'origine de l'ordinateur à programme enregistré conçu par John von Neumann (1946) qui porte maintenant son nom : l'architecture de von Neumann.

 

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens