Overblog
Suivre ce blog Administration + Créer mon blog
7 février 2016 7 07 /02 /février /2016 06:10

Chaîne de causalité ?

Dans le précédent article du 03/02/2016, j’ai considéré que nous devrions nous émanciper de la référence systématique au principe de causalité. En fait, bien réfléchi, nous nous en passons déjà, pas par volonté d’émancipation mais par obligation parce que dans certaines situations nous ne pouvons pas raisonner valablement en nous en tenant à ce principe.

J’ai déjà eu l’occasion d’évoquer la frustration de H. Lorentz qui, au moment de l’avènement de la mécanique quantique, au début du 20e siècle, enseignait un matin de la semaine le rayonnement de l’électron soumis à une trajectoire courbe et qui le lendemain matin dans le même amphi, enseignait les propriétés physiques de l’atome d’hydrogène. Dans ce cas de figure l’électron ‘gravitant’ autour du proton ne rayonne pas. Cette situation fut dépassée lorsqu’il fut compris que l’atome d’hydrogène en soi ne pouvait pas être considéré comme une simple addition d’un proton et d’un électron. Certes le proton est un objet quantique avec les propriétés qui le caractérisent, il en est de même de l’électron. La bonne mesure pour penser l’atome d’hydrogène c’est de considérer qu’il est aussi un objet quantique indépendamment de ceux qui le constituent. Dès que ce saut (quantique) conceptuel est franchi on est en mesure de raisonner scientifiquement dans le cadre de la mécanique quantique sur les propriétés de l’atome d’hydrogène.

Pourtant, aucune explication atténuante ne fut proposée et n’est proposable à la frustration de Lorentz. On ne peut pas expliquer pourquoi dans l’atome d’hydrogène l’électron ne rayonne pas, aucune cause de ce changement de propriété physique ne peut être mise en avant, si ce n’est que nous changeons d’échelle. C’est à cause de l’acceptation du concept : atome d’hydrogène, objet quantique en soi que nous pouvons raisonner en tant que physicien notamment sur la cause de l’émission ou de l’absorption de photon à telle longueur d’onde plutôt qu’à une autre.

Avec l’avènement de la mécanique quantique nous avons été amenés, empiriquement, par pragmatisme, à aménager la référence au principe de causalité au point même de le laisser de côté pour continuer de rendre compte des phénomènes physiques observés et de les formuler mathématiquement.

Ainsi en janvier 1920, Einstein écrivait à M. Born : « L’absorption et l’émission quantiques de la lumière pourront-elles jamais être comprises conformément à l’exigence d’une causalité complète ? Je dois admette que je n’ai pas le courage de ma conviction. Mais j’aurais beaucoup de peine à renoncer à la causalité complète. » Cette inquiétude vertigineuse d’A. Einstein est relative à ses travaux durant les quelques années précédentes sur le mode spontané et stimulé d’émission de la lumière. En 1917, la certitude de la validité de la loi de Planck était complète et elle était donc devenue la référence pour vérifier si tout autre raisonnement que celui empirique de Planck était juste. C’est ce qu’entreprit Einstein en 1917 et pour se trouver en accord avec Planck il fut obligé de postuler l’existence d’un processus d’émission stimulée en plus l’émission spontanée. Ce postulat a des conséquences remarquables puisque le S du mot LASER (qui est un acronyme) provient de Stimulée. De plus la lumière stimulée a les mêmes propriétés quantiques que la lumière qui l’a stimulée. Aucun raisonnement s’appuyant sur le principe de causalité ne peut expliquer les phénomènes d’émission spontanée, stimulée, seul le raisonnement et l’évaluation statistiques empiriques fournissent des résultats en parfait accord avec la loi de Planck. N’oublions pas que Rutherford avait en 1900 aussi ouvert le chantier en proposant la loi de la radioactivité avec la formule exponentielle typique des phénomènes aléatoires.

Donc nous constatons qu’il y eut des précédents et quand il le fallut le principe de causalité fut contourné même par ceux qui ne le voulaient pas a priori.

De D. Lecourt (Dictionnaire d’histoire et de philosophie des sciences, p. 148) : « Nous déterminons – c’est-à-dire d’abord délimitons et façonnons – les phénomènes que nous étudions en fonction de nos connaissances acquises et les moyens dont nous disposons. Nous ne découvrons pas les « lois de la nature », mais nous énonçons des « lois physiques » - les lois de notre physique – qui, toujours, ont prélevé sur le réel, à des échelles différentes, la part qui nous en semble accessible (sic). Le principe général, selon lequel à tout effet naturel on doit toujours trouver une cause naturelle, se spécifie selon le type des réalités auxquelles nous avons à faire. » Je suis prêt à partager ce que nous dit D. Lecourt, d’une façon si rassemblée, à condition que la partie prélèvement sur le réel soit toujours présente à l’esprit, comme Platon a conçu ses ‘Idéalités’ géométriques en s’inspirant par prélèvement des figures géométriques qui délimitaient les champs fertiles de son paysage agricole. D. Lecourt nous indique que les lois de notre physique ne coïncident pas avec les lois de la nature. En effet celles-ci sont plus riches, plus multiples, que celles que progressivement nous découvrons. Cela n’exclut pas que notre perspective soit de nous en rapprocher puisque notre désir de savoir, la dynamique intellectuelle qui prévaut chez Homo Sapiens, se nourrissent de cette perspective. La condition, c’est que les lois de notre physique actuelle ne soient pas notre prison intellectuelle.

Il n’est pas banal que ce soit beaucoup des résultats des travaux d’Einstein qui, aujourd’hui, sont autant d’obstacles pour sortir de l’enfermement de notre physique actuelle. Evidemment, il n’est pas responsable de cette sacralisation. Lui-même, a connu la méfiance des physiciens classiques du début du 20e siècle. Ainsi, alors que Planck plaidait à l’académie des sciences de Berlin l’acceptation de la candidature d’Einstein, en même temps, il disait que le concept de quantum de lumière était une erreur de jeunesse et il ne fallait pas en tenir rigueur à l’auteur.

Partager cet article
Repost0
3 février 2016 3 03 /02 /février /2016 10:34

Là, où, pense Homo Sapiens.

Il me semble qu’il est intéressant et utile de s’intéresser aux travaux des paléoanthropologues qui ont accumulé suffisamment de matériaux pour être capables maintenant de rendre compte où se trouvent dans l’histoire la plus profonde les racines de l’évolution des Hominidés… qui deviennent progressivement des êtres réflexifs. Evidemment, parmi ces travaux, j’ai sélectionné ceux qui peuvent nous aider à comprendre l’émergence et le développement de savoirs prélevés sur l’environnement Naturel qui ont conduit à concevoir des embryons de savoirs intériorisés dits rationnels.

Du livre de J. Guilaine : ‘Le seconde naissance de l’homme’ (O. Jacob) :

« Au paléolithique archaïque, aux alentours de 1,9 million d’années (homo ergaster et/ou homo erectus), l’analyse de la documentation fournie par plusieurs sites africains montre une gestion des matières premières fondée sur un certain rapport à l’espace (et donc au temps). A Oldowaï, les matériaux bruts nécessaires à la taille ont été apportés de sources distantes de 3 km. Des gîtes plus lointains, entre 9 et 13 km, on n’a ramené que des outils finis, après avoir laissé sur place blocs et déchets. Ces indices, parmi les plus anciens observés, donnent une première idée de l’espace prospecté et, de ce fait, du temps mis à le parcourir.

L’histoire des temps paléolithiques, dans leur extrême durée, est précisément caractérisée par une maîtrise de l’espace toujours plus élargie, par des déplacements sans cesse portés vers des frontières plus lointaines. Ces pérégrinations impliquent donc une maîtrise minimale du temps.

Ensuite, rapide élargissement du cadre : les déplacements de certains acheuléens africains pouvaient atteindre 100km, en Europe, entre -700 000 et -200 000 ans, on observe des tendances voisines.

Au paléolithique moyen (entre -200 000 et -35 000 ans) ce schéma ne sera guère modifié.

Autant de comportements qui sous-entendent une gestion planifiée de l’espace et du temps. »

On constate avec J. Guilaine que naturellement le besoin de se déplacer dans l’espace est corrélé avec la nécessité d’évaluer le temps de ce déplacement. Vitalement, la distance spatiale à parcourir n’est pas une information en soi. Ce qui fait sens c’est la combinaison distance spatiale et durée temporelle. Evidemment nous comprenons les choses maintenant en fonction de nos concepts et de notre acuité intellectuelle mais une initiation à l’espace-temps, en tant que un, s’échafaude à ce stade. Homo, se déplace en évaluant simultanément l’espace et le temps à parcourir. Il y a de l’inférence en jeu.

Selon Natalie Uomini et Georges Meyer (article dans la revue ‘Plos One’ en 2013), il est rendu compte que chez homo ergaster, il y a à peu près 1,75 million d’années, il y aurait une concomitance probable entre le début du développement du langage et la capacité à travailler le silex pour fabriquer des outils. La faculté de langage ne serait donc pas une faculté intrinsèque qui nous aurait caractérisés tout au long de la longue marche de l’humanité, mais elle est un surgissement provoquée par une réelle et âpre confrontation entre la nature matérielle et une action d’homo ergaster sur celle-ci pour en façonner un avantage vitale. Les auteurs ont obtenu ce résultat grâce à d’autres paléoanthropologues qui ont été placés en situation de fabriquer des outils correspondant à l’époque et la zone du cerveau qui s’activait était la même que celle du langage. On peut concevoir aussi que le projet de fabriquer des outils implique un échange d’expérience, de conseil, bref de la communication…gestuelle, sonore ?

Les paléoanthropologues sont de plus en plus nombreux à penser que les changements climatiques (Afrique de l’Est et du Sud) ont joué un rôle très important dans l’évolution humaine (lire dans ‘Pour la Science’ n° spécial novembre 2014 : ‘L’odyssée humaine’ : les moteurs cachés de notre évolution). Le premier choc évolutif a eu lieu il y a entre 2,9 et 2,4 millions d’années. « Lucy » et son espèce (Australopithecus afarensis) se sont éteintes, laissant la place à deux groupes assez différents. L’un correspond aux premiers membres du genre homo. Ils présentaient les premiers traits modernes, y compris des cerveaux volumineux. Ces individus ont fabriqué les premiers outils. Le second choc s’est produit il y a entre 1,9 et 1,6 million d’années. Une espèce plus carnivore, donc au cerveau encore plus développé, Homo erectus (aussi nommé Homo ergaster), est apparue. (Lire, Peter deMenocal in : ‘Pour la Science’, Novembre 2014)

De J.P. Demoule, professeur de protohistoire : « Révolution technique, le Néolithique (-12000 ans) est aussi une révolution spirituelle et symbolique : les représentations humaines, rares jusque-là, se multiplient sous forme de statuettes ou de signes gravés. « Les chasseurs-cueilleurs se pensaient comme une espèce animale parmi les autres. Au Néolithique, l’homme se ‘dénature’ pour se penser comme distinct du reste du vivant. »

Ainsi en fonction de ce qui est dit par J.P. Demoule, on doit considérer que la fascination provoquée par les œuvres des artistes homos sapiens qui nous ont offert les peintures rupestres de la grotte Chauvet (-35000 ans) résultent d’une osmose naturelle entre les hommes modernes primitifs et les autres représentants du monde vivant qu’ils côtoyaient, chassaient, redoutaient. C’est donc l’autre d’eux-mêmes qu’ils extérioriseraient sur les parois de la grotte avec une économie de moyen époustouflante. Le morceau de charbon de bois qui marque le trait continu assuré, et qui épouse intentionnellement les reliefs de la paroi, nous laisse voir ce qui est encore une intériorité d’Homo Sapiens.

Les paléoanthropologues nous informent que l’être humain est devenu ce qu’il est aujourd’hui grâce à un processus d’évolution dont le moteur principal fut et est une confrontation avec la Nature. Nature très immédiate il y a 2.000.000 d’années et à partir de cette proximité, déploiement et confrontations multiples, et causes d’évolutions. A ce niveau, il n’est pas abusif de considérer que le genre homo jusqu’à son terme actuel homo sapiens a développé une pensée où il a été façonné. On peut aussi conjecturer que cette pensée est déterminée, conditionnée, par ce naturel, sachant qu’il est aujourd’hui ce que nous appelons Notre Univers, sachant aussi, étant donné le développement de nos capacités intellectuelles qu’il n’est pas nécessaire d’aller physiquement sur de telles étendues pour les investir.

Il est évalué qu’homo ergaster avait un cerveau d’une capacité de l’ordre de 860 cm3, celui d’homo sapiens (homme moderne) est de 1300 cm3 en moyenne. Il est légitime de considérer que le cerveau d’homo sapiens englobe celui d’homo ergaster, il n’y aurait donc pas destruction des apprentissages archaïques d’homo ergaster, l’imprégnation primordiale indélébile a subit les effets de l’évolution sur 2.000.000 d’années et les effets des apprentissages qui se sont succédés.

On a clairement identifié que l’homme moderne a toujours cherché à porter son regard de plus en plus loin dans le monde pour le saisir, au sein duquel il avait conscience de se trouver et aussi de dépendre. Ces observations, d’objets très lointains, par exemple des planètes, n’étaient pas passives car il fallait pour réduire cette dépendance aveugle prévoir, prophétiser. Ainsi tout récemment on a découvert sur des tablettes cunéiformes que la trajectoire de Jupiter était calculée soit par des moyens mathématiques (-1800 ans) soit par des moyens géométriques (-300 ans) comme le faisaient déjà les astronomes grecs. Figures géométriques dont les standards étaient prélevés dans la nature immédiate puisqu’il y avait une nécessité sociale, économique, de mesurer physiquement par exemple des surfaces de terre (cultivables).

Platon (-370) a formulé l’idée d’un Univers globale préinscrit et c’était à l’être humain de le comprendre en décryptant l’alphabet (mathématique) dans lequel il était écrit, ‘encodé’. Galilée a pensé les prémisses de la physique moderne sur la base de cette métaphysique. Selon Galilée (1564-1642), la géométrie, avec ces figures élémentaires (triangle, cercle, etc. devenus des Idéalités.), constituée la base de cette alphabet et il put ainsi établir formellement les premières lois physiques.

Descartes (1596-1650) son contemporain a proposé un saut dans la faculté d’abstraction en imposant le paradigme de la chaîne de causalité. Théorie mécaniste qui ne fut pas du goût de Newton (1642-1727) pour des raisons purement métaphysiques pour ne pas dire théologiques.

Il y a quelques années encore on n’aurait jamais affirmé que l’homme premier serait venu sur terre, nu, sans au moins l’attribut d’un protolangage. En effet pour l’éminent linguiste Émile Benveniste (1902-1976), cela ne fait aucun doute : « C’est un homme parlant que nous trouvons dans le monde, un homme parlant à un autre homme, et le langage enseigne la définition même de l’homme. » Pour le psychanalyste J. Lacan il en est de même : « L'homme qui naît à l'existence a d'abord affaire au langage ; c'est une donnée. Il y est même pris dès avant sa naissance. Oui, l'enfant à naître est déjà, de bout en bout, cerné dans ce hamac de langage qui le reçoit et en même temps l'emprisonne ». Lacan a cherché aussi à « montrer combien le langage est ce qui ordonne notre rapport au monde (sic) aussi bien qu'à nous-mêmes. » Eh bien maintenant on doit accepter que ce n’est pas un donné mais un acquis, dans des conditions rapportées dans la revue ‘Plos One’. Corrélativement, la pensée, même sous sa forme embryonnaire, résulte de l’aride et rude confrontation, pour la survie d’Homo, avec les éléments naturels. Il y a unanimité pour penser que les changements climatiques contribuèrent notamment, sans équivoque, à la sélection naturelle dont la branche homo sapiens fut la seule à survivre. On peut comprendre aujourd’hui pourquoi le concept d’anthropocène n’est pas du tout banal.

Les causes de l’évolution d’Homo jusqu’à son terme actuel homo sapiens sont extérieures, l’essentiel de ce qui fait Homo est donc de l’acquis. Aucune essence n’a précédé l’existence. Alors le principe de causalité est une intériorisation de l’affrontement rugueux entre Homo et la Nature dans sa globalité. Voir article du 10/11/2015 : « Principe de causalité : construction de l’esprit ou loi de la Nature ? » La bonne réponse serait, il n’est ni dans l’un ni dans l’autre il est dans l’épaisseur de l’interface qui a finalement engendré, façonné, homo sapiens. Le sursaut ontologique proposé par Descartes, est peut-être un leurre, en révélant à l’humanité que l’appropriation, jusqu’à son intériorisation intellectuelle, du principe de causalité conduit à l’émergence du ‘sujet pensant en raison’, et donne ainsi la clef pour soulager l’existence de quantité de maux et favoriser le bien-être en nous rendant « comme maîtres et possesseurs de la nature » ; elle est moralement désirable car en nous donnant la connaissance des causes elle nous conduit à la sagesse. Il y a deux en un car il nous dit qu’ainsi l’humanité peut s’émanciper de la tyrannie des lois de la Nature pour être Homo Sapiens en devenir. On peut aussi comprendre pourquoi il a défini en son temps, cette hiérarchie des connaissances : « Toute la philosophie est comme un arbre, dont les racines sont la métaphysique, le tronc est la physique, et les branches qui sortent de ce tronc sont toutes les autres sciences, qui se réduisent à trois principales, à savoir la médecine, la mécanique et la morale. »

Peut-être un leurre parce qu’Homo Sapiens, malgré les déterminations qui l’habitent au plus profond de sa manière d’Être et qui témoignent de l’histoire de son émergence dans le monde, ne doit pas, in fine, se comprendre uniquement à l’aune du réseau de contraintes extérieures qui l’a façonné. En conséquence la découverte de nouveau champ de connaissances devrait pouvoir emprunter d’autres chemins que ceux déterminés, conditionnés, par celui de l’enchaînement causal.

Et si le tronc de l’arbre de la connaissance est encore la physique comme l’affirme R. Descartes, affirmation qui est à mes yeux encore juste sinon tout ce que je viens d’écrire ci-dessus n’a plus aucun sens, alors c’est à la science physique d’ouvrir la voie. Tout comme au début du 20e siècle dans les premières prospections de l’infiniment petit qui ne peut être que pensé, conjecturé, plutôt que directement observé, le physicien est l’intellectuel désigné pour constituer l’avant-garde de cette aventure nouvelle. En plus, avec les cosmologistes, il est en mesure d’éprouver cette nécessité car l’univers qui a été conçu grâce à ces capacités de conception actuelles le confronte avec 95%, de ce qui le composerait, toujours obscur à sa compréhension.

La proposition que j’ai déjà formulée qui consiste à considérer qu’au-delà de l’horizon limite déterminé par la constante universelle C il y aurait de quoi inférer est une voie à prospecter, plus particulièrement pour la matière noire et les neutrinos. Ceci a à voir aussi avec la chaîne de causalité car dans notre monde de référence (c’est-à-dire dans notre univers de contraintes présentes, classiques) l’influence d’une cause ne peut pas se propager à une vitesse supérieure à celle de la lumière, voilà pourquoi nous accumulons les points d’interrogation à propos de l’intrication, par exemple.

Là, où, pense Homo Sapiens est un là spécifique mais toujours en évolution qui ne peut laisser croire qu’il permet de penser naturellement, immédiatement, l’universel. Certes les facultés intellectuelles croissantes d’Homo Sapiens lui permettent de largement concevoir et investir au-delà de ce que ses contraintes physiques lui imposent. Il s’est déjà émancipé de nombreuses déterminations, il est essentiel de comprendre celles qui sont toujours à l’œuvre et constituent un empêchement à concevoir des nouveaux paradigmes pour élucider les 95% inconnus de l’univers et ainsi découvrir que ce que l’on appelle notre univers aujourd’hui n’est qu’un modèle conceptuellement réduit d’un univers bien plus multiple et d’une autre envergure.

P.S. Dans le monde ‘Science et Médecine’ du 03/02/2016, de Laurent Alexandre : « Les neurosciences révèlent la complexité du fonctionnement cérébral. Le plan précis du câblage cérébral – nous avons 85 milliards de neurones, dont chacun est porteur de milliers de connexion – n’existe pas dans nos chromosomes. Notre ADN a une action plus subtile : il donne à nos neurones une boite à outils, plus ou moins performante, leur permettant de bâtir un réseau de connexions plastiques et dynamiques. Le cerveau se bâtit grâce à un mélange de déterminisme génétique, de réponse à l’environnement et de hasard. Notre quotient intellectuel, in fine, n’est déterminé par notre ADN qu’à hauteur d’un peu moins des deux tiers ; le tiers restant étant lié à l’école, la stimulation familiale, l’environnement et l’alimentation. »

Partager cet article
Repost0
16 janvier 2016 6 16 /01 /janvier /2016 09:49

Et si notre pensée était mal placée !

… si notre pensée était mal placée et trop restrictive, trop déterminée, pour rencontrer la nouvelle physique que nous appelons ! C’est l’interpellation qui m’est venue spontanément à l’esprit lorsque j’ai lu le premier article d’arrivée en responsabilité de Fabiola Gianetti an tant que Directrice Générale du Cern. « If new physics is there we can discover it, but it is in the hands of nature. » (Si une nouvelle physique est là, nous pouvons la découvrir, mais c’est entre les mains de la nature.)

D’un point de vue général l’article révèle un optimisme mesuré et de circonstance car l’année 2015 a été décevante. Les ratés du redémarrage du LHC laissent perplexe la communauté scientifique et interdisent de faire des projections de découvertes. Justement F. Gianotti et les directeurs font la liste des améliorations techniques qui doivent être encore assurées pour faire surgir des perspectives d’une nouvelle physique. Les théoriciens sont silencieux. Ils ont certainement l’impression d’être à la fin d’un cycle de prédictions théoriques (les ressources théoriques du Modèle Standard sont épuisées, obsolètes). Le cycle suivant n’est pas du tout pensé à cause du manque de clairvoyance qui résulte d’une certaine suffisance ancrée au sein de la communauté scientifique trop certaine de maitriser le langage (mathématique) universel qui permet de décrypter toutes les lois de la nature. Il y avait donc la certitude que les expériences, confirmant les prédictions extrêmes du Modèle Standard, enfanteraient aussi, tout au moins, des indications sur le(s) chemin(s) à suivre pour aller théoriquement et expérimentalement au-delà de l’actuel Modèle Standard.

Les premiers signaux de cette bévue ont été perçus par ceux qui à l’occasion de la découverte du boson de Higgs se sont dit : « Que ça ! » Autant que je sache, ce boson n’a pas été revu lors de la session 2015.

Dans l’article en question de physicsworld du 04/01, il y a un commentaire qui rappelle la liste longue de tout ce qui est légitime de pouvoir observer dans les détecteurs du Cern mais qui, jusqu’à présent, ne livrent aucun indice, in fine il est commenté : « … et qui ne peut rien dire à propos de la matière noire, j’espère que les physiciens théoriciens ou au moins le public scientifiquement éduqué (sic) demandera une nouvelle pensée pour unifier la R.G. la M.Q. et le S.M. »

Un autre commentaire nous dit : « Si nous ne pouvons pas voir aucune sorte de radiation attribuée à la matière noire, il semble improbable de la découvrir ici (au LHC) qu’elle que soit la puissance de nos appareils. Je voudrais affirmer dans ce cas que la matière noire a besoin d’une théorie au-delà (sic) de tout ce que nous avons pu concevoir par consensus. »

Il est donc dommage que F. Gianotti exclut qu’il y ait le moindre doute sur la pertinence complète de la pensée scientifique actuelle en physique des hautes énergies. L’avenir de la compréhension de nouvelles lois régissant la nature, n’est pas évidemment dans les mains de la nature mais dans le cerveau des physiciens. Effectivement à propos de la matière noire, en grande partie, nous calquons notre quête sur le modèle de la matière baryonique rayonnante de lumière qui nous est si familière car c’est la matière qui nous constitue au plus profond de notre être physique et physico-cérébrale. Bon récepteur de cette lumière donc bon penseur que nous sommes. Quid de la matière noire dont on pense qu’elle interagit gravitationnellement avec notre matière mais avec quelle intensité ? Dont on ne sait toujours pas si elle interagit avec elle-même ! Est-elle constituée d’éléments granulaires et irréductibles ? En fait a priori on le postule pour justifier le scénario des puits de potentiels primordiaux d’accrétion de la matière baryonique et donc pour justifier le modèle de la genèse de l’univers à partir du Big Bang. Ce scénario devient un obstacle quasi doctrinaire (voir article du 31/03/2015) pour rejeter les résultats relatifs à la théorie MOND qui pourtant connaissent des évolutions intéressantes.

Plus généralement, considérer que toutes les catégories de matière sont régies par la contrainte E = miC2 doit être réévalué. En effet, il est évident qu’une matière chargée électriquement ne peut pas atteindre une vitesse égale à C puisque c’est la vitesse du champ électromagnétique émis par cette matière. De plus la signification physique d’une masse d’inertie est dans ce cas plausible. Est-ce que cela vaut pour de la matière non chargée comme la matière noire ? A l’évidence ce questionnement vaut aussi pour les neutrinos. Il ne peut pas nous échapper qu’il y a des hypothèses qui supposent la substitution et/ou la complémentarité entre matière noire et neutrinos (stériles), notamment en ce qui concerne les amas de galaxies.

Pourquoi la matière noire et l’antimatière noire s’annihileraient en photon gamma comme cela est fortement présupposé avec AMS et avec le télescope Fermi et DAMP (nouveau détecteur lancé par la Chine) ? Cette présupposition est étonnante alors que par définition la matière noire ne rayonne aucune lumière reconnue actuellement quelle que soit la longueur d’onde.

Considérer qu’il est temps de s’émanciper d’un cadre conceptuel devenu trop limité pour aller au-delà est un pari à prendre mais aussi risqué car, de fait, nous n’avons aucun filet raisonnable pour nous projeter vers ce monde inconnu. Je m’appuie donc sur le fait de l’insolvabilité actuelle de la quête de matière noire. Je m’appuie aussi sur le constat que nous sommes constitués physiquement de matière ordinaire au plus profond de nous-même c’est-à-dire qu’il en est de même au niveau cérébral. Est-ce que cela peut induire un tropisme qui fasse obstacle à la perception naturelle d’un au-delà et d’un ailleurs ? Nous ne pouvons pas exclure cette hypothèse. De plus, il est juste de considérer que la matière que nous connaissons et la lumière que nous détectons sont les 2 versants d’un même savoir (voir article du 27/05/2012 : Lumière/Matière ↔ Matière/Lumière). Cela fait que nous sommes constitutivement de parfaits détecteurs absolus de cette lumière et je dirais de parfaits penseurs de celle-ci. S’il y a exclusivité est-elle rédhibitoire ? Je fais le pari que non et je considère que le sujet pensant saura dépasser ce tropisme (voir article du 31/07/2013 : Être de lumière et intelligence des lumières).

A notre connaissance actuelle de la lumière maxwellienne est impérativement associée la vitesse de propagation de celle-ci. Elle a même jusqu’à présent la valeur d’une constante universelle. Or nous sommes confrontés à deux situations physiques où C en tant que limite n’a plus de sens, en tous les cas elle ne peut pas nous permettre de comprendre les phénomènes en jeu. Il en est ainsi de l’intrication et de l’hypothèse du ‘trou de ver’. Dans l’article du 29/12/2015, j’ai considéré que cela était dû au fait que dans ce contexte le concept d’espace-temps n’était plus fondé par l’observateur. Dans certaine situation l’idée de vitesse ne peut être définie, c’est quand nous sommes conduit à considérer que C pourrait être dépassée. Au-dessous de C, au-dessous de cet horizon, le concept d’espace-temps fait référence pour le physicien, au-delà de cet horizon, il ne peut plus le faire. Peut-être est-ce la raison pour laquelle on ne peut pas ajouter de la vitesse à C. Cela ne devrait pas nous amener à considérer que définitivement il n’y a pas de nature au-delà de C.

Dans l’article du 27/05/ 2012, déjà cité, j’ai écrit : « Ces contraintes sont constitutives de l’horizon physique de l’univers, celui que nous pouvons décrypter, qui nous est accessible concrètement et intellectuellement » Début 2016, je dirais que pour bien placer notre pensée afin de nous rapprocher d’une nouvelle physique, comme le souhaite F. Gianetti, nous devrions penser qu’il y a un Monde au-delà de C, bien que le concept tel que celui d’espace-temps et partant la grandeur vitesse n’ont plus cours dans cet au-delà. Il faut reconnaître qu’il y a un risque d’errance, de divagation, intellectuelle car expérimentalement nous n’avons aucun détecteur qui pourrait nous fournir a priori des indices d’un bien fondé de cet au-delà puis que tous déterminés par E = mic2. Ce dont nous disposons ce sont des énigmes théoriques que nous ne savons pas résoudre en exploitant l’arsenal des concepts actuels. Dans ce contexte, il faut repenser ce que disait Einstein à sa conférence d’oxford en 1933 : « L’expérience peut, bien entendu nous guider dans notre choix des concepts mathématiques à utiliser, mais il n’est pas possible qu’elle soit la source d’où ils découlent. […] C’est dans les mathématiques que réside le principe vraiment créateur. En un certain sens, donc, je tiens pour vrai que la pensée pure est compétente pour comprendre le réel, ainsi que les Anciens l’avaient rêvé. » Ici, en fonction de ce que je propose, notre pensée pure créatrice doit être mise à l’œuvre.

Partager cet article
Repost0
16 janvier 2016 6 16 /01 /janvier /2016 09:03

Suite à présentation synoptique du 02/01/2016

Cet article fait suite à celui du 02/01/2016, puisque C. Rovelli a réagi à ma présentation synoptique et m’a fait parvenir son questionnement à ce sujet. Le présent article intègre mes réponses.

De Carlo Rovelli le 09/01/2016

  • Cher Philippe,
    Merci pour votre intéressant message. Est-ce que vous avez des articles ou de textes dans lesquelles votre idée est développée? Comment arrivez-vous à l'estimation de 10-23 à 10-25s pour ce temps du sujet?

    L'idée d'un temps minimal dans le fonctionnement de la conscience est très convaincant, bien sûr, mais un rôle de ce temps au niveau physique est une idée nouvelle, à notre connaissance.
    C'est intéressant de considérer la possibilité que la réalité physique soit interprétée en termes de relations entre systèmes, et dans ce cas, le temps de résolution de sujet de l'information devient important, mais d'où viendrait-t-il un temps de l'ordre 10-24s? Quels phénomènes indiqueraient ce temps? Carlo Rovelli
  • Le 16/01

Cher Carlo Rovelli, je vous joins volontiers mes réponses à votre questionnement. Voilà où j’en suis avec mes réflexions. Peut-être qu’un échange fructueux va s’installer. J’y suis favorable. Bien amicalement.

Réponses à C. Rovelli.

Comment estimer 10-23 à 10-25s ? Cette estimation résulte de la conjonction de 2 réflexions distinctes a priori. En premier, dans les années 1960-70 nous étions submergés par la production de particules résonantes. Certaines avaient une durée de vie τ tellement brève que l’on ne pouvait pas observer leur trace physique dans les détecteurs quels qu’ils soient. Par contre on pouvait les reconstituer à partir des éléments de désintégration. Cela a conduit à l’idée qu’il y avait des particules virtuelles mais réelles jusqu’à une certaine limite et au-delà on ne savait plus se prononcer quant à la réalité en maintenant l’idée de virtualité. La limite se situait autour de 10-21 à 10-22s. Cette limite d’observation est encore vraisemblable malgré les progrès technologiques de la détection directe. Pour avoir de la marge j’ai placé le point aveugle de l’observateur autour des valeurs estimées

L’autre réflexion concerne mon impossibilité d’adhérer au réalisme absolu d’Einstein. A mon sens son affirmation : « Ce qui du point de vue physique est réel … est constitué de coïncidences spatio-temporelles. Et rien d’autres. », contient une contradiction, puisque dans ce contexte l’observateur n’a plus besoin d’être présent. Le mot « observateur » employé après coup (seulement à partir de 1936) par Einstein est à cet égard révélateur. Les coïncidences peuvent exister dans la réalité mais on ne peut pas les observer. Ce n’est que lorsque la présence de l’observateur est incluse que l’on peut constater des quasi coïncidences qui ne sont pas réelles mais considérées comme telles. L’observateur occupe un intervalle de temps TpS qui est la condition de sa ‘Présence’ et qui est aussi un point aveugle de ses facultés. Vous comprenez qu’à ce niveau je fus très intéressé lorsqu’après coup j’ai lu les propositions d’A Connes en 1997 car malgré TpS la métrique est égale à 0 ; (voir article blog du 26/05/2015). Il y avait la possibilité d’une superposition qualitative qui m’intéressait car en plus je partageais sa thèse que le point 0 avait une structure interne. Mais il n’y eut pas de suite de sa part, autant que je sache. Il serait intéressant de comprendre pourquoi il n’a pas persévéré.

Il n’y a pas la possibilité pour le sujet pensant d’accéder à la réalité du monde physique (au sens einsteinien), car ce monde ne peut être pensé que par la ‘Présence’ intégrale de l’être réflexif pour qu’il y ait un discours scientifique sur ce monde.

Enfin un article de Marcia Bartusiak, en avril 1993 : relatant vos travaux avec Ashtekar et Smolin m’avait interpelé : ‘ They need a quantum clock. And that may require some new mathematics…”. Je considère que TpS est le tic-tac primordial de cette horloge quantique.

Vous dites : « un rôle de ce temps au niveau physique est une idée nouvelle. » Effectivement je ne connais pas un développement équivalent et à ce sujet j’éprouve parfois, depuis une dizaine d’années, une solitude intellectuelle pesante. J’ai reconnu des convergences intéressantes. Ainsi L. Smolin, il y a quelques années, a émis l’hypothèse du ‘moment présent’ mais il n’a pas su franchir le Rubicond c’est-à-dire le quantifier. Il n’a pas voulu non plus toucher au totem (voir article blog : 2/05/2013).

En ce qui concerne les travaux de S. Dehaene, ils sont de très grandes qualités mais ils traitent de la conscience (voir article blog du 26/05/2015). Je m’appuie sur ces résultats pour accentuer le caractère vraisemblable de mon hypothèse TpS mais cela se joue sur un autre plan. On ne peut pas envisager qu’à partir du résultat de Dehaene on puisse par intégration passer au niveau de l’existentialité ou bien par un chemin inverse analytique trouver une correspondance logique entre les deux termes. Il y a des niveaux intermédiaires extraordinaires qui relient ces deux extrêmes de la mesure de l’être humain qui nous interdisent de l’envisager (actuellement et probablement jamais). Toutefois il serait intéressant de poser la question à S. Dehaene ou à des spécialistes de ce domaine. Il m’arrive de penser que TpS pourrait être considéré comme un existential au sens donné par Heidegger. Les travaux de Dehaene confirment ce que j’appelle une petite ‘présence’ et il est impossible de considérer : ‘Présence’ = ∑ petites ‘présences’.

A partir du moment où une grandeur physique est attribuée à la ‘Présence’ de l’être réflexif, il est possible, comme vous le dites, d’envisager : « en termes de relations entre systèmes, et dans ce cas, le temps de résolution du sujet de … » D’accord pour systèmes, au pluriel, puisque dès qu’il y a quantification de la ‘Présence’, le sujet pensant peut être considéré comme système (a nuancer). Mais sujet de l’information me semble réducteur car la ‘Présence’ du sujet pensant ne peut être réduite au rôle de vecteur d’information(s). A tout moment il est concepteur, il traite l’information et la façonne.

Votre question : Quels phénomènes indiqueraient ce temps ?

En premier lieu TpS, sa valeur, et le concept de ‘Présence’ sont totalement corrélés.

En plus des considérations sur les particules réelles mais virtuelles le résultat des travaux de Seth Lloyd validerait mon hypothèse. La dimension du proton est in fine la dimension ultime que nous savons estimer. Quid de l’électron.

Le phénomène de l’intrication s’explique, selon moi, à cause de TpS qui est un invariant et Δti < TpS, avec Δti : la durée de la production de l’intrication qui donc obéit à la R.R. Si un observateur observe cette opération dans un référentiel qui se déplace à grande vitesse, s’il voit Δt’i = ϒ Δti> TpS, l’observateur ne voit aucune intrication. J’admets que c’est une expérience compliquée mais…

Une autre expérience est, je crois, maintenant possible. Elle concerne la thèse de la ‘Présence’. Il s’agit de faire appel aux moyens de la magnéto-encéphalographie (Labo de Dehaene, par ex.). Il s’agit de placer un physicien appareillé devant un interféromètre et de détecter ce qui se produit dans son cerveau lorsqu’il a une information spatio-temporelle sur l’objet quantique qui parcourt l’interféromètre, puis lorsqu’il n’a aucune information spatio-temporelle sur sa trajectoire. Cette même expérience doit être réalisée avec une autre personne qui n’a pas de connaissance (formelle) au moins sur le phénomène ondulatoire. On devrait constater que ce ne sont pas les mêmes parties du cerveau qui travaillent. Ainsi on pourrait mieux comprendre le pourquoi de deux apparaitre distincts.

Maintenant que nous savons mesurer l’attoseconde cela a permis de traiter l’effet tunnel d’une façon différente (voir article blog : 17/06/2015). La prochaine étape sera d’accéder à la mesure de 10-21s. Etape intéressante car on sera au bord de la limite de TpS mais il faut attendre encore quelques années.

Les articles indiqués : blog, sont accessibles en demandant sur internet : philip.maulion et les articles apparaissent dans l’ordre chronologique.

Les cours en références que j’assure à l’université sont obtenus en demandant sur Google de 53PH3PP6 (2007) à 53PH3PP14 (2015-2016) ensuite il faut cliquer à gauche sur : Documents et liens . Le 1er cours de PP6 peut vous intéresser, puisqu’il est introductif et plante le décor.

Partager cet article
Repost0
2 janvier 2016 6 02 /01 /janvier /2016 10:57

Tout récemment, j’ai découvert ce site : smc-quantum-physics.com, qui présente une ouverture intellectuelle originale. Ci-joint le concept du site, suivi d’une présentation synoptique de ma conception de la physique. Allez visiter ce site. Comité scientifique : R. Penrose ; A. Barrau ; L. Smolin ; C. Rovelli et autres.

La physique quantique a très vite évolué pendant ces cent dernières années. Malgré son efficacité et le grand intérêt qu’elle suscite dans le monde, elle a souvent laissé un sentiment d’incompréhension et parfois même un sentiment d’incrédulité.
- Le sentiment d’incompréhension est lié au fait que le réel était si bien mathématisable que les physiciens furent conduits à estimer que les structures mathématiques pouvaient être suffisantes pour comprendre la nature du réel.
La mathématisation du réel, cependant, peut parfois conduire à des mirages arithmétiques. Einstein en a fait, d’ailleurs, l’expérience quand, fort de ses succès, il avait conclu, sur base de ses équations, que la physique quantique ne pouvait se passer de variables cachées pour résoudre le problème que posait son paradoxe EPR.
Il aura fallu attendre une nouvelle génération de physiciens pour comprendre, avec Bell et Aspect, qu’aucune théorie à valeur cachée locale, contrairement à ce qu’Einstein affirmait, ne pouvait rendre compte des corrélations entre particules intriquées et séparées par de grandes distances.
La grande diversité d’opinions différentes entre physiciens, quant à la nature de ces corrélations, indique clairement qu’il reste quelques choses à découvrir dans ce domaine.
Einstein, par ailleurs, en développant sa théorie de la relativité restreinte, a introduit un changement important dans les notions de temps et de simultanéité. Ce changement devient encore plus marquant en relativité générale, ainsi que dans les efforts contemporains tendant à construire une théorie quantique de la gravité. La notion intuitive du temps dans la théorie physique se trouve donc remise en question par ces développements.
Ceci nous emmène ainsi à une réflexion sur le concept du temps, qui sans évidemment remettre en question les résultats des théories de la relativité, devrait nous permettre des interprétations de la notion du temps plus compatibles avec notre intuition et avec la mécanique quantique.
- Le sentiment d’incrédulité, soulevé par la mécanique quantique était dû à la nature de certains concepts de cette théorie qui apparaissaient, non seulement contraires au sens commun, mais parfois même incompatibles avec des résultats généraux qui semblaient scientifiquement avérés.
La culture occidentale très imprégnée de concepts d’origines métaphysiques a toujours induit les physiciens à une grande retenue quant aux limites à ne pas dépasser entre la physique et la métaphysique.
Des découvertes, telles que l’apparente communication instantanée entre des particules intriquées ont rendu Einstein incrédule, mais n’ont pas, pour autant, fait l’objet d’un nombre suffisant d’études approfondies dédiées à la recherche d’une compréhension rationnelle de ce phénomène.
Ces problèmes induisent souvent chez le physicien le sentiment trouble que trop y réfléchir signifie sortir des frontières de la science pure.
C’est ainsi que des études passionnantes comme celles qui furent faites par Roger Penrose et Stuart Hameroff sur la relation entre la physique quantique et la conscience, incluant ce qu’ils ont appelé la proto-conscience, n’ont pas reçu un accueil en ligne avec la portée de ces découvertes.
Cette frange un peu floue de la frontière entre la physique et la métaphysique mérite une étude approfondie, à condition que cette étude ne s’éloigne pas trop des sentiers rationnels de la science.
Notre Concept consiste donc à développer plusieurs lignes de réflexion en rendant toutes les idées qu’elles contiennent accessibles à un très large public, but qui pourra être atteint si l’on évite à notre avis, d’utiliser des équations pour compléter nos propos :
1.Les liens de l’entropie avec l’espace-temps. Est-ce que l’ « état particulier » de l’espace-temps au moment du big bang, tel que préconisé par Roger Penrose dans son concept CCC, peut signifier un état ou l’information était conservée?
Ceci justifierait l’idée que l’entropie va en diminuant vers le passé et en augmentant vers l’avenir. (voir dans la section "thèses" les deux articles "Conscience dans l'univers", et "Avant le Big Bang").
2. Les limites entre physique et métaphysique. Qu’est-ce que la protoconscience ? Existe-t-elle uniquement à l’état élémentaire dans les particules, ou bien est-elle également présente dans ce qu’on a coutume d’appeler l’énergie noire, sous sa forme élaborée ?
Si jamais elle existait sous cette forme élaborée dans l’énergie noire, serait-elle la source de cette intentionnalité de l’espace-temps ?
Si l'entropie était conservée et qu’elle était inversement proportionnelle à l’information, il en résulterait que l'intentionnalité de l'énergie noire serait la source du transfert de l'entropie en information pour générer la matière et la vie.
3. La limite de la mathématisation du réel, et la nécessité, à partir d’un certain stade, que nous croyons avoir atteint, de mener la pensée scientifique vers les extrêmes confins de la science avant de toucher à la métaphysique.
4. Notre concept sera la réflexion sur tous les points ci-haut mentionnés, ainsi que l’objet de ce site, et nous avons la claire volonté d’encourager les physiciens par tous les moyens possibles à ne pas hésiter à aller plus loin dans leur réflexion sur ces thèmes-là.
Pour illustrer tout ce qui précède, nous avons sélectionné dans la section "livres" quelques écrits pouvant éclairer nos propos, Tous les mois nous procèderons à l'ajout d'un nouveau livre
avec son résumé en Français et en Anglais

L’ouverture intellectuelle affichée dans la présentation de votre site, m’incite à vous exposer de façon synoptique une conception de la physique qui prend appui sur un paradigme exclu à priori par les physiciens.

Quelle que soit votre avis, à propos de ma conception, de toute façon celui-ci m’intéresse.

Présentation synoptique.

Depuis une dizaine d’années, j’avance pas à pas avec l’hypothèse que nous faisons de la physique en ‘Présence’. C’est l’intitulé de mon cours dans le cadre de ‘l’Université Ouverte’ à l’université Paris7 Diderot : ‘Faire de la physique avec ou sans ‘Présence’ ?’.

Selon mon hypothèse cette ‘Présence’ indélébile est marquée par le ‘Temps propre du Sujet’ pensant qui est de l’ordre de 10-23 à 10-25s et ce ‘TpS’ est aussi le point aveugle de l’intelligence humaine (de l’observateur).

‘TpS’ s’impose sur le plan de la physique car c’est la durée de l’installation de la ‘Présence’ : le moment présent.

Depuis que j’ai formulé cette hypothèse, je considère avoir rencontré des convergences :

Avec A. Connes qui a exprimé en 2007 dans une conférence à l’université de Metz: « L’espace-temps est très légèrement non commutatif, en fait le point lui-même dans l’espace-temps n’est pas commutatif. Il a une toute petite structure interne qui est comme une petite clé. Le point a une dimension 0 au niveau de la métrique mais avec ma géométrie il a une structure interne et j’ai un espace de dimension 6. »

Avec S. Dehaene qui au cours de son intervention en 2015 à l’académie des sciences a confirmé que « Le cerveau ne perçoit pas instantanément les évènements du monde extérieur. Il lui faut au moins un tiers de seconde, et souvent bien plus, avant qu’une information sensorielle élémentaire accède à la conscience. Il montre comment, grâce à l’imagerie cérébrale et notamment à la magnéto-encéphalographie, il parvient à suivre toutes les étapes de traitement visuel non conscientes et conscientes dans le cerveau humain. » A partir de cette confirmation je considère que cette durée correspondant à la ‘tâche aveugle de la conscience’ ne peut pas être sans conséquence sur l’éveil intellectuel et la vigilance observationnelle du sujet réflexif. Il serait quand même difficile de postuler que le fonctionnement par intermittence avérée de la conscience du ‘sujet pensant’ conduise à un fonctionnement intellectuel, observationnel, absolument continu du sujet. Je veux préciser que TpS n’est pas une grandeur de l’ordre de la conscience mais de l’ordre de l’existentialité.

Convergence avec L. Smolin qui a écrit en 2013 : « Mais l’univers réel a des propriétés qui ne sont pas représentables par un quelconque objet mathématique. Une de celles-ci est qu’il y a toujours un moment présent. Les objets mathématiques, étant intemporels, n’ont pas de moments présent, n’ont pas de futurs ni de passés. Toutefois, si on embrasse la réalité du temps et voit les lois mathématiques comme des outils plutôt que des miroirs mystiques de la nature, d’autres faits têtus, inexplicables, concernant le monde deviennent explicables… » Par contre, contrairement à L. Smolin, je ne considère pas que le temps soit donné dans la Nature, il n’est pas naturellement réel mais émergent. Point de vue que je partage avec C. Rovelli, mais pas pour la même raison.

Avec Seth Llyod et Y. Jack Ng, dans un article : ‘L’Univers un monstre informatique’ ils concluent : « En deçà de cette échelle, on ne peut plus parler de géométrie de l’espace-temps. Cette échelle de précision est beaucoup plus grande que la longueur de Planck, mais est cependant très petite : pour l’Univers observable, elle est de l’ordre de 10-15 mètre, valeur qui pourrait être à la portée des futurs détecteurs d’ondes gravitationnelles. » Or, mon estimation de TpS est de l’ordre de 10-23 à 10-25s, soit TpS × C = 10-15 à 10-17 mètre. 10-15m. = 1 fermi est, à la limite, encore accessible à la mesure : c’est la taille estimée d’un proton.

‘Faire de la physique en ‘Présence’’ permet de rendre compte de l’effet Zénon. Ainsi que de l’observation complémentaire : ‘onde ou particule’. En effet, quand l’observateur n’a pas de repère spatio-temporel, il voit l’objet quantique dans une étendue spatiale.

L’intrication de 2 objets résulte d’une opération instantanée ou quasi instantanée, pendant une durée Δti < TpS. Durée pendant laquelle l’observateur ne peut pas fonder ni l’espace ni le temps, référentiel de la localisation et de la chaîne de la causalité. Il en est de même du ‘trou de ver’, ainsi la conjecture de Maldacena et de Susskind : ER = EPR me parle. TpS est un invariant quel que soit le référentiel, toutefois Δti étant la durée d’une opération il peut être > TpS dans un référentiel en mouvement relatif. Il suffit que ϒ soit suffisamment grand.

Mon hypothèse est en opposition de celle d’A. Einstein quand il affirme : «Ce qui du point de vue physique est réel… est constitué de coïncidences spatio-temporelles. Et rien d’autre. » car celles-ci, bien qu’évidemment elles puissent exister, ne peuvent pas être observées. En effet celles-ci annulent la relativité des observations et la présence des observateurs devient superflue. De mon point de vue les lois de la Relativité doivent prendre en compte TpS et donc annule l’affirmation « Séparation entre passé, présent et avenir, ne garde que la valeur d’une illusion, si tenace soit elle »

Partager cet article
Repost0
29 décembre 2015 2 29 /12 /décembre /2015 08:57

De l’implicite à l’explicite

Maintenant que Maldacena et Susskind ont conjecturé (en 2013), E. R. = E. P. R. c’est-à-dire qu’il y aurait une très forte relation d’équivalence entre la proposition originale d’Einstein, Rosen (publication 1935) à propos de l’espace-temps et la proposition, là encore originale, d’Einstein, Poldosky, Rosen (publication en 1935) à propos de l’intrication, il devrait être possible de franchir un cap important en ce qui concerne la conception de l’espace-temps. A l’égard de l’intrication sa bizarrerie est complètement confirmée expérimentalement (voir article, de A. Aspect et les autres, de synthèse finale, publié ces derniers jours, qui en fait enfin un nobélisable en 2016 avec A. Zeilinger). Bizarrerie, parce que toujours inexplicable dans le cadre de nos schémas et concepts traditionnels. Il n’y a que des balbutiements d’explications, ce n’est pas satisfaisant. A propos d’E. R., c’est tout le contraire il y a bien plus de commentaires, d’hypothèses, de propositions multiples d’explications, plus ou moins pertinents, qui ne sont que théoriques car aucune expérience n’apporte de preuves, mêmes faibles, de ce qui est initialement conçu dans l’article E. R.

Originalement, Einstein et Rosen proposent que l’espace-temps constitué de 2 feuillets soient reliés en certains points par des ‘trous de ver’ ; la connexion est appelée ‘pont d’Einstein Rosen’ et ils pensaient pouvoir expliquer ainsi la nature des particules élémentaires. Plus tard, J. Wheeler et Ch. Missner introduisirent l’idée de trous de ver reliant deux régions d’un même espace-temps, ou bien passage possible entre plusieurs univers. Il est d’ailleurs possible que la sortie du trou de ver débouche tout simplement dans une autre région de notre espace-temps, qui nous soit également connectée par un chemin ordinaire beaucoup plus long. Dans ce cas, le trou de ver constituerait un raccourci dans l’espace-temps. Il n’est pas du tout certain qu’un processus physique mène effectivement à un trou de ver. « Seule une physique nouvelle permettra de l’envisager », dixit M. Lachièze-Rey.

Si les trous de ver existaient, selon S. Hawking, « le problème de la limitation des vitesses spatiales serait résolu car en coupant par un trou de ver vous pourriez aller vous baguenauder le matin d’un côté de la Voie lactée et être de retour pour le diner. » Autre paradoxe concevable « Si les deux extrémités d’un trou de ver étaient proches, vous pourriez y entrer et en sortir en même temps. » On peut encore imaginer, « Emprunter l’extrémité d’un trou de ver pour faire un long voyage à bord d’un vaisseau spatial pendant que son autre extrémité reste sur terre. » Bien qu’inspirés de la théorie de la Relativité Générale ces scénarios dépassent notre entendement habituel, d’autant que dans la théorie d’Einstein, dans un contexte standard, un vaisseau spatial se déplace nécessairement à une vitesse inférieure à la vitesse de la lumière.

Jusqu’à présent l’hypothèse du trou de ver n’est pas vérifiable mais elle est fondée sur la base de la théorie de la relativité générale et de la relativité restreinte donc il y une base théorique pour la cogiter. En plus, il est difficile de balayer cette thèse d’un revers de main car pourquoi cette hypothèse serait-elle irrémédiablement incongrue alors que tous les autres concepts et solutions mis en œuvre grâce aux équations de la R.G. sont expérimentalement vérifiés ou presque.

Maintenant que la vérification expérimentale de l’intrication est définitivement confirmée on constate que la communauté scientifique reste toujours coite pour expliquer ce phénomène. On peut donc espérer qu’avec la conjecture E.R. = E.P.R. ce qui vaut pour E.R. en commentaires et hypothèses peut valoir pour E.P.R. et donc faciliter le déploiement d’hypothèses neuves à l’égard d’E.P.R.

Pour ma part, je considère qu’en ce qui concerne E.R., donc l’hypothèse du ‘trou de ver’, les quelques paradoxes que je viens de citer surgissent parce qu’on continue de raisonner toujours avec le même concept d’espace-temps. En fait on ne sait raisonner scientifiquement qu’avec cette hypothèse d’espace-temps comprenant aussi la contrainte universel d’une vitesse limite = C. Mais voilà, est-ce que le spectre des lois et des propriétés de la nature se superpose exactement à nos capacités actuelles de raisonnement et d’identification ? Nous devons envisager que la réponse soit négative et considérer que notre mutisme intellectuel actuel pour expliquer E.R. et E.P.R. en soit le symptôme.

J’ai déjà proposé, (voir articles du 29/10, du 10/11, du 9/12), qu’il se pourrait que l’intrication nous apparaisse comme telle parce que le sujet pensant (l’observateur de ce phénomène) ne peut fonder une base spatio-temporel pour décrire ce phénomène à cause de TpS (intervalle de temps qui a pour nous un apparaître, une mesure = 0). L’espace-temps étant le substrat de la chaine de causalité grâce à laquelle se fonde notre raisonnement, nous sommes ainsi démunis de tout repère de réflexion et de toute capacité descriptive. Enfin concomitamment, pas d’espace et pas de temps, aucune vitesse ne peut être définie. Vouloir décrire l’intrication avec nos concepts habituels d’espace, de temps et de vitesse < C de propagation d’interaction est voué à l’échec (le concept de trou de ver met à mal la convocation de ces concepts pour l’étudier). Ces données et contraintes sont inscrites dans notre esprit, non pas dans la Nature. On peut dire que le phénomène de l’intrication ne nous parle pas parce que nous n’avons pas l’intelligence du code pour rendre compte de la phénoménologie de cette propriété naturelle. Propriété naturelle car il est indéniable qu’il y a un processus qui est en jeu et que nous devons apprendre à le décrypter. Reconnaître et surtout comprendre nos déterminations de sujet pensant c’est en corolaire se donner les moyens de s’en émanciper. Accepter que ces déterminations conditionnent nos capacités actuelles de décryptage des lois et propriétés de la nature, accepter ce qui peut être évalué comme des limites puis les identifier c’est déjà se donner une possibilité de les dépasser.

Ce qui résulte de l’intrication nous perturbe parce que selon notre référentiel de pensées aucune information ne peut être véhiculée à une vitesse supérieure à C. Or nous analysons les choses comme si il y avait violation de ce critère. Ce qui pour nous est une information c’est ce qui fait sens, permet la communication et le débat entre les scientifiques, bref ce qui nourrit l’intersubjectivité. C’est notre condition d’être pensant qui détermine ce cadre. Est-ce que ce cadre peut être dépassé sans basculer dans le domaine de la métaphysique et ainsi quitter le domaine de la science physique ? Est-ce que nous pouvons développer un discours, qui soit scientifique, sur des faits naturels qui ne se produisent pas dans notre référentiel spatio-temporel traditionnel, et qui ne se dise pas au moyen d’une grandeur vitesse ? Est-ce qu’il se peut qu’entre des particules intriquées il y ait interaction, échange de signes qui ne soient pas encore, pour nous, recevables, identifiables comme élément d’information. Oui, cela se peut et l’Homo Sapiens que nous sommes, doit franchir un cap pour accéder à l’intelligibilité de phénomènes qui jusqu’à présent, n’étaient pas pour nous recevables et a priori ne faisaient pas sens.

Il est compris que nous sommes constitués de poussières d’étoile, et ceci est : jusque dans la structure la plus intime de ce qui nous constitue. La matière baryonique nous permet au moins d’être physiquement. Elle est la seule matière dans l’univers dont nous savons identifier son rayonnement. Nous en savons plus maintenant car les acides aminés naturels, briques élémentaires du monde vivant et constituants essentiels des protéines, sont uniquement celles qui sont polarisés gauche par la lumière naturelle (voir article du 02/08/2014). La contribution de la lumière des étoiles à notre être physique (et donc cérébral) est essentielle. Sans être devin on peut considérer que l’être humain est un récepteur particulièrement déterminé, sensible, et un décrypteur affûté des caractéristiques de cette matière/lumière. Naturellement elle fait sens et peut donc être caractérisée. Le problème qui se pose est que tout autre type de rayonnement, d’interaction, de processus, ne peuvent pas obligatoirement être caractérisé par les mêmes grandeurs et les mêmes valeurs. Nous devons franchir ce cap, d’autant que ce que nous savons identifier ne représente que 4,5% de notre univers.

Explicitement, il y a des situations naturelles et des propriétés pour lesquelles le physicien ne peut pas faire référence à un quelconque espace et un quelconque temps pour en rendre compte. Dans ce cas la grandeur vitesse n’a plus de sens car non définissable, dans ce contexte être obnubilé par la violation de la limite constituée par la vitesse de la lumière n’est plus approprié. Il faut penser que la vitesse de la lumière est une vitesse horizon, identifiée comme telle par le fait qu’elle est une composante qui contribue à notre détermination d’être humain. Dépasser cet horizon est maintenant à notre portée et s’impose si on veut continuer à décrypter le monde. Reste à inventer de nouveaux concepts, de nouvelles grandeurs, qui pour nous feront sens et en conséquence nous permettront de prélever des informations nouvelles sur des phénomènes qui effectivement se produisent dans la nature.

P.S.

J’ai lu dans un article : ‘L’Univers, un monstre informatique’ de Seth Lloyd et Y. Jack Ng, in ‘Pour la Science’ de Novembre 2004 : « En deçà de cette échelle, on ne peut plus parler de géométrie de l’espace-temps. Cette échelle de précision est beaucoup plus grande que la longueur de Planck, mais est cependant très petite : pour l’Univers observable, elle est de l’ordre de 10-15 mètre, valeur qui pourrait être à la portée des futurs détecteurs d’ondes gravitationnelles. » Or, mon estimation de TpS est de l’ordre de 10-23 à 10-25s, soit TpS × C = 10-15 à 10-17 mètre. 10-15m. = 1 fermi est, à la limite, encore accessible à la mesure : c’est la taille estimée d’un proton. En conséquence mon estimation de TpS est consolidée par des travaux qui ont une source de réflexion totalement disjointe de la mienne. C’est intéressant !

Un article récent : 9/12/2015, dans phys.org, rapportant des travaux de Dr Toby Cubitt et M. Wolf qui côtoient des problèmes de physique quantique insolvables et les expliquent grâce aux travaux de Gödel et de Turing. « En utilisant des mathématiques sophistiquées, les auteurs prouvent qu’avec une description microscopique sophistiquée d’un matériel quantique, définir s’il a un saut spectral est en fait indécidable. » Ce problème est posé : « Quand l’énergie devient très petite, c’est-à-dire quand les sauts spectraux sont rapprochés. » Cela conduit à s’interroger sur les limites du point de vue réductionniste et en conséquence celles de la dérivation des propriétés macroscopiques à partir de la description des propriétés microscopiques.

Partager cet article
Repost0
16 décembre 2015 3 16 /12 /décembre /2015 15:30

Space-time has a source… but not a quantum source.

I refer to the 2015-11-16 article, published on the ‘Science’ site with the following title: “The quantum source of space-time”. The author: Van Raamsdonk report us that on the entanglement base he can explain that with a reduction process until 0 step that lead to the emergence of space-time. For him, entanglement might be the basis of geometry.

That is an original theoretical conception, and the author got noticed: ‘crackpot’, when he submitted first a paper in 2010. But through sheer willpower and rewriting his final paper is published in: ‘General Relativity and Gravitation’, journal.

Much of this work rests on a discovery announced by physicist J. Maldacena. His research has led him to consider the relationship between two seemingly different model universes. One is a cosmos similar to our own. Although it neither expands nor contracts, it has three dimensions, is filled with quantum particles and obeys Einstein’s equations of gravity. Known as anti-de Sitter space (AdS), it is commonly referred to as the bulk. The other model is also filled with elementary particles, but it has one dimension fewer and doesn’t recognize gravity. Commonly known as the boundary, it is a mathematically defined membrane that lies an infinite distance from any given point in the bulk, yet completely encloses it, much like the 2D surface of a balloon enclosing a 3D volume of air. The boundary particles obey the equations of a quantum system known as conformal field theory (CFT).

Maldacena discovered that the boundary and the bulk are completely equivalent. Like the 2D circuitry of a computer chip that encodes the 3D imagery of a computer game, the relatively simple, gravity-free equations that prevail on the boundary contain the same information and describe the same physics as the more complex equations that rule the bulk.”

As many other physicists V. Raamsdonk worried about the central unsolved questions posed by Maldacena’s discovery: exactly how does a quantum field on the boundary produce gravity in the bulk? There had already been hints that the answer might involve some sort of relation between geometry and entanglement. But it was unclear how significant these hints were. He first considered an empty bulk universe, which corresponded to a single quantum field on the boundary. This field, and the quantum relationships that tied various parts of it together, contained the only entanglement in the system. But now, Van Raamsdonk wondered, what would happen to the bulk universe if that boundary entanglement were removed?

He was able to answer that question using mathematical tools introduced in 2006 by Shinsei Ryu, and Tadashi Takanagi. Their equations allowed him to model a slow and methodical reduction in the boundary field’s entanglement, and to watch the response in the bulk, where he saw space-time steadily elongating and pulling apart. Ultimately, he found, reducing the entanglement to zero would break the space-time into disjointed chunks, like chewing gum chunks.

Better read the original article to support for the demonstration. Anyway for the author there is no doubt: “Entanglement is the essential ingredient that knits space-time together into a smooth whole – not just in exotic cases with black holes, but always.”

Since 2013, in addition to this result, J. Maldacena and L. Susskind claim that E.R. = E.P.R. and if two particles are connected by entanglement, then they are effectively joined by a wormhole. The connection that physicists call a wormhole is equivalent to entanglement. They are different ways of describing the same underlying reality.

A wormhole: a tunnel through space-time was probably introduced first by Einstein and N Rosen (E.R.). Still it is a very enigmatic concept. There is a way to suppose that in that case the proper constraints of special relativity like causal connection and the C. limit velocity are not any more relevant. Anyway physicists do not know how to manage this concept.

Now I refer to my article viXra: 1511.0012 submitted on 2015-11-02: ‘The world is not so Weird if…’, paper in which I recall that with my hypothesis of the subject’s own time τs (or TpS: Temps propre du Sujet) which magnitude is of the order of 10-23 to 10-25s, it is then possible to explain why entanglement’s phenomenon appears to the observer: “Effectively the duration of the entanglement’s production of two quantum objects is very short, quasi instantaneous, and then the duration is Δti < τs. Strictly, quantum physics tell us that the wave function of the entangled objects remains one and indivisible after the operation. We can consider that the observer, being incapable to distinguish each one of the objects which entangle at the beginning, cannot any more recover any ability for distinguish and identify each one of the elements. It’s what we named the non-localisation. We don’t know which is which, although we know that their spatio-temporal histories are very different.” In fact, to be more exhaustive, I must precise that consequently none of the spatio-temporal relationship might relate to the entangled objects because inside the blind duration τs no space and no time can be founded by the observer. So the phenomenology that I advocate since ten years does not need the ‘wormhole’ subterfuge to explain the entanglement phenomenon.

To remind, I have introduce the τs hypothesis because we must take account of the generic ‘Proper time of the thinking Subject’ and so the present moment, the present instant, of the observer is an irremediable duration and must be considered as a physical fact. The absolute instantaneousness is not graspable by the observer. This additional hypothesis must be enrolled in the special relativity equations, and of course is in opposition to the Einstein’s realism statement: ‘The separation between past, present, and future is a great illusion, even so much tenacious it is”. We note that this postulate lead straight forward as a boomerang effect to the ‘Wormhole’, thought up in 1935, but it is still dazzling physicists and it is why they are not yet capable to specify it. In fact the wormhole like entangled phenomenon tells us that the causal connection principle is a principle with reference of the human’s mind. Could be the same thing for C velocity unsurpassable!

Partager cet article
Repost0
9 décembre 2015 3 09 /12 /décembre /2015 15:21

L’espace-temps a une source… mais pas quantique.

Je me réfère à l’article, du 16/11/2015, publié sur le site de ‘Science’ qui a pour titre : « La source quantique de l’espace –temps ». L’auteur : Van Raamsdonk nous propose de rendre compte qu’à partir de la propriété de l’intrication il est possible d’expliquer dans un processus de réduction de celle-ci, jusqu’à zéro, cela conduit à l’émergence d’espace-temps.

C’est une construction théorique originale qui valut à l’auteur lors d’une première soumission à publication de son article, en 2010, d’être qualifié de ‘cinglé’. A force de persévérance et de réécriture, son article finit par être publié avec en prime une distinction dans la revue : ‘Relativité Générale et Gravitation’. Sa construction théorique prend largement appui sur les travaux de Maldacena datant de 2005 qui ont, à cette époque, favorablement étonné la communauté scientifique. Bien sûr, le résultat théorique fut obtenu sur la base de conditions théoriques qui ne correspondent pas à une situation réaliste. J. Maldacena avait réussi à établir que la force de gravitation naîtrait, dans notre monde tridimensionnel, des interactions de particules dans un espace bidimensionnel et dépourvu de gravité. Dans ce cas, le problème de l’unification entre l’interaction gravitationnelle et les interactions quantiques fondamentales c’est-à-dire le problème de la gravité quantique ne se pose plus car il y a une équivalence parfaite entre la physique du volume à 3 dimensions et celle de la surface à 2 dimensions qui l’enveloppe. Il est aisé de se représenter cette conception, il suffit de considérer le circuit d’une puce d’ordinateur (2 dimensions) qui encode les images (3 dimensions) d’un jeu sur ordinateur. Ceci avait amené à publier l’article avec les titres suivants : « La gravité est-elle une illusion ? », « Notre univers est-il un hologramme ? » (Voir article dans ‘Pour la Science’, janvier 2006).

Comme beaucoup d’autres physiciens, V. Raamsdonk est préoccupé de mettre en évidence le fait qu’un champ quantique sur la surface produise de la gravité dans le volume enveloppé. Selon la théorie de la relativité générale : produire de la gravité c’est produire de l’espace-temps puisqu’il y a une complète équivalence. Aussi il réduit son modèle théorique à des conditions simples : a) il considère que le volume de son univers est vide ; b) cela correspond à un seul champ quantique sur la surface. Puis, il modélise ce qui se produit concernant le volume de son univers si le lien d’intrication est éliminé. Pour ce faire, il exploite des outils mathématiques qui ont été développées en 2006 par Shinsei Ryu et Tadashi Takanagi. Leur équation permet de modéliser une lente et méthodique réduction du champ d’intrication de la surface et partant la réaction induite dans le volume où il observe l’espace-temps graduellement s’allonger et se séparer. Finalement, réduire l’intrication à 0 provoque la rupture de l’espace-temps en deux morceaux disjoints.

Evidemment, il faut lire l’article original pour peut-être adhérer à cette démonstration résumée, mais pour l’auteur il n’y a plus de doute la relation entre l’intrication et la géométrie est une relation générale. « L’intrication est l’ingrédient essentiel qui tricote l’espace-temps ensemble en un tout lisse – pas seulement dans des cas exotiques avec trous noirs, mais toujours. »

Complémentairement à ce résultat, Maldacena et Susskind qui considèrent que E.R. = E.P.R. conjecturent en 2013 que si 2 particules sont connectées par intrication, elles se joignent effectivement par un ‘trou de ver’ et vice versa : la connexion que les physiciens imaginent se réaliser au moyen d’un ‘trou de ver’ est équivalente à celle d’une intrication. Elles représentent des voies différentes pour décrire la même réalité sous-jacente.

Le ‘trou de ver’ serait comme un tunnel qui raccourcirait les distances apparentes, selon notre conception habituelle, à travers l’espace-temps et qui assurerait la connexion entre deux objets (par exemple entre deux trous noirs). On attribue à A. Einstein et N. Rosen (E.R.) la première acception de ce concept de trou de ver qui est encore un concept très énigmatique et laisserait supposer que les contraintes propres de la relativité restreinte (par ex. C indépassable) ne vaudrait plus avec celui-ci. Les physiciens ne savent toujours pas comment traiter ce sujet.

Ci-après je me réfère à l’article du 29/10 : ‘L’univers n’est pas si étrange si…’, article dans lequel je rappelle qu’avec mon hypothèse du point aveugle de l’intelligence humaine : TpS, il est possible d’expliquer le phénomène de l’intrication : « En effet la durée de la réalisation physique de l’intrication de deux objets est extrêmement courte, quasi instantanée, et donc se produit sur une durée Δti < TpS. Formellement, la mécanique quantique nous dit que la fonction d’onde des objets intriqués reste une et indivisible après coup. On peut considérer que l’observateur étant incapable d’identifier chacun des objets qui s’intriquent au départ, il ne peut plus, après coup, récupérer une capacité de différenciation et d’identification de chacun des éléments, c’est ce que l’on exprime par la non-localisation. » En fait pour être plus exhaustif, je dois préciser que conséquemment aucune relation spatio-temporel ne peut accompagner les objets intriqués car en l’occurrence le point aveugle l’est aussi pour la fondation de l’espace et du temps de références de l’opération d’intrication. La phénoménologie que je préconise depuis une décennie n’a pas besoin du subterfuge du ‘trou de ver’ pour rendre compte du phénomène de l’intrication.

Pour rappel, j’ai introduit l’hypothèse de TpS parce qu’il faut prendre en compte le ‘Temps propre du Sujet’ pensant générique et l’instant présent ‘le maintenant’ du sujet est irréductible et doit être considéré comme un donné physique. L’instantanéité absolue n’est pas saisissable par l’observateur. Cette hypothèse supplémentaire doit s’inscrire dans la loi de la relativité restreinte, et elle s’oppose au postulat du réalisme d’Einstein : « la séparation entre passé, présent et avenir, ne garde que la valeur d’une illusion, si tenace soit elle. » On constate que le prix à payer de ce postulat c’est le ‘Trou de Ver’, tel un effet boomerang, inventé en 1935 mais qui aveugle encore les physiciens car ils ne savent pas encore comment le caractériser.

Partager cet article
Repost0
10 novembre 2015 2 10 /11 /novembre /2015 09:58

Principe de causalité : construction de l’esprit ou loi de la Nature ?

Dans l’article du 29/10 : l’univers n’est pas si bizarre si…, j’ai affirmé : « Ma réponse est évidente : le processus de l’enchaînement causal est la conséquence d’une projection déterminante de l’esprit humain à l’endroit de la nature. » Dans le présent article, je propose de justifier les fondements de cette affirmation.

Comme déjà précisé, cette proposition n’est pas neuve, depuis 3 siècles on la pense. L’’empiriste critique’ : D. Hume, est évidemment le plus cité à propos de la défense de cette thèse.

David Hume : l'empiriste qu’il est, considère que la connaissance se fonde sur l'accumulation d'observations et de faits mesurables, dont on peut extraire des lois générales par un raisonnement inductif, allant par conséquent du concret à l'abstrait. Il ‘montre’ que nous n’avons pas de connaissance a priori de la causalité, qu’elle est une projection de notre esprit et que l’ordre manifesté par les lois de la physique résulte d’une nécessité intérieure à la pensée elle-même. En 1748, il publie : ‘l’Enquête sur l’entendement humain’. Le point capital de la pensée humienne réside dans sa critique de l’idée de cause. A cette époque le principe de causalité tenait une place essentielle dans la philosophie cartésienne (R. Descartes, 1596-1650) où les effets sont censés résulter des causes.

La critique de la causalité est le plus souvent illustrée par l’exemple brut suivant : « Quand je vois par exemple, une boule de billard qui se meut en ligne droite vers une autre ne puis-je pas concevoir que cent évènements différents pourraient aussi bien suivre cette cause ? Les billes ne peuvent-elles toutes deux rester en repos absolu ? La première bille ne peut-elle retourner en ligne droite ou rebondir de la seconde dans une ligne ou une direction quelconque ? Toutes ces conceptions sont cohérentes et concevables. Alors pourquoi donner la préférence à l’une d’elles qui n’est ni plus cohérente, ni plus concevable que l’autre. » Comme il est dit toutes les conceptions sont cohérentes, ce sont donc plus des conceptions que des observations inconditionnées et c’est donc le conditionnement empirique qui rend l’observateur aveugle vis-à-vis de toutes les autres possibilités. Pour nous, il est quand même difficile de suivre, d’adopter, le point de vue critique de Hume, nous qui sommes intellectuellement formatés par la logique cartésienne et la philosophie kantienne qui considèrent la causalité comme une composante a priori de l’entendement, conditionnant la possibilité même de construire l’expérience humaine à partir des données brutes des sens.

Pas simple de concevoir en dehors de ce moule ! Toutefois, au fond, ce schéma kantien est cohérent si les phénomènes eux-mêmes – la cause et l’effet – sont considérés comme mentaux plutôt que physiques. Alors… ?

Il y a une autre raison qui m’amène à penser que le principe de causalité est une construction de l’esprit et non pas une loi naturelle car dans ce cas il faudrait considérer que la nature est structurée par un ordre préétabli, par des structures réelles mais qui ne peuvent être que finis et qu’il y aurait une harmonie préalable entre la réalité et l’esprit humain. Cela suppose une bonne dose de croyance métaphysique qui me semble aujourd’hui dépassée.

Il est remarquable que la science physique ait atteint un niveau de connaissances et d’énigmes très pointues au point que nous sommes objectivement interpelés sur la problématique : la causalité construction de l’esprit à cause l’empirisme expérimental ou bien règle logée au sein de la Nature ? Voilà la problématique posée par la phénoménologie de l’intrication.

Pour construire une réponse pertinente à ce type de questionnement, il me semble qu’il est approprié d’avoir recours à des connaissances scientifiques dans d’autres disciplines. Je pense plus particulièrement à la paléoanthropologie qui dispose à l’heure actuelle de matériaux très riches et de techniques d’analyses très diversifiées.

J’ai déjà eu l’occasion de citer dans l’article du 21/07/2015 : ‘La seconde naissance de l’homme’, les travaux de J. Guilaine : « Au paléolithique archaïque, aux alentours de 1,9 millions d’années, l’analyse de la documentation fournie par plusieurs sites africains montre une gestion des matières premières fondée sur un certain rapport à l’espace (et donc au temps). A Oldowaï (en Tanzanie), les matériaux bruts nécessaires à la taille ont été apportés de sources distantes de 3 km. De gîtes plus lointains, entre 9 et 13 km, on n’a ramené que des outils finis…

L’histoire des temps paléolithiques, dans leur extrême durée, est précisément caractérisée par une maîtrise de l’espace toujours plus élargie, par des déplacements sans cesse portés vers des frontières plus lointaines. Ces pérégrinations impliquent donc une maîtrise minimale du temps… Dans ce cas, le temps nécessaire pour parvenir aux gîtes est une notion intellectuellement assimilée. » Ce qui est ici signifié : c’est que dans la contrainte de la survie, la corrélation de la distance de déplacement nécessaire avec la durée de ce déplacement s’impose empiriquement. Cette corrélation fait partie de la vie primordiale consciente (Il y a de l’instinct mais il y a aussi du calcul. Il y a de l’instinct parce que tout observateur de la vie animale sauvage peut constater que ces animaux suivent quotidiennement leur parcours dédié à la collecte de nourriture en fonction de la lumière du jour qui est donc instinctivement modifié suivant les saisons). Etre encore sur le chemin du retour une fois la lumière solaire disparue, c’est pour l’Homo (Erectus ou Ergaster) en question, prendre le risque de devenir une proie. Ce conditionnement qui conduit à articuler distance (espace) et durée (temps) vient de loin, il serait donc inscrit dans le cerveau Homo depuis au moins cette époque.

Les paléoanthropologues sont dorénavant presque unanimes pour considérer que le changement climatique serait un facteur important dans l’évolution humaine. Ce serait donc à cause des phases successives de changements climatiques que l’évolution (mise en évidence par Darwin) des différents Homo ce serait produite. Un N° spécial de ‘Pour la Science’ : ‘L’odyssée humaine, les moteurs cachés de notre évolution’, Novembre 2014, de très bonne qualité est très instructif. Plus particulièrement je me réfère à l’article : ‘Le climat, moteur de l’évolution’, du professeur Peter de Menocal, qui en résumé nous dit : « Ces derniers millions d’années, l’Afrique de l’Est a connu plusieurs changements climatiques. La végétation s’est modifiée et, dans la lignée humaine, seules ont survécu les espèces ayant une certaine capacité d’adaptation. » Je conseille fortement de le lire ainsi que tout le N° dans son ensemble. Les théories associant les variations climatiques et l’évolution remontent à Darwin (1809 – 1882). Il postula que des grands changements du climat modifient de façon importante, la végétation et donc l’alimentation, les abris et les différentes ressources disponibles. Les espèces devaient s’adapter, disparaître ou évoluer. L’environnement, déterminé par le climat, favorise les espèces dotées de certains traits. Avec le temps, ces organismes et leur héritage génétique deviennent dominants parce qu’ils survivent en plus grand nombre au changement. Lucy et son espèce (Australopithecus afarensis) se sont éteintes, il y a 2,9 – 2,4 millions d’années, laissant la place notamment aux premiers membres du genre Homo. Ceux-ci présentaient les premiers traits modernes, y compris des cerveaux volumineux. Ces individus ont fabriqué les premiers outils (et peut-être sont-ils les premiers initiateurs d’une forme de langage, au moins d’une faculté de communication au moyen de sons ? Voir article du 10/10/2013).

Il est donc scientifiquement établi que la cause principale de l’évolution des êtres vivants jusqu’à ce que l’on atteigne le stade désigné ‘Odyssée humaine’ soit le climat. Et qu’au sein de cette odyssée ce soit la faculté d’adaptation à cette cause qui a conduit l’homo sapiens à s’installer sur la terre.

Cette cause est d’emblée franchement extérieure à ce qui est à l’origine de l’ordre de la nature humaine. Mais cette nature humaine naissante a dû savoir composer avec les éléments de cette cause extérieure pour obtenir en retour un effet de survivance et de développement. Il y a donc eu un processus d’intériorisation charnelle et cérébrale de ce qui naturellement, extérieurement, s’imposait. Quand je dis processus d’intériorisation cérébrale donc ‘intellectuel’, il ne faut pas exclure processus inconscient (de l’ordre de l’instinct par exemple) et processus conscient. On peut facilement envisager que la part du conscient (élaboration de stratégies adaptatives) est devenue plus importante au fur et à mesure de l’évolution Homo, jusqu’à ce que nous sommes présentement. Conscient ou inconscient, l’empreinte de ce processus reste gravé dans notre cerveau, car nous n’avons pas changé de cerveau, celui-ci s’est enrichi jusqu’à ses développements ultimes. A ce propos, en janvier 2011 des chercheurs du Muséum d’Histoire naturelle ont communiqué une étude des modifications du cerveau au cours de l’évolution de notre espèce Homo sapiens ces 30.000 dernières années : ‘Plus petit, réorganisé, notre cerveau a évolué depuis 30.000 ans’.

En résumé, je propose de considérer que le principe de causalité est un principe sélectionné, élaboré, témoin de l’intelligence humaine embryonnaire, sélection et élaboration qui ont été validées au cours d’un processus empirique et conduisant à la capacité de survivance. Ce principe ne serait donc pas dans la Nature, il correspondrait à une spécialisation sélective de l’intelligence humaine qui doit être franchement identifiée pour être dépassée. Ce principe doit être considéré comme un déterminant de ce qui constitue la nature humaine.

Il faut faire le pari que c’est en approfondissant les propriétés de la Nature que ce dépassement sera possible. Déjà on peut considérer que l’élucidation du phénomène de l’intrication constitue une telle opportunité et que d’autres phénomènes qui se présentent actuellement à notre perplexité vont nous conduire à une capacité de réflexion moins conditionnée.

Plus particulièrement, je pense à un article tout récent : voir Phys.org, le 4/11 : « Des processus quantiques démontrent la superposition d’évènements ordonnés. » avec le commentaire suivant : « Dans une superposition quantique, un objet quantique peut être en même temps dans 2 états quantiques incompatibles, ce qui est illustré par le chat de Schrödinger mort et vivant. Des recherches récentes ont montré qu’il était possible d’avoir une superposition non seulement d’états incompatibles mais aussi d’évènements dans des ordres incompatibles. Nous pensons souvent à des évènements se produisant dans un ordre chronologique définitif, avec l’évènement A se produisant (et causant) l’évènement B, ou vice-versa. Mais dans certains processus quantiques, les évènements ne se produisent pas dans un ordre simple et défini, mais au contraire dans les deux ordres (A avant B, et B avant A) en même temps. Ce phénomène de semblable superposition contre intuitive est appelé ‘non séparabilité causale’. »

Il faut attendre pour en savoir plus sur cette situation et savoir si la fabrication de ces 2 évènements s’est produite dans une durée < TpS car dans ce cas nous avons une explication à proposer.

Si on obtient des preuves tangibles que le principe de causalité est vraiment un principe empirique, un principe déterminant profondément nos capacités intellectuelles, cela ne conduira pas automatiquement au dépassement de cette détermination. Peut-être que cela sera indépassable ? Chaque étape en son temps ! Il est trop tôt pour se poser des questions abyssales. Nous avons tous lu des articles récents mettant en évidence une plasticité cérébrale jusqu’alors ignorée. On verra si cela pourra contribuer au dépassement.

Partager cet article
Repost0
29 octobre 2015 4 29 /10 /octobre /2015 08:21

L’univers n’est pas si bizarre si…

J’ai déjà eu l’occasion de préciser que mon hypothèse de l’existence de TpS (point aveugle de l’intelligence humaine) pouvait expliquer le phénomène de l’intrication. En effet la durée de la réalisation physique de l’intrication de deux objets est extrêmement courte, quasi instantanée, et donc se produit sur une durée Δti < TpS. Formellement, la mécanique quantique nous dit que la fonction d’onde des objets intriqués reste une et indivisible après coup. On peut considérer que l’observateur étant incapable d’identifier chacun des objets qui s’intriquent au départ, il ne peut plus, après coup, récupérer une capacité de différenciation et d’identification de chacun des éléments, c’est ce que l’on exprime par la non-localisation. On ne sait pas qui est l’un et qui est l’autre bien que l’on sache qu’ils suivent des histoires spatio-temporelles franchement différenciées.

Par contre, selon mon hypothèse, ce qui apparaît intriqué dans le référentiel où est réalisée l’intrication, peut très bien ne pas l’être dans un autre référentiel, il suffit que l’autre se déplace à une vitesse relative suffisamment importante par rapport au premier. En effet, étant donné que la réalisation d’une intrication est une opération technique, celle-ci obéit à la loi de la dilatation du temps. En effet, si Δti < TpS, il est possible que le Δt’o soit > Tps dans l’autre référentiel en mouvement, il suffit que la valeur de ϒ le permette : Δt’o = ϒ Δti et donc l’intrication n’est pas observée dans ce référentiel. De cette façon on peut valider ou invalider l’hypothèse de TpS. Je dois préciser avec insistance que ceci vaut uniquement du fait que la réalisation de l’intrication est le fruit d’une opération technique. Le TpS est une grandeur intrinsèque au sujet pensant et donc évidemment le même quel que soit le référentiel dans lequel il se trouve.

Tout récemment, le 22/10/2015, dans Phys.org, un article est publié avec le titre : ‘L’univers est réellement bizarre, et une expérience quantique de référence le prouve.’ Voici l’essentiel de ce qui est écrit :

La causalité locale est considérée comme une supposition scientifique naturelle et elle gouverne toutes les théories scientifiques modernes, la mécanique quantique faisant exception. La causalité locale est sous-tendue par deux suppositions. La première est liée au principe de la causalité relativiste d’A. Einstein qui nous dit qu’aucune influence causale ne peut se déplacer à une vitesse supérieure à celle de la lumière.

La seconde est liée au principe du sens commun proposée par H. Reichenbach qui nous dit sommairement que si on pouvait connaître toutes les causes d’un événement potentiel, on connaitrait ainsi tout ce qui est nécessaire pour prédire s’il se produira ou non.

Alors que la mécanique quantique est une théorie aux succès remarquables, elle n’est toujours qu’une théorie puisque des prédictions de cette théorie découvertes par J. Bell en 1964 ont été soumises à l’expérience pendant toutes ces décennies.

Maintenant, on peut considérer que toutes les failles expérimentales qui pouvaient être mises en avant à l’occasion des expériences successives sont définitivement levées (voir article dans le blog du 13/10/2011) grâce à l’expérience remarquable réalisée ces derniers temps par R. Hanson et ses collègues dans les laboratoires hollandais.

Nous pouvons maintenant valablement et définitivement nous interroger à propos de l’intrication et de sa signification scientifique : est-ce que l’influence causale se propage à une vitesse supérieure à celle de la lumière ? ou est-ce que la notion du sens commun qui se rapporte à ce que signifie le mot « cause » est faux ?

L’expérience de R. Hanson n’apporte aucune information qui permettrait de choisir entre une réponse ou une autre. Physiciens et philosophes sont toujours divisés sur cette question, et sur ce que cela signifie en ce qui concerne la réalité de la nature.

La conclusion de l’article induit que la levée de toutes les failles éventuelles relatives au constat de l’intrication nous conduit à devoir apporter maintenant une réponse au questionnement suivant : « La causalité au sein des choses ? La causalité dans l’esprit humain ? » Voir article du 08/09/2015 : « La conquête de tous les possibles »

C’est donc une propriété physique qui nous amène à ce que nous apportions une réponse fondamentale à propos du sujet pensant. Ma réponse est évidente : le processus de l’enchaînement causal est la conséquence d’une projection déterminante de l’esprit humain à l’endroit de la nature. Et la vitesse de la lumière est une contrainte de vitesse limite qui n’a de sens que dans l’univers que nous sommes actuellement en mesure de concevoir et de projeter... jusqu’à ce qu’une nouvelle dynamique intellectuelle s’impose permettant de dépasser cette contrainte afin de transcender les apories qui sont aujourd’hui les obstacles majeurs à notre progression de la découverte des propriétés dans la nature

Ce type de préoccupation n’est pas nouveau déjà D. Hume (1711-1778) en son temps, après J. Locke, G. Berkeley, étudie essentiellement les idées de relation, et il soutient que mis à part l'espace et le temps qui nous sont donnés (sic), les relations (dont celles de causalité) n'ont rien d'objectif, mais reposent principalement sur les dispositions cognitives d'un sujet connaissant. Ce qui était pur thème philosophique à cette époque devient aussi, 3 siècles après, un thème de la science physique et par nécessité nous sommes au bord de devoir le traiter comme tel (voir article du 18/03/2015 : Décrypter la physique comme science de l’interface de l’être humain et de la Nature) et d’apporter une réponse.

L’autre sujet qui pourrait justifier la thèse ‘Faire de la physique en ‘Présence’’, est l’effet Zénon. Cet effet est l’objet d’une récente publication du 23/10 dans Phy.org et le 2/10/2015 dans ‘Physical Review Letters’ : ‘Effet Zénon vérifié. Les atomes ne bougent pas pendant que vous les regardez’. L’expérience est probante et confirme les prédictions théoriques et expérimentales de G. Sudarshan et B. Misra de l’université du Texas en 1977. Le supplément d’originalité de cette expérience, c’est de constater pour la première fois l’effet Zénon concernant l’immobilisation spatiale des atomes ultra froids, alors que jusqu’à présent l’observation de cet effet était constatée sur la composante temporelle avec le blocage de la désintégration des objets quantiques observés avec une particulière insistance par le sujet pensant.

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens