Overblog
Suivre ce blog Administration + Créer mon blog
14 octobre 2014 2 14 /10 /octobre /2014 08:03

 

 

 

        

                                        Stanislas Dehaene : suite.

On peut considérer que la publication du livre de S. Dehaene est pour nous un bel événement. En conséquence j’en profite pour prolonger l’exploitation de la matière de ce livre en rapport avec l’ensemble des sujets qui nous préoccupent depuis plusieurs années.

p. 133, paragraphe : Statistiques inconscientes, échantillonnage conscient 

Selon S. Dehaene, globalement comment ça fonctionne ? :

« Ma vision de la conscience suggère une répartition naturelle du travail. Dans les profondeurs de l’inconscient, une armée de travailleurs souterrains effectue un énorme travail de fond : tous traitent des monceaux de données. Pendant ce temps, au sommet, un petit groupe distingué d’administrateurs de haut niveau, sur la base d’un condensé de la situation, réfléchit aux décisions conscientes avec toute la pondération nécessaire. »

En conséquence : « Notre conscience, par contre, ne nous donne qu’un aperçu très réduit de cet univers probabiliste – ce que les statisticiens appellent un « échantillon » de la distribution des possibles (sic). La conscience n’hésite pas à simplifier les choses : elle résume le monde à sa plus simple expression, un aperçu suffisamment condensé pour être utilisable par nos systèmes de prise de décision. »

P.136 : « Une armée de processeurs inconscients évalue toutes les possibilités, mais notre conscience n’en reçoit que la synthèse. »

P.138 : « Ce que nous voyons à un instant donné est donc, le plus souvent, l’interprétation la plus probable, mais d’autres possibilités font irruption dans notre conscience, avec une durée proportionnelle à leur vraisemblance. L’inconscient calcule toutes les probabilités, tandis que la conscience les échantillonne au hasard. »

Ce que nous signifie S. Dehaene c’est comment le sujet pensant fonde ses vérités qui sont le fruit de l’interprétation la plus probable. En conséquence, il vaut la peine de s’interroger sur la problématique de la vraisemblance. Il est implicitement indiqué que les autres possibilités ont des vraisemblances relatives. Comment s’établit cette hiérarchie ? Est-ce que ce sont des vraisemblances qui sont établies par notre entendement pur inhérent au sujet pensant ? A priori la réponse ne peut être que négative. Par contre la vraisemblance a toutes les chances de s’établir sur des acquis empiriques en fonction de l’expérience, de l’éducation, de la culture, des préoccupations du ‘sujet pensant’. Ce qui serait intéressant de comprendre, c’est comment la référence au vraisemblable peut évoluer. C’est-à-dire que, ce qui n’était pas vraisemblable, ou peu, pour la conscience, avant, le devient un peu plus, voire plus, après coup[1].

Je veux illustrer mon propos avec l’exemple suivant qui me touche directement. J’ai créé mon blog il y a maintenant 3 ans avec l’idée principale que E = mc2, n’est pas la panacée et que la constante C : ‘vitesse’ de la lumière n’est universelle que dans la contrée de notre capacité de penser actuelle. Depuis, j’ai toujours eu comme retour que ces hypothèses étaient invraisemblables, gratuites, sauf que depuis quelques mois ces hypothèses deviennent formulables. Pas plus tard que ce matin (le 10/10/2014), je peux lire dans l’annonce d’un colloque (qui aura lieu 3 jours plus tard) : « Existe-t-il des interactions se propageant plus vite que la lumière ? » Qui est-ce qui fait qu’au sein de la communauté des physiciens cela devienne maintenant, pour quelques un, moins invraisemblable de penser : plus vite que C ? Toujours est-il que selon moi, ce n’est pas ainsi qu’il faut aborder ce sujet. Comme je l’ai proposé dans l’article : « Un authentique Big-Bang ; Fracturer le masque parfait de la Relativité Restreinte. », du 27/08/2014, il faut questionner les conditions de possibilités de l’anthrôpos de transcender les déterminations qui sont actuellement les nôtres à propos de l’exploitation de l’espace et du temps car comme je l’indiquai, p.1 : «Il en est de même pour les autres grandeurs qui vont suivre dans l’article. Ce qu’il faut retenir c’est que toutes les grandeurs qui sont appropriées par l’intelligence primordiale et dont la référence première est offerte par la Nature, ne le sont que par un processus de réduction vis-à-vis de toutes les possibilités (sic) qui sont offertes par cette Nature. »  Merci S. Dehaene d’apporter de l’eau à mon moulin.

Dans ‘Le code de la conscience’, il y a un sujet, dans le chapitre 4, aussi très intéressant qui est traité : ‘Chronométrer l’accès à la conscience’, et : ‘La conscience en retard sur le monde’. Selon les personnes, il faut entre 1/3 et 1/2 seconde pour prendre conscience d’un évènement. P.177 : « Une conséquence importante de ces découvertes est que notre conscience est en retard sur les événements. Non seulement nous ne percevons qu’une toute petite fraction des signaux qui bombardent nos sens, mais quand nous y parvenons, c’est avec un délai important. A ce titre, notre cerveau ressemble à un astronome qui recueille la lumière des étoiles : parce que la vitesse de la lumière n’est pas infinie, la nouvelle de l’explosion d’une supernova ne lui parvient que des millions d’années après qu’elle a eu lieu. De même, parce que notre cerveau accumule les données avec lenteur, ce que nous jugeons comme le « temps présent » de la conscience reste à la traîne de la réalité physique. La prétendue « vitesse de la pensée » n’a rien d’extraordinaire : notre cerveau est tellement plus lent qu’un ordinateur qu’il lui faut au moins un tiers de seconde pour réagir consciemment. Bien souvent, cette durée s’allonge lorsque l’entrée sensorielle est si faible que le cerveau doit accumuler de nombreuses données avant de franchir le seuil de la prise de conscience (cette situation est semblable à celle de l’astronome qui prolonge l’exposition pendant plusieurs minutes afin de photographier la lumière des étoiles les plus faibles)… « Nous sommes tous aveugles aux limites de notre attention et nous n’avons aucune conscience que notre perception subjective est en retard sur le monde extérieur… »  

Depuis de nombreuse années, j’ai formulé et développé l’hypothèse de τs (Temps propre du Sujet : TpS) apprécié avec un ordre de grandeur de 10-25seconde et je le qualifie de point aveugle de l’intelligence humaine. Est-ce que j’ai le droit d’envisager une convergence entre le point aveugle de la conscience et le point aveugle de l’intelligence ? Evidemment cela ne se peut directement, la conscience et l’intelligence sont deux instances très distinctes. A priori aucun pont de correspondance ne peut être établi entre ces deux moments aveugles du sujet pensant. Ce sont deux déterminations qui n’ont pas les mêmes conséquences. La période aveugle de la conscience n’est certainement pas un obstacle pour l’être pensant dans sa quête de connaissance et de compréhension du monde, ses conséquences sont effaçables (S. Dehaene, cite des exemples p. 178 – 180). La période aveugle de la conscience s’impose pour des raisons fonctionnelles. Le fonctionnement de notre cerveau, tel que nous le connaissons aujourd’hui met en relief ce que sont ses contraintes. Je fais l’hypothèse du point aveugle de l’intelligence humaine, TpS, pour des raisons existentielles. C’est un intervalle de temps inexpugnable (il pourrait rendre compte : du pourquoi de l’intrication), ses conséquences ne sont pas effaçables, donc il n’est pas possible de penser qu’il puisse y avoir un rapport d’homothétie entre ces deux moments aveugles. Toutefois pas de potentialité de conscience = pas d’intelligence, dans cette situation c’est l’instinctuel qui constitue la référence.

A l’origine de l’hypothèse TpS, je fais référence à une durée (insécable) de retrait, une durée de renouvellement, de réinitialisation (de son unité dans le monde), de l’être pensant. C’est pour cette même raison que S. D. a identifié une durée aveugle de la conscience, cela correspond à la nécessité d’une réinitialisation de l’activité de la conscience occupée par la situation précédente. Il y a là, une contrainte commune identifiée que j’ai expliquée pour une part, à propos de TpS, comme une condition de la mobilité de la pensée et partant du langage et d’autre part le moment aveugle de la conscience mis en évidence par S. Dehaene s’explique comme une nécessité de recouvrer une disponibilité de la conscience.

A des niveaux très distincts, ces deux atavismes ont une fonction de réinitialisation, de régénérescence, de l’être pensant dans un cas et du cerveau de l’être pensant dans l’autre cas. Je m’appesantis sur cette similitude, parce qu’il me semble que ce sera très difficile voire impossible d’accéder à l’identification directe de τs par contre il sera peut être possible, sans chercher à établir un rapport d’homothétie, de valider l’hypothèse de τs, comme une hypothèse légitime voire souhaitable, sur la base de résultats relais, de concepts relais, identifiables, permettant ainsi de concevoir une représentation cohérente des modalités et des capacités d’investissement du ‘sujet pensant’ dans la dynamique de sa quête irrépressible de la connaissance du monde. 

Si le point aveugle de la conscience est à coup sûr une détermination du sujet pensant, il ne semble pas qu’il soit un obstacle rédhibitoire dans sa quête de la connaissance du monde, par contre à l’évidence TpS est un déterminant aux conséquences rédhibitoires. A nouveau, je propose d’exploiter un résultat expérimental décrit dans le ‘Code de la Conscience’, p.136, « Si vous regardez un bâton par le trou d’une serrure, vous ne parvenez pas à déterminer comment il bouge, car une infinité de mouvements réels sont compatibles avec le mouvement observé. Chaque neurone de l’aire MT/V5 est soumis à cette ambiguïté fondamentale – et pourtant nous n’en avons pas conscience. Même dans les pires circonstances, nous ne percevons qu’un mouvement particulier, mais jamais un ensemble de probabilités. Notre cerveau prend une décision et nous donne à voir l’interprétation qu’il juge la plus probable. En l’occurrence, c’est celle qui minimise le déplacement : nous voyons le bâton se mouvoir dans une direction perpendiculaire à lui-même. Une armée de processeurs inconscients évalue toutes les possibilités, mais notre conscience n’en conçoit que la synthèse. »

Réfléchissons car ce résultat n’est pas banal. Premièrement et comme par ‘hasard’ le cerveau qui prend la décision sur l’interprétation de cette expérience opte pour le déplacement minimum. Ceci est vraiment en phase avec le principe de moindre action tel qu’il fut énoncé par Pierre Louis Moreau de Maupertuis, en 1744. S. Dehaene dit : « Notre cerveau » ; je reprends : « Le cerveau », parce qu’il me semble important de distinguer les cerveaux imprégnés intellectuellement de ce principe de moindre action de ceux qui ne le sont pas du tout. Si le résultat est le même dans ces deux cas de figure, alors S. D. a raison, on peut dire « Notre cerveau » et dans ce cas nous avons à faire à une détermination du sujet pensant dont il faut comprendre son origine, sinon il faut faire la distinction expérimentale, comprenant des observateurs ayant, d’un côté, et n’ayant pas, d’un autre côté, la connaissance du principe de Maupertuis.

Revenons sur les conditions de l’expérience ci-dessus : on regarde par le trou d’une serrure, c’est-à-dire qu’on regarde dans les limites d’une distance spatiale imposée et en conséquence on ne peut pas décrire le mouvement réel du bâton, mais simplement donner une description de ce mouvement tel qu’il nous apparaît. Nous n’avons pas accès à la réalité du mouvement mais un collectif d’observateurs homogène sur le plan intellectuel peut concevoir et partager une vérité fondée sur l’apparaître du mouvement et le penser avec force comme étant le mouvement réel.

Maintenant, je propose de reprendre l’idée de cette expérience mais les limites de l’observation sont celles d’une distance temporelle et c’est τs. Eh bien, les conséquences sont les mêmes. Il n’est pas possible de voir la chose telle qu’elle est mais on peut simplement voir qu’à travers le filtre de la contrainte temporelle.  Ce résultat illustre ma thèse que le sujet pensant ne peut accéder au monde réel.  

 



[1]Je fais référence à l’article : ‘Les intuitions en géométrie sont-elles universelles ?’ dans Techno-Science, le 25/05/2011, qui rend compte de l’analyse d’un test entre des Indiens Mundurucus, vivant en Amazonie dans un territoire isolé : 22 adultes et 8 enfants de 7 à 13 ans, n’ayant jamais reçu d’instruction en géométrie et une trentaine d’adultes et d’enfants originaires de France et des Etats-Unis qui avaient étudié la géométrie… Dans un univers sphérique, il s’avère que les Indiens d’Amazonie répondent mieux que les Français et les Nord-américains. Ces derniers auraient de par l’apprentissage de la géométrie à l’école, acquis une plus grande familiarité avec la géométrie plane qu’avec la géométrie sphérique. On constate dans cet article que les représentations induites par les critères de la géométrie sphériques restent vraisemblables chez les Mundurucus. 

 

 

Partager cet article
Repost0
1 octobre 2014 3 01 /10 /octobre /2014 13:46

 

 

 

                                         Au sein d’une éternité parmi tous les possibles…

 

Stanislas Dehaene, publie un nouvel ouvrage : ‘Le Code de la Conscience’, à paraître le 8/10/2014, édit. Odile Jacob. La revue ‘La Recherche’, d’octobre 2014, propose un article : ‘Science avec conscience’ qui commente la valeur de ce travail, avec la publication d’un extrait. J’ai déjà eu l’occasion d’exprimer mon grand intérêt pour les travaux de S. Dehaene et j’ai tenté de vous le faire partager dans plusieurs articles dont celui du 2/11/2012 : ‘Thomas Bayes dans le cerveau ?’

 

Dans la suite du présent article, je vais faire référence à deux articles du Blog datant du 27/08/2012 : ‘D’infinis précautions.’, et du 21/12/2011 : ‘L’être humain est-il nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la Nature ?’ Enfin plus récemment le 27/05/2014 : ‘Persévérons car cela progresse dans le bon sens…mais lentement en zigzag’, notamment l’annexe de cet article.

 

Je suis désolé de commencer par toutes ces références mais cela met en évidence que ce n’est que par une succession d’inflexions que l’on peut traiter du sujet de la connaissance, prétendue universelle, en ce qui concerne la connaissance en physique. Affirmer que ‘La physique n’est pas une science qui nous conduit à la connaissance de la réalité. Elle conduit à établir des vérités fondées.’ (le 22/03/2014), ne va pas de soi car cela constitue un tremblement à l’égard des fondements de notre formation intellectuelle première et d’une croyance culturelle occidentale très ancrées. Donc tout ceci ne doit pas être provocant mais matière à une réflexion approfondie. Chaque nouvelle étape proposée doit légitimer ou rectifier si nécessaire la/les inflexion(s) précédente(s), bref, il faut dans la durée avoir des convictions chevillées au corps. A titre d’illustration, l’article de ‘La Recherche’, page 68, s’intitule ‘Science avec conscience’. Pour moi, l’affirmatif n’est pas encore à l’ordre du jour et j’aurais proposé ce titre à l’interrogatif. Par exemple un fervent platonicien, (ce que je ne suis pas, mais je ne peux pas ignorer leur influence dominante), affirmerait que l’émergence de la connaissance en physique n’a rien à faire avec une conscience créatrice puisque les lois mathématiques de la Nature sont déjà là, inscrites dans la Nature. Il suffit donc de savoir les reconnaître, c’est donc essentiellement un travail de ‘lecture’.

 

Dans la description introductive de mon blog, j’indique que le référentiel principal de celui-ci est anthropocentrique, c’est-à-dire que les connaissances scientifiques (en physique fondamentale) sont avant tout le fruit des capacités cérébrales intrinsèques et évolutives du sujet pensant. Je comprends que les travaux de S. Dehaene contribuent à conforter l’assise sur laquelle je développe et vous soumets ma réflexion.

 

Dans la ‘Recherche’, p.69, je cite S. Dehaene : ‘Ce que nous voyons à un instant donné est donc, le plus souvent, l’interprétation la plus probable, mais d’autres possibilités font irruption dans notre conscience, avec une durée proportionnelle à leur vraisemblance. L’inconscient calcule toutes les probabilités, tandis que la conscience les échantillonne au hasard.

 

Cette loi probabiliste démontre qu’au moment même où nous percevons l’une des interprétations d’une scène visuelle, notre cerveau continue de s’interroger, inconsciemment, sur les autres possibilités et se prépare à changer d’avis à tout instant. Comme le dit Pierce : « l’étoffe de notre savoir n’est qu’un entrelacs d’hypothèses pures confirmées et raffinées par l’induction. » Pourtant, consciemment, nous ne percevons qu’un seul échantillon parmi toutes ces possibilités (sic)… Echantillonner l’espace des possibles semble être l’apanage de la conscience. »

 

« Les processus inconscients sont donc, dans une certaine mesure, plus objectifs que la perception consciente. Notre armée de neurones inconscients évalue toute la distribution de probabilité des états du monde, tandis que la conscience la réduit impitoyablement à quelques échantillons. Les processus inconscients travaillent avec des probabilités continues, mais notre esprit conscient n’a accès qu’à des symboles discrets dont le contenu bascule soudainement, en tout-ou-rien. L’inconscient quantifie, la conscience discrétise. »

 

« Cette organisation ressemble étrangement à celle de la mécanique quantique (sic). En effet celle-ci nous dit que la réalité est faite d’une superposition de fonctions d’ondes qui gouvernent la probabilité de trouver une particule dans un certain état… Or les données que nous venons d’examiner montrent qu’un phénomène similaire survient dans le cerveau : le simple fait de prêter attention à un objet fait s’écrouler la distribution de probabilité de toutes ses interprétations possibles, et ne nous donne à voir que l’une d’entre elles. La conscience se comporte comme un instrument de mesure qui discrétise le réel et ne nous donne à voir qu’un minuscule aperçu de la vaste étendue des calculs inconscients. »

 

Dans l’article ‘D’infinis précautions’, j’ai proposé au final, la réalisation d’une expérience de physique quantique qui place au centre de celle-ci l’investissement cérébral de l’observateur et qui exploiterait les moyens des neurosciences cognitives et d’imagerie cérébrale. Les travaux de S. Dehaene me conduisent à persister de penser que celle-ci devrait être réalisée.

 

Cet article vise évidemment à vous communiquer l’envie de lire à la fois l’article de la ‘Recherche’ et lire directement le livre quand celui-ci sortira dans les librairies.

P.S. l'article du 11/01/2014 : 'L'étrangeté quantique, une illusion ?', est aussi un article référence à propos de ce sujet.

Partager cet article
Repost0
23 septembre 2014 2 23 /09 /septembre /2014 11:41

 

 

 

 

 

 

Descartes, Spinoza… merci Maurice Merleau-Ponty[1].

            Grâce à l’ouvrage cité de M. Merleau-Ponty, j’ai pu constater après coup que certaines des idées  mises en avant pour étayer le contenu de l’article un ‘Authentique Big-Bang’ ont déjà été débattues lorsqu’il s’est agi d’expliquer l’évolution du rapport d’intelligence entre le sujet pensant et la nature. Par exemple, comment l’être pensant puise dans sa relation primordiale à la nature, ce qui va forger sa compréhension, sa représentation, sa pensée, notamment de l’espace ?

Rappel de ce que j’ai proposé dans l’article en question. « Ainsi, c’est un authentique ‘big bang’ qui s’est produit quand a surgi dans la Nature une première intelligence, surgissement que l’on situe à peu près entre 10 à 8 millions d’années. Cette intelligence primordiale de notre ancêtre, qui est à l’origine de la trace de la lignée humaine, s’est différenciée des autres hominoïdes en s’installant dans l’espace et dans le temps. C’est donc une ‘Présence’ embryonnaire qui s’installe. On peut concevoir que cet ancêtre intègre premièrement l’idée d’espace parce que la nature lui offre le support concret qui permet le déplacement, le changement de lieu, ainsi que le repérage concret, physique, des lieux qui diffèrent. L’idée de l’espace s’impose sur une base proprement fonctionnelle, elle est corrélée significativement avec le support proprement tellurique et elle résulte d’un rapport premier ‘d’intelligence’ avec ce qui est offert par l’environnement naturel immédiat. C’est une appropriation, comme toute appropriation, elle se fait par un conditionnement aux fins qui lui sont attachés (pensons à la multitude d’étalons de distance qui ont été inventés par l’homme). L’Idée de l’espace au sens exprimé par Platon ne se forgerait, selon ce processus, bien après coup, à la suite d’un développement intellectuel déjà très sérieusement élaboré qui favoriserait le processus d’une abstraction idéale plus complète, exactement parfaite, (détachée de son conditionnement fonctionnel) qui conduirait à l’Idée de l’espace. »

Avant tout, je cite, ‘la Nature’, p. 335 « Par suite le rapport homme – animalité n’est pas un rapport hiérarchique, mais un rapport latéral, un dépassement qui n’abolit pas la parenté. Même l’esprit est incroyablement pénétré de sa structure corporelle : l’œil et l’esprit. C’est à partir du visible que nous pouvons comprendre l’invisible. A partir du sensible que nous pouvons comprendre l’Etre, sa latence et son dévoilement…» Cette conviction du rapport latéral a été un point d’appui important dans mon article du 27/08, et à ce titre j’ai cité un ouvrage plus récent : ‘La fin de l’exception humaine’.

Dans ‘La Nature’ de M. Merleau-Ponty, p33-34 : « Lorsque nous pensons l’espace, nous pensons une unité spirituelle ; lorsque nous le voyons, nous nous trouvons en face de parties juxtaposées. Le mode d’action, dans cette étendue réelle, ne peut être que le mouvement : d’où le mécanisme cartésien. Spinoza, au contraire, ne connaît pas cette opposition entre l’étendue réelle et l’étendue pensée. Le rapport entre les deux termes est un rapport tout autre ; c’est un rapport intrinsèque, une corrélation entre l’idée et son idéat. (Idéation : processus de la formation et de l’enchaînement des idées). L’idée de l’espace intelligible et l’idée de l’espace perçu ne sont séparées que par une différence d’idéation, plus ou moins finie. Aussi le mécanisme ne se retrouve-t-il pas chez Spinoza : le mathématisme enveloppe tout. Les actions physiques ne sont plus réduites à des transports de mouvements, mais à des relations intelligibles. Le possible et l’actuel sont équivalents

« Ce réalisme est-il une survivance ? Certes, le mécanisme cartésien, au sens étroit d’explication du monde par des machines simples, est sans avenir scientifique. Mais il est intéressant dans la mesure où il traduit une résistance à une idéalisation du monde. Nous ne sommes pas en relation avec des corrélats de pensée, mais avec des réalités. Réalités irréductibles, réalité qui ne peut être comprise par l’esprit pur. C’est déjà ce que Kant exprimera en disant qu’il y a dans les objets de l’espace quelque chose qui résiste au pur entendement… »

 

 

La question que nous pouvons nous poser est la suivante : est-ce que nous avons la capacité de concevoir une pensée de l’espace pur, sans que soit convoqué concomitamment le processus (le mode d’action) par lequel nous avons pu nous l’approprier en tant qu’être pensant ? Si nous ne pouvons pas penser l’espace purement, sans qu’il lui soit attaché le mouvement qui est à l’origine de la genèse de sa ‘globalisation-abstraction’, alors, à la pensée objective de l’accroissement de l’espace se trouve automatiquement associée la nécessité souterraine d’une action induisant le mouvement associé. Je pense concrètement à la problématique de l’énergie sombre qui serait le moyen d’expliquer la raison d’une observation de l’accélération de l’expansion de Notre univers. C’est selon la majorité de la communauté scientifique ce que nous observerions par l’intermédiaire de l’évaluation des distances ‘réelles’ des Supernova de type IA. Expansion accélérée de Notre univers, signifie que depuis peut-être plus ou moins 8 milliards d’années, celui-ci a sa dimension spatiale qui s’accroît avec le temps a une vitesse de plus en plus élevée, quittant ainsi un régime d’expansion à vitesse constante définie par la loi de Hubble.

C’est notre espace qui s’accroît et concrètement nous le visualisons indirectement par un redschift plus important, c’est de l’espace conquis, de l’espace neuf, une extension d’une quantité d’apparaître nouveau ! Devons-nous être étonnés que soit associée à cet accroissement une énergie qui en serait la cause ? Parmi les explications, il y en a une qui prend en considération l’idée que cette énergie est sous-jacente à l’espace-temps. Lorsque celui-ci s’accroît, de fait, il libère (il fait apparaître) cette énergie qui contribue à un nouveau supplément d’expansion, ainsi de suite. C’est la thèse de la quintessence. L’autre thèse qui produit le même effet est celle de l’énergie sombre, dont la densité est constante, qui est interprétée comme une propriété de l’espace-temps.

            Si, comme je le propose, on pense qu’il n’y a pas de mécanisme qui pousse à une extension effective et accélérée de Notre univers, mais plutôt qu’il y a une conquête intellectuelle, grâce à l’accroissement de nos capacités d’inférence, de l’espace existant de Notre univers, cela n’exclut pas, étant donné ce qui a été exposé précédemment, que nous y associons naturellement une énergie active. Cette énergie est virtuelle comme le sont les particules des diagrammes de Feynman. Ici donc, je privilégie une explication anthropocentrique, j’assume pleinement l’intitulé de mes cours : ‘Faire de la physique avec ou sans ‘Présence’’. Ce sont les déterminations fondamentales de l’être pensant qui expliqueraient la problématique de l’énergie sombre.

            Etant donné ce qui précède, il est normal que l’on me dise que mon raisonnement relève d’un parti pris et qu’il ne tient pas compte des observations qui ont été accumulées. En effet, on considère, depuis la fin 1990, que l’on est en mesure d’observer cette accélération de l’expansion de l’univers. Les résultats obtenus s’appuient sur la certitude que les SN IA, doivent être considérées comme des chandelles standards, c’est-à-dire que, qu’elles que soient les supernovae, si elles sont du type IA, elles émettent la même quantité de lumière et par conséquent le flux de lumière recueilli par nos télescopes est classiquement inversement proportionnel au carré de la distance parcouru jusqu’à nos détecteurs.

Il se trouve que de fait, les considérations que nous faisons valoir à propos de nos observations, sont fragiles et relèvent d’un certain parti pris. Nos chandelles standards ne le sont peut-être pas car, évidemment, nous ne pouvons pas reproduire ce phénomène en laboratoire. Tout est basé sur l’idée que nous comprenons parfaitement le mécanisme de formation et d’effondrement des étoiles, particulièrement celui qui conduit aux SN IA. Cette assurance semble forte puisqu’en 2011 il a été attribué, aux trois physiciens : Paul Perlmutter, Brian Schmidt, Adam Riess, le prix Nobel récompensant leurs travaux sur l’accélération de l’expansion de l’Univers, comme si la chose était entendue. On peut s’en étonner car il n’est pas dans l’habitude de ce jury d’être aussi prompt.

De toute façon on peut répliquer que s’il y a erreur, excès d’interprétation, nous ne quittons pas pour autant la voie de la démarche scientifique traditionnelle. Sauf que l’ampleur de l’erreur peut être bien plus significative que ce que l’on croit actuellement. En effet, je cite :

  1. En astrophysique on découvre actuellement, grâce aux moyens d’observations de plus en plus performants, que des résultats qui semblaient établis ne le sont pas effectivement. Ainsi on ne trouve pas le taux de lithium nécessaire au scénario de la genèse de l’univers. Ce résultat paru dans la revue Monthly Notices of the Royal Astronomical Society démontre que le "lithium (Le lithium est un élément chimique, de symbole Li et de numéro atomique 3.) manquant", l'un des mystères de l'astrophysique (L’astrophysique est une branche interdisciplinaire de l'astronomie qui concerne principalement la physique et l'étude des propriétés des objets de l'univers (étoiles, planètes, galaxies, milieu interstellaire par exemple), comme leur...) moderne, n'est pas seulement circonscrit à la Voie Lactée (La Voie lactée (appelée aussi « notre galaxie », ou parfois simplement « la Galaxie », avec une majuscule) est le nom de la galaxie dans laquelle se situent le Système solaire (dont la Terre,...): c'est un problème universel. Le lithium est l'un des rares éléments chimiques (avec l'hydrogène (L'hydrogène est un élément chimique de symbole H et de numéro atomique 1.) et l'hélium) à avoir été formé juste après le "Big Bang (Le Big Bang est l’époque dense et chaude qu’a connu l’univers il y a environ 13,7 milliards d’années, ainsi que l’ensemble des modèles cosmologiques qui la...)" pendant les fameuses trois premières minutes ( Forme première d'un document : Droit : une minute est l'original d'un acte. Cartographie géologique ; la minute de terrain est la carte originale, au...) de l'existence de l'Univers (L'Univers est l'ensemble de tout ce qui existe et les lois qui le régissent.).

  2. De même, grâce à des observations très récentes : On découvre, le rôle inattendu des galaxies naines dans la formation des étoiles.
    Une équipe internationale d'astronomes, dont des chercheurs de l'Institut d'astrophysique de Paris (CNRS/UPMC) et du Laboratoire d'astrophysique de Marseille (CNRS/Aix-Marseille Université), viennent de mettre en évidence que les galaxies naines dans l'
    Univers (L'Univers est l'ensemble de tout ce qui existe et les lois qui le régissent.) lointain ont été des moteurs (Un moteur est un dispositif transformant une énergie non-mécanique (éolienne, chimique, électrique, thermique par exemple) en une énergie mécanique ou...) exceptionnels de la formation stellaire. L'analyse à grande échelle (La grande échelle, aussi appelée échelle aérienne ou auto échelle, est un véhicule utilisé par les sapeurs-pompiers, et qui emporte une...) de ce type de galaxies permet de faire une avancée importante dans la compréhension de l'évolution des galaxies et, avec elles, de l'histoire (sic) de l'Univers. Ces résultats ont été réalisés à l'aide de Hubble (Le télescope spatial Hubble (en anglais, Hubble Space Telescope ou HST) est un télescope en orbite à environ 600 kilomètres d'altitude, il effectue un tour complet de la Terre toutes les 100 minutes. Il est...), le télescope spatial (Un télescope spatial est un télescope placé au delà de l'atmosphère. Le télescope spatial présente l'avantage par rapport à son homologue...) de l'ESA et de la NASA (La National Aeronautics and Space Administration (« Administration nationale de l'aéronautique et de l'espace ») plus connue sous son abréviation...). Ils sont publiés depuis le 19 juin dans The Astrophysical Journal.

  3. ALMA sonde l'origine tumultueuse des galaxies à disque. Le 17/ 09

Des décennies durant, les scientifiques ont pensé (sic) que les fusions de galaxies se soldaient généralement par la formation de galaxies elliptiques. Toutefois, des chercheurs utilisant le réseau ALMA et de nombreux autres radiotélescopes viennent pour la première fois de démontrer que la fusion (En physique et en métallurgie, la fusion est le passage d'un corps de l'état solide vers l'état liquide. Pour un corps pur, c’est-à-dire pour une substance constituée de molécules toutes identiques, la fusion...) de galaxies conduit plutôt à la formation de galaxies à disque (Le mot disque est employé, aussi bien en géométrie que dans la vie courante, pour désigner une forme ronde et régulière, à l'image d'un palet — discus...). Ce résultat pour le moins surprenant serait même très fréquent. Il pourrait expliquer la raison pour laquelle les galaxies spirales ((voir page de discussion)) telle que la Voie Lactée (La Voie lactée (appelée aussi « notre galaxie », ou parfois simplement « la Galaxie », avec une majuscule) est le nom de la galaxie dans laquelle se situent le Système...) sont si nombreuses dans l'Univers (L'Univers est l'ensemble de tout ce qui existe et les lois qui le régissent.).

Avec ces quelques exemples, très récents, on peut constater qu’à propos de Notre cosmos, dans les années à venir, de nombreuses certitudes seront appelées à être plus qu’ajustées, certainement significativement modifiées. Ces exemples cités ne remettent pas en cause directement la problématique de l’accélération de l’expansion de l’univers mais devrait, comme cela est indiqué, remettre en cause notre conception actuelle de ‘l’histoire de l’univers’. Or avec l’hypothèse de l’énergie sombre, son effet survient dans le cours d’une histoire que nous avions conçue avant la découverte des SN IA, et en conséquence cette histoire a été modifiée.  

Comme on peut le constater, l’histoire que nous prêtons à Notre univers, pourrait être tout simplement l’histoire de notre savoir à propos de celui-ci et comme j’ai déjà eu l’occasion de le projeter : la dynamique authentique qui serait à l’œuvre, serait celle relative à la conquête, par le sujet pensant, de nouveaux espaces qui sont investis grâce au développement continu de nos capacités d’inférence. Comme j’aime à le rappeler, au sein d’une éternité, parmi tous les possibles… l’être pensant continuera d’anéantir les frontières qui feront front à l’expansion de l’Univers de sa connaissance.

 




[1] Je cite M. Merleau-Ponty en puisant dans l’ouvrage :’ les Notes du Collège de France : La Nature’, établi et annoté par Dominique Séglard. Edit. Le Seuil, 1995. Disparu brutalement en 1961, M. Merleau-Ponty est l’une des grandes figures de l’existentialisme français, héritier direct de Husserl et de Heidegger.

 

 

 

 

 

Partager cet article
Repost0
3 septembre 2014 3 03 /09 /septembre /2014 12:13

Etats d’âme bénéfiques. 

Etats d’âme…, façon de dire car le mot âme a perdu la validité qui était la sienne au fur et à mesure que la métaphysique qui l’a promu a sérieusement perdu de son actualité. Mais il est un fait que j’ai connu une variété d’états d’inquiétude voire d’angoisse avant de poster l’article précédent. J’ai pu m’y résoudre au bout de quelques jours lorsque j’ai pu retrouver le livre : ‘Biologie de la conscience’ de G. M. Edelman et in fine annexer un paragraphe dans lequel le mot ‘scène’ et surtout le processus dynamique de l’être pensant embryonnaire qui le conduit à être au cœur de la scène minimale qu’il fondait, m’accordait la légitimité d’appuyer sur le bouton : ‘Publier l’article’.

Ces états je les connais fréquemment alors qu’en général, pendant tout le temps où j’écris un article, je n’éprouve pas ce besoin de rencontrer une légitimité extérieure.

Dans l’article précédent, j’ai associé l’évolution de la connaissance de l’être pensant à son évolution propre et j’ai essayé d’en fixer des conséquences en ce qui concerne les deux grandeurs essentielles de la science physique et les conséquences en ce qui concerne nos possibilités de connaissances actuelles dans ce domaine.

Il est remarquable de constater que le clivage entre matière inanimée et matière animée ne résulte pas d’une propriété chimique ni biochimique mais d’une propriété physique comme je l’ai traité dans l’article du 02/08/2014 en m’appuyant sur les travaux remarquables des chercheurs du CNRS, publiés le 21/06/2014. Ces acides aminés lévogyres constituant les briques fondamentales de la matière vivante, puisque constituants essentiels des protéines. N’oublions pas que certaines protéines sont à l’œuvre directement dès le niveau de l’embryogenèse comme cela est rendu compte dans l’article de : ‘Pour la Science’ de septembre 2014 : ‘Comment les doigts se forment’. Dans cet article il est décrit l’observation en laboratoire, que les doigts (de souris) : « pourraient résulter d’un mécanisme d’auto-organisation dit de Turing, fondé sur la régulation mutuelle de trois protéines impliquées dans l’embryogenèse, BMP, Sox9 et Wnt… Les biologistes ont imaginé un modèle de Turing à trois morphogènes : la voie Wnt inhibe l’expression du gène de Sox9 entre les futurs doigts, tandis que la BMP la stimule dans les régions qui formeront les doigts. En retour Sox9 régule les deux voies. Ce modèle fournit bien un motif périodique (sic) conforme aux observations…Reste à vérifier qu’il est robuste. »

Est-ce que cette corrélation forte établie entre une détermination physique clairement établie et l’engendrement basique du monde animé ne peut être et rester qu’un sujet de spéculation pour les philosophes ou bien les spécialistes de l’objectivité, les physiciens, ont-ils le désir et les moyens de s’en emparer ?

Rétrospectivement on peut s’interroger : d’où vient l’intuition de Descartes qui plante dans le paysage de l’humanité son arbre de la connaissance dont les racines sont la métaphysique et le tronc la physique ? Cette intuition est très probablement alimentée et justifiée par une finalité très pragmatique affirmée de cette façon par R. Descartes : La science a une double finalité : elle est utile, pour soulager l’existence de quantité de maux et favoriser le bien-être en nous rendant « comme maîtres et possesseurs de la nature » (sic) ; elle est moralement désirable car en nous donnant la connaissance des causes elle nous conduit à la sagesse.

Maîtres et possesseurs de la nature, ne peut plus être un projet pour l’humanité actuelle car la compréhension de l’écologie scientifique nous dit que biologiquement et physiologiquement nous sommes immergés dans la nature et donc notre vie en dépend et avec le XXIe siècle la problématique de la survie de l’espèce humaine, ou d’une partie, n’est plus taboue.

La prescription de Descartes est aussi nourrie du souci de l’élévation vers plus de sagesse du genre humain, suivant la conviction que les connaissances extraites de la confrontation sans fin avec l’ordre naturel, constitue une conquête bénéfique de la part du sujet pensant et une conquête d’autant de fragments de liberté. Comprendre les lois de la nature est donc partie prenante du progrès pour l’humanité. Plus ont fait reculer notre ignorance des lois de la nature, plus l’humanité s’émancipe de ses contraintes, plus l’humanité s’humanise. Jusqu’où l’humanité peut-elle s’émanciper des lois de la nature alors que la cause première, la racine première, du monde vivant est tributaire d’une propriété de polarité de la lumière qui en conséquence doit être nommée : Notre lumière.  

L’évolution animale résulte d’une confrontation-adaptation plus ou moins passive aux contraintes de la nature. Dans une continuité biologique, l’évolution humaine résulte d’une confrontation-adaptation certainement active aux contraintes physiques de la nature. Certainement active, parce que des stratégies de contournement se mettent en place pour contrer l’inhumanité des lois de la nature. Pragmatiquement, la voie ouverte consiste à décrypter les lois de la nature pour vivre avec, s’en émanciper, se les approprier. Il me semble qu’il est raisonnable de penser que – pour une grande part – l’intelligence humaine s’est développée au fur et à mesure qu’elle s’est nourrie de la quintessence de cette histoire toujours renouvelée, en devenir, de la confrontation-adaptation aux contraintes de la nature et qu’elle représente cette quintessence. L’être humain a progressivement dressé sa ‘Présence’ au sein de la nature au point de concevoir qu’il habite une étendue spatio-temporelle exclusivement faite pour lui, en tant qu’être pensant, qu’il appelle l’Univers. Mais sa curiosité n’a pas de raison, pour autant, d’être assouvie, il ne peut en rester là, c’est un des propres de l’homme. Dans ce contexte on peut apprécier à sa juste valeur les impulsions décisives de la philosophie cartésienne et ce n’est pas un hasard si elles sont formulées dans une périodique historique que l’on appelle la ‘Renaissance’.

Très probablement les dessins pariétaux découverts dans les grottes protégées nous montrent des gestes d’émancipations à l’égard de ce qui constitue le monde animal naturel. Il y a 35000 ans environ, nos ancêtres ont projeté sur des parois, ils ont ‘écrit’ sur les parois, qu’ils avaient pris conscience de leur différence avec le monde animal, qu’ils avaient pris conscience qu’ils appartenaient à des mondes distincts. L’extraordinaire lucidité et l’extraordinaire vérité des représentations, avec une économie de moyens émouvante, nous montrent que l’impact d’une empathie récente encore prégnante guide la main de l’artiste homo sapiens. Les scènes de chasse, par exemple, représentées indiquent qu’ils avaient acquis une compréhension d’un positionnement dans le temps et dans l’espace, d’eux-mêmes, et du monde immédiat qui leur était extérieur. A cause de leur confrontation avec le monde animal, ils étaient à même de décrypter et de représenter sur les parois de la grotte Chauvet, l’élan, l’énergie, qui met dans un mouvement irrépressible les lionnes en chasse visant le même objectif. Plus les homos sapiens étaient en mesure de décrypter cet élan sauvage, plus ils étaient en mesure de le ‘dire’, de le faire savoir, plus ils étaient en mesure de se préserver collectivement de ses conséquences parfois funestes pour eux-mêmes.

Après la présentation de la prise de conscience de la séparation, il semblerait qu’il fallut attendre le néolithique, il y a 12000 ans, pour que l’homo sapiens se représente lui-même (statuette, signe gravé) comme représentant d’un genre qui le distingue de tous les autres genres qu’il côtoie.

Dans la quatrième de couverture du livre : ‘La fin de l’exception humaine’[1]que j’ai déjà abordé dans l’article du 02/12/2013 : ‘La fin comme celle du Phénix’, je cite : « L’humanité s’inscrit dans la vie grâce à des visions globales du monde et à des savoirs empiriques morcelés. La thèse de l’exception humaine est une vision du monde. Son coût, au regard de son utilité supposée, est exorbitant – l’impossibilité d’articuler les savoirs empiriques assurés en une vision intégrée de l’identité humaine qui conjugue les sciences de la culture et les autres connaissances concernant l’homme. »

L’auteur voit juste en évoquant le morcellement des savoirs empiriques qui s’explique toujours selon l’auteur à cause du refus d’accepter l’origine naturelle de l’homme et qu’il n’y a pas d’exception humaine. Je ne suis pas sûr que dans son analyse il accorda beaucoup de place au savoir spécifique de la physique, et pourtant… Mais le coût qu’il suppose est certainement exorbitant. Peut-être que les physiciens sont confrontés au chiffrage de ce coût : 95% d’ignorance de ce qui compose Notre univers.

Dans son livre le plus récent, pour tenter de jeter une lumière nouvelle sur les 95% obscurs, Lee Smolin évoque l’hypothèse – en s’appuyant sur sa certitude de la réalité du temps – que les lois de la physique pourraient évoluer à la manière des lois de la biologie (sic). Effectivement, je propose de prendre le contre-pied de Smolin en considérant que l’évolution à prendre en compte est celle de nos capacités de décryptage des lois de la nature.

Ainsi comme je l’indique dans mon précédent article, ce n’est pas C : vitesse de la lumière qui évolue, mais ce qui doit évoluer c’est notre capacité à prendre en compte des vitesses naturelles autres que celles de Notre lumière. Rubicond certainement difficile à franchir.

Ce qui doit évoluer c’est notre capacité d’intégrer qu’il existe d’autres matières que la baryonique et que celles-ci ne seraient pas contraintes par exemple par E = mc2.

Ce qui doit évoluer c’est la croyance que le corpus des lois physiques est un corpus de lois finis.

Ce qui doit évoluer c’est la croyance que le sujet pensant est nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la nature.

Ce qui doit évoluer c’est la compréhension historique de notre rapport d’intelligence avec les propriétés de la nature, de notre capacité à conceptualiser, en prenant en compte l’histoire profonde de l’évolution de l’être pensant.



[1] Dont je recommande toujours la lecture avec le recul approprié.

Partager cet article
Repost0
27 août 2014 3 27 /08 /août /2014 14:25

Un authentique Big Bang.

Fracturer le masque parfait de la Relativité Restreinte.

Puisque ma conviction est que l’espace et le temps sont fondés par l’être humain, il me faut assumer cette conviction et étayer les conséquences qui en résultent, même les plus iconoclastes.

Ainsi, c’est un authentique ‘big bang’ qui s’est produit quand a surgi dans la Nature une première intelligence, surgissement que l’on situe à peu près entre 10 à 8 millions d’années. Cette intelligence primordiale de notre ancêtre, qui est à l’origine de la trace de la lignée humaine, s’est différenciée des autres hominoïdes en s’installant dans l’espace et dans le temps. C’est donc une ‘Présence’ embryonnaire qui s’installe. On peut concevoir que cet ancêtre intègre premièrement l’idée d’espace parce que la nature lui offre le support concret qui permet le déplacement, le changement de lieu, ainsi que le repérage concret, physique, des lieux qui diffèrent. L’idée de l’espace s’impose sur une base proprement fonctionnelle, elle est corrélée significativement avec le support proprement tellurique et elle résulte d’un rapport premier ‘d’intelligence’ avec ce qui est offert par l’environnement naturel immédiat. C’est une appropriation, comme toute appropriation, elle se fait par un conditionnement aux fins qui lui sont attachés (pensons à la multitude d’étalons de distance qui ont été inventés par l’homme). L’Idée de l’espace au sens exprimé par Platon ne se forgerait, selon ce processus, bien après coup, à la suite d’un développement intellectuel déjà très sérieusement élaboré qui favoriserait le processus d’une abstraction idéale plus complète, exactement parfaite, (détachée de son conditionnement fonctionnel) qui conduirait à l’Idée de l’espace.

Il en est de même pour les autres grandeurs qui vont suivre dans l’article. Ce qu’il faut retenir c’est que toutes les grandeurs qui sont appropriées par l’intelligence primordiale et dont la référence première est offerte par la Nature, ne le sont que par un processus de réduction vis-à-vis de toutes les possibilités qui sont offertes par cette Nature. Disons que l’intelligence primordiale, étant donné ce qu’elle est, ne peut être que sélective. Cette sélection-réduction est irréversible. Le mythe de la caverne de Platon, évoque donc la prise de conscience de ce processus irréversible de réduction qui est considéré par Platon en personne comme une aliénation rédhibitoire. Je ne suis pas platonicien et certainement pas comme peuvent l’être d’éminents scientifiques comme M. Tegmark, R. Penrose, A. Connes, etc…, mais je considère que l’allégorie relative à la caverne proposée par ce philosophe grec représente une étape très significative de l’expression de l’évolution du rapport d’intelligence du sujet pensant à l’égard de son environnement et partant de sa compréhension.

L’idée empirique d’un flux ‘temporel’, peut être corrélé au spectacle du changement continu de la position de l’astre solaire et elle a dû se forger bien plus lentement car cela met en jeu un processus d’intériorisation, d’abstraction, qui peut même contribuer au développement des capacités cérébrales[1](in fine le temps a pu être repéré conventionnellement grâce au savoir-faire instrumental de l’homme, dans l’histoire, il fut aussi considéré comme source de pouvoir pour celui qui pouvait dire le temps). C’est la raison pour laquelle je place cette faculté de la saisie d’un flux temporel et des moyens de le repérer comme un propre de l’être humain. Ainsi, c’est donc en connaissance de cause que j’accorde un rôle déterminant au temps propre du sujet : TpS (scansion élémentaire), et que je le qualifie d’existential. (Dans l’article du 03/07/2014, j’explique comment historiquement ce serait produit l’imbrication de l’espace-temps, ainsi que l’association de l’espace avec le substrat matériel.)

Voir le document Annexe joint à la fin de l’article.

Ensuite vient la notion du déplacement, non seulement dans le cadre d’un changement de position spatiale mais aussi en la combinant avec son évolution temporelle. A partir de là, émerge l’idée de vitesse de déplacement, dans le rapport : quantité de déplacement/quantité de temps impliqué.

Le processus de fondation de l’espace et du temps est une opération propre de l’intelligence humaine qui a procédé par prélèvement(s) réducteur(s) sur ce que la nature fait voir d’une façon plus ou moins directe. La grandeur vitesse est une grandeur dérivée de ces grandeurs prélevées, en conséquence elle hérite donc du même statut.

Ceci m’amène à considérer qu’il faut distinguer, la saisie de la vitesse de systèmes qui sont le fruit de notre fabrication, de systèmes qui appartiennent à des systèmes naturels.

Pour les systèmes qui sont le fruit de notre fabrication, la mesure de la vitesse de leur déplacement est réaliste, puisqu’il y a homogénéité de conception entre ses systèmes et les grandeurs qui conduisent à l’évaluation de leur vitesse. Aucune réduction supplémentaire n’entre en ligne de compte.

Par contre pour ce qui concerne des systèmes naturels la situation est différente et je propose de procéder à une distinction concernant les systèmes naturels matériels de ceux qui sont immatériels. En effet les systèmes matériels naturels offrent les possibilités de repérages identiques à ceux qui sont le fruit de notre fabrication. Les modalités cognitives en jeu à cet égard doivent être identiques à celles de la situation précédente et produisent donc un résultat de même nature et de même valeur. Donc, il n’y a pas lieu de différencier le statut ontologique de la grandeur vitesse des systèmes matériels dont nous sommes les auteurs, de ceux dont nous ne le sommes pas. (Je formulerai un peu plus loin une exception pour les objets dits ‘matériels’ mais qui ont une vitesse naturelle voisine à C, exemple les neutrinos.)

Par contre le statut ontologique de la vitesse des systèmes naturels immatériels doit être clairement différencié des objets précédents car du fait de leur immatérialité une réduction nouvelle et supplémentaire (pas obligatoirement de même nature que pour l’espace et pour le temps, c’est-à-dire qu’elle peut être plus complexe) doit opérer pour entreprendre une saisie-identification par le sujet pensant de l’objet immatériel.

Je pense plus particulièrement à ce qui est immatériel, telle la lumière. Ainsi la vitesse dite de la lumière : C, est une grandeur que nous faisons apparaître étant données nos capacités cognitives, elle est estimée tout autant qualitativement que quantitativement par un processus de réductions qui est du fait du sujet pensant. Le statut ontologique de la lumière, de la vitesse C, de ses concepts attachés doit être interrogé. Comme je le dis : « C, est une grandeur que nous faisons apparaître… », c’est donc une représentation qui est plutôt conforme à nos capacités d’appropriation intellectuelle qu’à nos capacités d’identifier une réalité naturelle. (J’ai déjà évoqué cette distinction entre vérité et réalité dans l’article du 22/03/2014 : ‘La physique n’est pas une science qui nous conduit à la connaissance de la réalité. Elle nous conduit à établir des vérités fondées.’)

La vitesse C, est une signature extrapolée mais consensuelle qui nous permet d’identifier ce que l’on désigne physiquement par la lumière, elle nous est utile, elle témoigne de notre capacité actuelle d’investissement intellectuel des propriétés de la Nature et tout ce qui lui est corrélée, elle marque en fait une frontière, un horizon, de ce que nous pouvons savoir de la nature, de Notre univers. En fait, peut-être que ce que nous appelons la lumière n’a pas de vitesse du tout et c’est une façon erronée de l’identifier ! Et si mobilité de la lumière, il y a, elle devrait être appréciée d’une façon différente.

Maintenant, faisons un bilan d’un questionnement qui a toute sa légitimité scientifique :

(Extrait de wikipédia) : « Le nom de cette constante est souvent source de confusion. Il est important de comprendre que la vitesse de la lumière n'est pas une constante physique en soi : elle coïncide avec la constante physique cà condition que les photons aient une masse identiquement nulle et que la propagation s'effectue dans le vide absolu.

Par ailleurs, il est nécessaire de définir soigneusement la vitesse dont on parle. En effet, lorsqu'un pulse de lumière est émis, la description de sa propagation peut faire intervenir différentes notions comme la vitesse de phase (qui est la vitesse de propagation d'une composante spectrale monochromatique), la vitesse de groupe (qui est la vitesse de propagation du maximum du pulse lumineux, parfois abusivement considérée comme la vitesse de propagation de l'information), la vitesse du front d'onde (qui est la vitesse du point initial de l'onde). En réalité, elle n'a pas toujours un sens physique simple ; elle peut être supérieure à c ou même négative ; la vitesse de transport de l'énergie n'est pas directement mesurable et pose également des problèmes de sens physique simple. Au moins 8 concepts de vitessespeuvent être utilisés pour caractériser la propagation de la lumière. Dans le vide, toutes ces vitesses sont égales à la constante c, mais dans un milieu, seule la vitesse du front conserve cette valeur.

En toute rigueur, la question de la constance de la vitesse de la lumière dans le vide, telle qu’observée par quantum d’énergie transportés par les photons, ne peut être totalement tranchée puisqu'il est théoriquement possible que les photons aient une masse non nulle : les mesures ne peuvent que plafonner cette masse hypothétique et non prouver qu'elle est rigoureusement nulle. Toutefois, même s'il était avéré que les photons ont une masse, cela ne remettrait pas en cause le principe de la constante c, mais donnerait plutôt une limite de précision de son observabilité dans les modèles de référence ; on conserverait avec c une limite absolue de vitesse que les photons observés ne pourraient pas eux-mêmes atteindre dans le vide. »

Que signifie cette polychromie de la vitesse de la lumière ? Avant tout, reconnaissons que c’est avec ces données, depuis J. Maxwell, que nous avons engagé une progression fabuleuse dans la compréhension de ce que serait la lumière, et puis la relativité restreinte est advenue. Ce qu’il me semble approprié de constater, c’est que la vitesse C est plus représentative des capacités d’inférer du sujet pensant que représentative d’une vérité qui coïnciderait absolument avec une propriété effective dans la Nature.

A propos de l’hypothèse du photon, qui est à l’origine de la mécanique quantique, grâce à l’hypothèse d’Einstein en 1905 pour rendre compte de l’effet photoélectique, l’’énergie’ du photon vient à point surtout pour donner un sens physique à un paramètre h, pure artéfact mathématique comme l’a précisé M. Planck dès 1900. N’oublions pas comme l’a fortement indiqué Heisenberg, que les concepts de la physique des quanta ne peuvent s’appliquer à un objet qu’à condition que notre connaissance de cet objet soit incomplète, et ceci statutairement : d’où les notions de complémentarité, d’indétermination et de lois statistiques, qui interdisent d’après lui qu’on établisse une ontologie de l’objet en question.

 

 

On peut encore constater que le processus d’appropriation-réduction de l’espace et du temps par l’anthrôpos serévèle d’une façon significative lorsqu’on exploite le concept d’espace-temps et qu’on tente de rendre compte des propriétés relatives à la lumière qui sont des propriétés limites (extrapolées) de nos capacités actuelles d’interprétation. Lisons les commentaires de J.M. Lachièze-Rey qui reconnaît des difficultés logiques d’interprétation avec les données contradictoires que l’on obtient avec un photon. In ‘Pour la Science’, novembre 2010, p.45 : « Il existe une durée en un sens « plus valable » que les autres. Les équations de la relativité indiquent que dans notre exemple, plus le trajet d’un observateur est proche de celui du photon émis par l’étoile, plus la durée qu’il va mesurer est petite. D’une façon générale, l’observateur qui est lié à un processus et l’accompagne du début à la fin mesurera la durée la plus petite possible. Nommée « durée propre », on peut considérer que c’est la vraie durée du processus. Dans notre exemple, la durée propre du phénomène est celle que mesurerait le photon. Or la relativité indique que la durée propre d’un photon est…nulle. Cela n’est qu’une manifestation du fait qu’il voyage à la vitesse limite, celle de la lumière ; de façon générale c’est vrai pour toute particule de masse nulle. Ainsi la durée propre du trajet du photon, de son émission dans une galaxie lointaine à sa réception, est nulle. On aurait pourtant envie de dire que le trajet dure des milliards d’années. »

Le même auteur nous indique le caractère inapproprié de l’usage de l’espace et du temps dans le traitement du ‘grain’ de lumière dans : ‘Initiation à la Cosmologie’, p.41 : « La relativité restreinte énonce que le rayonnement se propage toujours à la vitesse c, ce qui s’écrit simplement selon la relation ds = 0. Cette relation est conservée en relativité générale : les trajectoires du rayonnement correspondent aux courbes d’équation ds = 0, que l’on nomme géodésiques de longueur nulle. En effet, l’intégrale de la métrique le long de ces courbes est nulle par définition puisque ds = 0 tout le long. Il vaudrait mieux sans doute dire géodésique « de métrique nulle » puisque le concept de longueur évoque la partie purement spatiale de la métrique, mais l’expression est consacrée par l’usage. Insistons dès à présent sur le caractère mi-spatial mi-temporel de ces trajectoires : le long de la trajectoire d’un photon, ni l’intervalle de temps dt, ni celui d’espace R(t)dσ ne s’annulent. L’intervalle est donc bien mixte et l’on peut pressentir qu’il ne sera opportun de le caractériser ni par une distance ni par une durée. Le décalage vers le rouge z, de nature mixte, est la quantité la mieux adaptée. »

A juste raison certains physiciens ne sont pas dupes quant à la représentation du grain de lumière fruit d’une opération réductrice de la part du sujet pensant : « La vision du photon comme un petit grain de lumière est bien commode – cela évite de se poser des questions métaphysiques lorsqu’on allume la lumière – mais c’est une description imparfaite. » de J. M. Raimond (E.N.S, Paris)  de même « un photon est une excitation quantique élémentaire d’une onde classique. » in ‘Sciences et Avenir, Avril-Mai 2010, p.27.

Les contraintes que nous rencontrons avec l’étude de la lumière et conséquemment en relation avec C doivent être considérées comme des contraintes qui résultent des limites de nos capacités actuelles d’inférer et ne doivent pas être confondues avec des limites qui nous révèleraient une finitude des lois dans la nature. Il en est ainsi pour E = mc2. Il en est ainsi de la théorie quantique des champs qui marie mécanique quantique et relativité restreinte.

En résumé et dit autrement, en ce qui concerne le rayonnement de lumière, l’opération intellectuelle qui conduit à la déclaration de la certitude, par le sujet pensant, de l’objectivité, n’a plus de raison d’être. Cela n’efface pas pour autant que s’impose une vérité fondée, avec toutes les valeurs significatives qu’elle véhicule. Ici, la vérité fondée est l’invariance de la vitesse C. C, est peut-être correctement représentée par la vitesse de propagation de la lumière dans certaines circonstances, de toute façon, cette vérité fondée émerge de l’évaluation de ce que nous sommes en mesure de saisir à propos du rayonnement.

Comme indiqué précédemment, c’est à cause de la spécificité du processus de l’appropriation-réduction, et partant de la fondation de la dimension spatiale et de la dimension temporelle par l’anthrôpos, que nous sommes acculés à additionner les apories qui sont autant de sérieux obstacles dans notre actuelle progression vers une plus grande compréhension des propriétés de la Nature. (A ce propos, voir par exemple le dernier ouvrage de Lee Smolin : ‘La Renaissance du temps’, Pour en finir avec la crise de la physique. Dunod, 2014.)

A partir de ce constat, il est possible de laisser de côté ces apories et de reprendre une marche vers l’avant. Comme je l’ai indiqué, en ce qui concerne les objets qu’ils soient de notre facture ainsi que les objets naturellement matériels, ils sont traités d’une façon équivalente par notre conception de l’espace et du temps. Lorsque ces objets avoisinent C, il y a un autre processus d’appropriation-réduction qui entre en ligne de compte. Quelque part, il y a de ce fait une hétérogénéité significative de représentation et donc une incompatibilité entre ce qui est de l’ordre de la matière et de l’ordre de la lumière. Ainsi dans l’univers cogité par l’anthrôpos la matière doit se volatiliser. Dans le voisinage de C, la matière se brûle les ailes, elle ne peut pas être représentée en tant que telle, elle rejoint ainsi l’apparence identique à celle du rayonnement.

Je devine évidemment la réplique qui immanquablement surgira après la lecture de ce paragraphe et on me rappellera que E = mc2 n’est pas un fantasme que c’est une loi moult fois vérifiée. Je ne réfuterais pas ce propos mais je rappellerai que cette loi est vrai pour ce qui représente 4% de la matière qui compose Notre univers, pour le reste nous ne pouvons rien dire et encore moins dans d’autres univers que le Nôtre. Par exemple cette matière que nous qualifions de noire, composante de Notre univers en proportion significative, n’est peut-être pas astreinte à obéir à E = mc2 parce qu’elle n’émet pas une lumière de même nature, et peut-être qu’elle n’en n’émet point du tout, et donc n’est pas concernée par la vitesse limite C. Le sujet pensant que nous sommes ne peut donc pas saisir cette fameuse matière noire en suivant la même voie.

L’autre problème est celui de l’invariance de C, qui nous a conduits à la qualifier de constante universelle. Elle appartient à la catégorie des vérités fondées (en ce qui concerne Notre univers, uniquement) mais elle ne doit pas être considérée comme une vérité finale, indépassable, qui délimite absolument notre possibilité de connaissance. Il est considéré que la vitesse de la lumière n’obéit pas à la loi d’additivité des vitesses. Mais comme elle est considérée comme une vitesse limite, non atteignable dans l’état qui est le nôtre, il n’est pas exclu qu’elle se comporte comme toute grandeur asymptotique et qu’elle varie très petitement au point qu’elle nous apparaît comme invariante. Je fais cette remarque pour indiquer que l’essentiel n’est pas de remettre en cause ce résultat mais d’indiquer que le véritable enjeu est que le sujet pensant investisse au-delà. Ainsi dans un certain contexte cognitif (qui est encore essentiellement le nôtre actuellement) C invariant est une vérité fondée ; dans un contexte cognitif en devenir (dont les prémisses sont peut-être à l’œuvre) C invariant ne serait plus une vérité impliquée pour mettre en évidence des nouvelles propriétés dans la Nature et pour révéler un ou d’autres univers plus multiple sur le plan conceptuel.

Pour illustrer mon propos, je propose que l’on réfléchisse aux raisons pour lesquelles V.A. Kostelecky n’arrive pas à mettre en défaut la loi de la Relativité Restreinte et les conséquences qui en résultent. Le travail de Kostelecky consiste à rechercher par la voie expérimentale ou observationnelle des résultats qui contrediraient ou dévieraient de ceux prédits par la théorie de la R.R. Or, jusqu’alors, depuis au moins une décennie d’un travail très méticuleux dans de multiples directions, il a fait chou blanc. Selon ma thèse, la R.R. contribue directement à définir cet horizon cognitif indépassable actuellement. Donc V.A. Kostelecky analyse et interprète les résultats qu’il collecte avec la grille de lecture qui est la même que celle qui a prévalue à l’avènement de la R.R., en conséquence aucune discordance ne peut apparaître. Avec cet exemple je souhaite indiquer la puissance des nouveaux paradigmes qu’il faut planter dans le décor de la physique théorique pour dépasser les apories qui obstruent notre perspicacité intellectuelle.

La R.R. nous apparaît comme un masque parfait, à la fois elle nous masque un monde plus vaste et plus riche de propriétés physiques et en même temps elle nous fait ‘voir’ Notre monde (Notre univers) actuel comme étant sans faille.

Je souhaite maintenant évoquer le cas des neutrinos. A plusieurs occasions, lors de la production simultanée de photons et de neutrinos à l’occasion d’événements célestes comme par exemple l’explosion d’une supernova, il a été constaté que les neutrinos arrivent sur nos détecteurs avant les photons. Cela ne nous autorise pas de conjecturer que les neutrinos se déplacent à une vitesse supérieure à celle des photons. En effet il est communément pensé que les neutrinos interagissent si peu qu’ils ne sont pas englués dans la matière environnante à l’origine de leur production et donc leur libre parcours moyen est très important, alors que ce n’est pas le cas pour les photons qui interagissent avec la matière environnante par la voie de l’interaction E.M. d’où un engluement plus marqué et donc à ce niveau leur libre parcours moyen est moins important. Voilà comment la chose s’explique, et au niveau de la fusion thermonucléaire au cœur de notre astre, cela semble vérifiable. Toutefois il est certain que les neutrinos se déplace à des vitesses très voisinent à celle de la lumière. Il est certain que les propriétés qui caractérisent les neutrinos ne se laissent pas aisément saisir. Par exemple leurs masses sont toujours inconnues, toutes ces difficultés proviennent du fait qu’ils interagissent très, très… peu. Plusieurs de leurs propriétés sont déduites mais pas observées directement ou d’autres leurs sont conventionnellement attribuées. On leur prête le statut de particule (fermion) mais elles n’ont pas d’identité propre puisqu’on ne les désigne proprement qu’avec leur saveur, soit électronique, soit muonique, soit tauique, qui les attache au fermion parent, soit l’électron, soit le muon, soit le tau.

Les difficultés qui expliqueraient les raisons pour lesquelles les neutrinos ont toujours des propriétés physiques mal connues (depuis leur invention par Pauli en 1933) seraient leur très, très… faible interactivité. Je propose de laisser de côté cette propriété et mettre l’accent sur la propriété qu’ils se déplacent à des vitesses voisinent (qui peuvent être inférieures mais pourraient être aussi supérieures) à celle de la lumière. Propriété qui pourrait s’avérer avoir une valeur heuristique plus intéressante pour décrypter les propriétés physiques des neutrinos, notamment, entre autres, celle qui est attaché à la problématique de l’oscillation entre les saveurs. Enfin, je rappelle que depuis un certain temps, je propose d’annuler pour les neutrinos la contrainte E = mneutrinoC2 pour les caractériser car en tant que particule élémentaire sans charge, ils n’ont pas de masse d’inertie et donc cela représente une contrainte extrapolée qui n’a pas lieu de l’être.

Evidemment cet article en appelle d’autres !

                                     

                                                  Document Annexe

Lu, après écriture de l’article : de Gerald M. Edelman in ‘Biologie de la conscience’ (1992).

p.182 : « En termes d’évolution, il est apparu plus tard que le système tronc cérébral-système limbique, afin de permettre des comportements moteurs de plus en plus élaborés et la catégorisation des événements extérieurs. Les appendices corticaux – le cervelet, les ganglions de la base et l’hippocampe – sont apparus en même temps que le cortex pour traiter des aspects temporels et spatiaux, gérant la succession à la fois dans les mouvements réels et dans la mémoire. Les deux systèmes – tronc cérébral-système limbique et thalamo-cortical – furent reliés l’un à l’autre durant l’évolution…

p.183 : Il est certain que même des animaux qui ne font preuve d’aucun comportement conscient sont capables d’apprendre. Cependant, chez certaines espèces animales possédant un cortex cérébral, les catégorisations portant sur différentes parties du monde qui n’entretiennent pas de relations causales entre elles peuvent être corrélées et jointes pour entretenir une scène. Par le mot scène, j’entends un ensemble, ordonné dans l’espace et dans le temps (sic)...

C’est le développement, au cours de l’évolution, de la capacité de créer des scènes qui a entraîné l’apparition de la conscience primaire. Mais bien évidemment, si cette conscience a pu survivre, c’est certainement parce qu’elle a permis une meilleure adaptation."

 

 

 

 



[1]Bergson, qui en tant que philosophe, a beaucoup réfléchi à la problématique du temps et de l’espace a subitement considéré à la fin de sa réflexion que l’espace est du domaine de la science et que le temps est du domaine de la philosophie. Cette distinction n’est pas approuvée par Maurice Merleau-Ponty « Bergson a tort de parler d’une expérience interne du temps sans admettre que l’espace puisse être l’objet de considérations identiques. »

Partager cet article
Repost0
2 août 2014 6 02 /08 /août /2014 17:50

    Accordons quelques batifolages à l’esprit.

Il est de saison, n’est-ce pas, de s’autoriser à quelques batifolages intellectuels dans le sens où on a du temps de prendre en considération certains enjambements de la pensée, c’est-à-dire que l’on est plus dans la méditation, plus dans la contemplation d’horizons lointains, que dans la réflexion immédiatement déductive. Déjà l’an passé, j’avais laissé mon esprit gambader en postant le 31/07/2014 un article : ‘Etre de lumière et intelligence des lumières’. Je considérai qu’en tant qu’être humain nous étions probablement déterminés par la matière qui nous constituait ainsi que sa lumière les deux faces d’une même réalité. Cela pouvait conduire, nous qui sommes : un assemblage de poussières d’étoiles, à un tropisme probablement difficile, voire impossible, à transcender. Comment le savoir ?

Madame de Sévigné écrivait : « Faner, c’est retourner du foin en batifolant. » Batifoler suggère plutôt la folâtrerie. Ici, je veux privilégier l’idée de liberté, de légèreté, estivale, qui autorise des enjambements de la pensée, hardis mais pas interdits.  

Louis Pasteur avait été le premier à constater que la différenciation entre la matière vivante et la matière inerte s’observait avec la propriété spécifique de la matière ‘vivante’ de polariser une lumière incidente non polarisée en une lumière sortante polarisée à gauche (lévogyre).

Aujourd'hui, on a su observer et donc vérifier que les acides aminés « naturels » qui constituent les briques élémentaires du monde vivant sont tous lévogyres alors que, lorsqu'on les synthétise dans des conditions symétriques (expérience de Miller par exemple), on obtient un mélange 50/50 des formes L (de lévogyre) et D (de dextrogyre).

Les acides aminés sont les briques fondamentales de la matière vivante, puisque constituants essentiels des protéines. On parle d'homochiralité du vivant. Pourquoi et comment la vie a-t-elle systématiquement privilégié une des deux formes demeure évidemment une question non résolue[].

L’article, joint ci-dessous, publié sur le site de Futura – Sciences le 21/06/2014, nous dit que c’est la lumière stellaire (sic) ultraviolette qui a procédé à cette sélection. Alors le titre de mon article de l’an passé : ‘Être de lumière…’ est une heureuse anticipation. Le concept d’‘Être de la Nature’ que je considère très fréquemment – en cours ainsi que dans les articles – dans une dynamique d’opposition irréductible avec l’‘Être dans la Nature’, devient de moins en moins une pure construction de l’esprit. Mais ne nous autorisons pas pour autant, au-delà, la moindre extrapolation. A l’occasion, il me plaît de citer le professeur de protohistoire : J. P. Demoule : « Révolution technique, le Néolithique est aussi une révolution spirituelle et symbolique : les représentations humaines, rares jusque-là, se multiplient sous formes de statuettes ou de signes gravés. Les chasseurs-cueilleurs se pensaient comme une espèce animale parmi les autres. Au Néolithique, l’homme se ‘dénature’ (sic) pour se penser comme distinct du reste du vivant. » Cette citation me plaît parce que j’ai toujours indiqué que cela représentait le propre de l’être humain qui est toujours engagé dans une conquête impulsée par son être dans la nature (statut qui correspond peut être à celui du physicien), qui cherche à s’émanciper de son être de la nature. Cette émancipation ne sera jamais définitive parce que l’être humain est premièrement, comme cela devient plausible, un être de la nature

Nouvelle lumière sur l'énigme de la chiralité de la vie

Pourquoi les acides aminés utilisés par la vie terrestre sont-ils asymétriques ? Depuis des années, les scientifiques ont une hypothèse pour expliquer cette énigme dite de la chiralité : la lumière ultraviolette du rayonnement stellaire aurait conduit à privilégier l'une des formes dans le nuage au sein duquel se sont formés le Soleil et ses planètes. C'est ce qu'a vérifié une collaboration interdisciplinaire menée par une équipe de l’IAS (CNRS/UPS) dans le cadre de l’expérience MICMOC (Matière Interstellaire et Cométaire, Molécules Organiques Complexe) à l'aide du synchrotron Soleil. Comme en 2011 pour l'alanine, les chercheurs viennent de conforter ce scénario pour cinq acides aminés.

Le 21/06/2014 à 09:24 - Par CNRS la-nebuleuse-de-la-patte-du-chat.jpg 

  • La nébuleuse de la Patte de Chat (NGC 6334) encore appelée nébuleuse de la Patte d'ours, est située dans la constellation du Scorpion à une distance d'environ 5.500 années-lumière du Soleil. Elle s'étend sur environ 50 années-lumière. Elle fut découverte par l'astronome britannique John Herschel en 1837. © EsoStopperNouvelle lumière sur l'énigme de la chiralité de la vie - 2 Photos

< 

  •  
  •  

> 

PDF            Les organismes vivants utilisent des acides aminés chiraux présentant uniquement la forme énantiomérique L (lévogyre) pour la fabrication des protéines, une propriété connue sous le nom d’homochiralité. L’origine de cette asymétrie est à ce jour encore mal connue mais il est généralement admis un processus en deux étapes : tout d’abord l’apparition de faibles excès énantiomériques dans un matériau organique chiral, suivie par un mécanisme d’amplification menant à la sélection complète d’un seul des deux énantiomères. L’une des hypothèses privilégiées pour expliquer l’apparition des excès énantiomériques initiaux repose sur l’interaction de lumière circulairement polarisée avec la matière, ce qui introduit l’asymétrie initiale.

Pour élucider cette énigme, les chercheurs ont commencé par reproduire en laboratoire des analogues de glaces interstellaires et cométaires. Ils les ont ensuite soumis à un rayonnement ultraviolet « polarisé circulairement » (UV-CPL) à l’aide des faisceaux disponibles au synchrotron Soleil.
Vincent Minier, astrophysicien (CEA, Saclay), et Laurent Nahon, physicien (ligne Desirs, Soleil), expliquent pourquoi et comment les éléments qui composent le monde du vivant sur notre planète pourraient avoir une origine « extraterrestre ». Une approche simple et claire des recherches en exobiologie et du problème de l’étonnante asymétrie chirale qui caractérise les acides aminés du vivant. © Synchrotron Soleil, Dailymotion

Des glaces interstellaires et cométaires bombardées d'UV polarisés

Depuis 2003, l’équipe « Astrochimie et Origines » a mis en œuvre une expérience de simulation de photochimie sur des analogues de glaces inter/circumstellaires en utilisant un faisceau de lumière « asymétrique » car polarisée circulairement. En 2011, un premier résultat avait permis d’obtenir une sélectivité énantiomérique sur un acide aminé protéique, l’alanine. Grâce aux performances de la ligne Desirs du synchrotron Soleil, ainsi qu’aux méthodes analytiques de chromatographie couplées à la spectrométrie de masse employées à l’institut de Chimie de Nice, de nouveaux résultats marquants ont été obtenus sur les résidus organiques issus de l’irradiation de glaces en lumière ultraviolette polarisée circulairement.

Les chercheurs ont étendu l’expérience de 2011 à cinq acides aminés : α-alanine, valine (protéiques) ; acide 2,3-diaminopropionique, acide 2-aminobutyrique et norvaline (non protéiques) parfaitement séparés dans les deux formes énantiomériques L et D. À chaque fois, ils ont obtenu des excès de la même forme (gauche ou droite selon la polarisation). Bien que toujours faibles (inférieurs à 2 %), ces excès sont comparables à ceux observés dans certaines météorites primitives et renforcent par leur caractère systématique le scénario astrophysique pouvant mener à l’apparition de l’homochiralité propre au vivant.


Image, obtenue au microscope (grossissement de 60), d’un échantillon de résidu organique à température ambiante issu de l’irradiation de glaces en laboratoire. La taille de la cible est d’environ 1 cm2. © P. Modica

De la lumière polarisée dans les pouponnières d'étoiles

La transposition à l’astrophysique est plausible car les analogues de glaces utilisés en laboratoire sont de composition chimique proches de celle des glaces inter/circumstellaires. De plus, dans la nébuleuse d’Orion et NGC 6334, des sources intenses de rayonnements polarisés circulairement à gauche et donnant jusqu’à 22 % de taux de polarisation ont été mises en évidence dans des régions de formation d’étoiles massives bien plus vastes qu’un système planétaire en formation. Notre Système solaire aurait donc pu bénéficier de telles conditions lors de sa formation.

Ce résultat d’une expérience d’astrophysique de laboratoire pourrait donc valider l’hypothèse ancienne selon laquelle la sélection énantiomérique des molécules du vivant, constatée en premier par Pasteur en 1848, procède d’une origine physique déterministe, par ailleurs discutée par Pierre Curie en 1897.

Finalement, une des implications indirectes de ce résultat est que la nébuleuse solaire serait vraisemblablement née dans une région d’étoiles massives. Cette idée est envisagée depuis trente ans et confortée par la détection de radioactivités éteintes dans les météorites primitives, conséquence de l’explosion d’étoiles massives en supernovae. Cette expérience se poursuit en prenant maintenant pour cible d’autres molécules prébiotiques importantes dont l’homochiralité biologique (droite) est à l’opposé de celle des acides aminés (gauche) : les sucres.

Fin de l'article de Futura Sciences

 


            « Ce résultat d’une expérience d’astrophysique de laboratoire pourrait donc valider l’hypothèse ancienne selon laquelle la sélection énantiomérique des molécules du vivant, constatée en premier par Pasteur en 1848, procède d’une origine physique déterministe. »

Je cite cette phrase de l’article car depuis une décennie, je formule l’hypothèse que le sujet pensant est un être déterminé et l’hypothèse de TpS témoigne entre autres de cette détermination. Non seulement je considère qu’elles sont physiques mais elles ont des conséquences sur nos capacités de décryptage des propriétés ‘physiques’ de/dans la Nature.  Prudence car ces déterminations qui conduisent à TpS ne relèvent pas du même ordre dans la hiérarchie du vivant. L’une est à l’origine du monde vivant, l’autre concerne l’être vivant que nous sommes au plus haut de la hiérarchie de ce monde vivant. Sur la base de ce constat, il n’y a pas de place pour la moindre spéculation, il faut faire silence, il ne faut pas chercher à établir des corrélations qui ne pourraient être que farfelues mais on peut prolonger la flamme d’une grande proximité avec la Nature par la voie de la poésie ou de la philosophie comme le firent les grands poètes et philosophes de la Naturphilosophie romantique allemande au XIX siècle[1].  

            Difficile de concevoir qu’un exclusif monde du vivant (le nôtre) ne peut émerger qu’avec des acides aminés lévogyres, comme si le monde vivant avait posé préalablement ses conditions à son édification. Pourquoi n’y aurait-il pas un autre monde vivant édifié sur la base d’acides aminés dextrogyres ? Certes, ce monde éventuel nous est totalement opaque mais tant que nous ne pouvons pas justifier qu’il faut impérativement des acides aminés lévogyres pour que se conçoivent des organismes vivants : uniques représentants d’un possible monde vivant, nous ne pouvons pas fermer la porte.

            Pour ma part je vais tenter de continuer de creuser sur le thème ‘Être de lumière et intelligence des lumières’ et si le volet ‘Être de lumière’ devient un peu plus légitime celui de l’‘intelligence des lumières’ n’a pas progressé depuis l’an passé, pas de mon fait en tous les cas. Il faudrait recueillir des indications sur le fait que la lumière qui nous est si familière est une lumière de Notre univers actuellement intelligible et franchir le cap d’une intelligence d’autres lumières (au moins une autre) qui nous conduirait à réunir d’autres univers (au moins un autre) au Nôtre.

Complément ajouté le 05/08

            A présent, retenir l’hypothèse que Notre univers pourrait être complètement identifié par la propriété que la vitesse C de la propagation de sa lumière = 2,998.108 m/s devient une hypothèse à retenir. Cela veut dire aussi qu’elle est une constante universelle que dans cet univers qui est le nôtre et cette propriété que nous avons décryptée résulte de notre profonde détermination physique. Puisque notre univers serait ainsi complètement identifié par C, cela veut dire que les autres propriétés qui accompagneraient la définition de son identité physique, telles que l’estimation de sa dimension spatiale, la nécessité d’un début temporel, etc… sont superflues, et parasitent notre capacité d’aller de l’avant dans la compréhension et l’identification d’un monde plus riche, plus étendu, parmi tous les possibles…au sein d’une éternité.

            A présent, la bonne question est la suivante : ‘Disposons-nous présentement de phénomènes physiques non élucidés, qui seraient des signes de notre aveuglement intellectuel (cognitif) mais qui seraient des messages, des indices, qui nous parviennent d’un monde plus riche, plus étendu ?’  Ma réponse est oui, et il y a accumulation d’indices qui devraient être décryptés différemment, par exemple à propos de la physique des neutrinos, concomitamment avec la matière noire, entre autres. Aujourd’hui, il y a acceptation intellectuelle d’une émancipation à l’égard des critères et des lois de la physique reconnue qu’à travers des extrapolations mathématiques. Il suffit de constater tout le tralala qui s’est ensuivi avec la publication du livre de Max Tegmark. Sans dénier, évidemment, l’intérêt que représente ce type de production intellectuelle, cette production présenterait, selon moi, l’inconvénient de créer un effet d’écran (qui ne sera certes que provisoire) détournant le regard qui devrait se concentrer sur une réceptivité différente, franchement nouvelle, des phénomènes physiques recensés qui nous interpellent depuis des décennies.

 


   

[1] Par exemple la conception goethéenne repose sur l’idée d’une continuité de la nature et de l’esprit. La nature serait visible dans l’esprit. Cette thèse de l’identité de la nature et de l’esprit conduira à voir dans la nature un être total, même une totalité organique, dont la philosophie et la science devront restituer l’unité !!

Partager cet article
Repost0
12 juillet 2014 6 12 /07 /juillet /2014 13:41

Bouts de chemin.

J’ai choisi ce titre parce qu’avec trois exemples je vais montrer qu’il peut arriver de partager le point de vue de physiciens sur un sujet spécifique alors que sur tout le reste on peut être en complet désaccord. En fait l’accord s’établit sur le constat que nous pouvons cheminer vers des thèses et des conclusions qui sont localement convergentes, alors qu’elles sont le produit de préalables métaphysiques et conceptuels totalement éloignés et motivées par des objectifs assurément divergents.

Ces trois exemples sont illustrés par des rencontres avec les positions de Max Tegmark qui sont exprimées dans une interview dans ‘La Recherche’ de juillet-aout 2014 : « La Réalité n’existe pas », ensuite avec Lee Smolin dont son livre « La Renaissance du Temps » vient d’être publié en français chez Dunod, enfin avec Jean-François Robredo (philosophe et historien des sciences) qui vient de publier un livre : « Le Big Bang est-il un Mythe ? » au puf.

En ce qui concerne Max Tegmark, en premier lieu je me réfère à l’article du 17/02/2014 : ‘Avec Max Tegmark’ parce que je mettais en exergue la convergence entre ma conviction : ‘Au sein d’une Eternité parmi tous les possibles, l’anthrôpos creuse sa connaissance…’ et celle de Tegmark qui croit pouvoir postuler : « que les mathématiques de notre univers ne constituent qu’une structure mathématique parmi une infinité d’autres structures concevables… »

Dans l’article de la Recherche, qui a un titre résolument affirmatif : « L’essence du monde est mathématique. », on lui pose la question : « Vous considérez, comme mathématicien platonicien, que les concepts mathématiques existent indépendamment de tout acte conscient ? » et il répond : « Je suis même un platonicien extrême puisque je pousse l’idée bien plus loin que beaucoup d’autres : je pense que non seulement les structures mathématiques existent réellement, mais qu’elles sont l’unique réalité. » Selon M. Tegmark les mathématiques sont là comme d’ailleurs R. Penrose l’a souvent affirmé. Les mathématiques sont là, bien plus que l’être humain dont sa conscience sera mise en équation au même titre que notre Univers est un objet mathématique. « Certes, il reste énormément de choses que les équations n’expliquent pas encore, la conscience par exemple. Mais je pense que nous y arriverons, nous sommes juste limités par notre imagination et notre créativité (sic). »

Assurément, il faut comprendre que si la conscience humaine peut être mathématisée cela veut dire que l’être humain n’a pas de conscience. A priori, pour des scientifiques comme Tegmark, ce que nous appelons communément conscience, se réduit à un ensemble d’algorithmes, certes sophistiqué et puissant mais qui pourra être transposé sur/chez des êtres artificiels. En résumé, pour Tegmark, l’être humain n’est pas plus que les automates que nous serons dans un avenir envisageable en mesure de concevoir. On retrouve cette extraordinaire ambivalence chez les platoniciens contemporains : la réalité mathématique est de l’ordre du divin par contre l’être humain est réductible à une conception physicaliste. Je n’interprète pas d’une façon abusive, il suffit de lire la citation suivante pour entendre le degré de conviction de Tegmark : « La force des mathématiques tient d’ailleurs au fait qu’elles n’ont aucune inhibition (sic). L’étrangeté (sic) ne les arrête pas. » Ici, il est dit que les mathématiques se meuvent par elles-mêmes avec leur propre force et sans inhibition.

La très grande majorité des platoniciens qu’ils soient mathématiciens ou physiciens affirme que les nombres et les mathématiques sont là, dans la Nature, et il suffit d’avoir de l’attention pour accéder à l’alphabet de ce qui préexiste dans cette Nature. Cette croyance n’est pas banale car cela revient à amputer ‘l’être pensant’ de la faculté de fonder, d’une façon autonome, sur la base de ses propres capacités et de ses propres besoins, le socle de son propre là, notamment spatial et temporel c’est-à-dire ce qui contribue à la fondation du socle de la conscience de sa ‘Présence’ dans le Monde[1]. La connaissance et le développement des mathématiques ne résultent pas d’une production de l’intelligence humaine. Dans ce domaine l’intelligence humaine est neutralisée.

Pour les platoniciens, la croyance de la toute-puissance des mathématiques par elles-mêmes – malgré la validité du théorème de Gödel toujours confirmée depuis 1931 et encore récemment consolidée – conduit à considérer que l’être humain n’est pas un acteur, il est considéré comme un être passif privé de tout ressort existentiel qui animerait et projetterait sa volonté toujours en mouvement de conquérir de la compréhension sur le pourquoi et le comment de son existence ainsi que sur le pourquoi et le comment des forces dont elle dépend.

Malgré le fait que j’ai pu écrire un article ‘Avec Max Tegmark’, donc considérer qu’il était souhaitable de faire un bout de chemin théorique avec lui, fondamentalement, il m’est impossible de partager sa métaphysique platonicienne. D’ailleurs, pour s’en convaincre, il suffit de reprendre le contenu de mon précédent article du 03/07 et de le comparer avec cette dernière citation de l’impétrant : « Et l’espace lui-même n’a finalement d’autres propriétés que ses propriétés mathématiques.»

Maintenant, je propose d’évaluer quel est ce bout de chemin parcouru en commun avec Lee Smolin. Il est approprié de se référer à l’article que j’ai écrit le 02/05/2013 : ‘Bienvenu au ‘Moment Présent’ de Lee Smolin’. A priori le chemin parcouru en commun est très court car son but est de montrer qu’il faut considérer le temps comme réel, donné dans la nature. Toutefois la lecture de son livre qui vient de sortir réserve quelques surprises. Celui-ci a comme sous-titre : ‘Pour en finir avec la crise de la physique’ et c’est effectivement une analyse de cette crise la plus exhaustive qui motive la démarche intellectuelle de l’auteur. Je cite dans le prologue : « L’objectif de ce livre est de suggérer qu’il existe une autre voie (théorie). Nous avons besoin de faire une coupure radicale et de nous mettre en quête d’un nouveau genre de théorie qui pourra être appliqué à la totalité de l’univers – une théorie qui déjouera les confusions et les paradoxes, répondra aux questions sans réponse, et produira de véritables prédictions physiques pour les observations en cosmologie. Je ne possède pas une telle théorie, mais ce que je peux offrir est un ensemble de principes pouvant guider notre quête pour la prouver. Ils sont présentés au chapitre 10. »

Au chapitre 10, il évoque la thèse qu’en fait toutes les lois dans la Nature sont possibles mais il se trouve que celles qui prévalent pour rendre compte de l’Univers sont le fruit d’une évolution et s’il y a évolution, il y a la preuve de la réalité du Temps. « Si, en revanche, le temps est bien réel, alors rien, pas même les lois ne dure pour toujours. »

En s’appuyant sur la philosophie de Charles Sanders Peirce, (Philosophe et Logicien, 1839-1914), L. Smolin amorce son raisonnement en retenant de la part du philosophe américain l’idée principale suivante : « Supposer que les lois universelles de la nature puissent être appréhendées par l’esprit et cependant ne disposer d’aucune explication pour leur forme, autre qu’inexplicable et irrationnelle, est une position difficile à justifier. », « La seule manière possible de rendre compte des lois de la nature et de l’uniformité en général est de supposer qu’elles sont le fruit de l’évolution. »

A partir de ces considérations l’objectif de L. Smolin est d’étayer une réponse vis-à-vis du questionnement suivant : « Pourquoi un objet – ici, l’univers – possède une propriété particulière : plus précisément, par exemple, que les particules élémentaires et les forces interagissent via des processus décrits par le modèle standard de la physique des particules. Le problème est un défi, parce que nous savons que le modèle standard, avec ses paramètres particuliers, est juste une possibilité parmi un énorme nombre de choix (sic) pour les lois de la nature. Alors comment expliquons-nous pourquoi une entité ait une propriété particulière parmi un vaste ensemble d’alternatives ? »

Nous retrouvons une convergence intéressante avec ma thèse : « Au sein d’une éternité, parmi tous les possibles, l’anthrôpos creuse… », sauf que l’objectif de L. Smolin avec la caution de Ch. Peirce est d’éradiquer tous les possibles autres que ce qui est connu. Pour moi, tous les possibles dans le Monde sont là. Au stade présent de l’évolution de nos capacités cognitives, ce que nous avons réussi à décrypter jusqu’à présent fait partie de ces possibles qui appartiennent à une somme qui n’a pas de limites. Cette somme nous offre comme horizon l’Eternité. Le sujet pensant puise la dynamique de son existence dans sa volonté intellectuelle toujours renouvelée de conquérir la connaissance de tous les autres possibles.

Le projet réaliste de L. Smolin est d’expliquer les propriétés de notre propre univers tel que nous l’avons dorénavant identifié. « Dans une cosmologie scientifique, le postulat d’univers parallèles, univers qui seraient causalement déconnectés du nôtre, ne peut en rien nous aider à expliquer les propriétés de notre propre univers. Nous concluons pour avoir une théorie scientifique de cosmologie qui peut produire des prédictions falsifiables il faut que les lois évoluent avec le temps.» Cela est dit et répété, p. 131 : «Ici, les lois de la nature évoluent, impliquant que le temps est réel. », ou encore, p.132 : «La physique doit abandonner l’idée que les lois sont intemporelles et éternelles et adopter à la place l’idée qu’elles évoluent dans un temps qui est réel. » 

Une fois que Smolin a planté le décor de sa conviction fondamentale à propos du Temps, il consacre tous les autres chapitres de son livre à mettre en évidence, avec sa loupe, des indices, des traces, qui pourraient consolider et valider sa conviction. Je vous laisse le soin de construire votre propre jugement en lisant ce livre. La dernière fois qu’une telle tentative significative fut entreprise d’élucider ‘La Nature de l’Espace et du Temps’, ce sont S. Hawking et R. Penrose qui dans un livre commun en 1997 opposèrent leurs convictions et leurs compréhensions de la nature des lois physiques. Ce fut au bout du compte un échec à l’égard du projet annoncé.

Maintenant, je vous conseille de lire le petit livre de Jean-François Robredo (philosophe et historien des sciences) qui a pour titre : ‘Le Big Bang, est-il un mythe ?’. Plusieurs fois dans mes cours cette interrogation a été formulée avec, de ma part, une réponse affirmative qui suivait, en précisant que c’était une étape nécessaire de l’évolution de la connaissance scientifique du sujet pensant mais qu’on était au bord de pouvoir scientifiquement dépasser ce genre d’assertion.

La quatrième de couverture précise : « Parler des origines, c’est se raconter des histoires. L’humanité a toujours eu besoin de mythes fondateurs, de secrets révélés, de récits merveilleux. Depuis l’avènement de la science moderne, les scientifiques sont accusés de « désenchanter le monde » : il n’y aurait plus de genèse à transmettre, mais des phénomènes à comprendre. Pourtant, au XXe siècle est né le big bang. Pour certains, il s’agit d’une description objective des origines de l’Univers. Pour d’autres, le mythe est d’autant plus efficace qu’il se présente comme le dépassement de la mythologie… Atomes, lumière, galaxies : sommes-nous des enfants des étoiles ou les héros d’un récit que l’humanité se raconte à elle-même ? Nos grands scientifiques sont-ils des génies ou des poètes inspirés ? Sans oublier ce que cela implique dans les relations, toujours conflictuelles, entre vérités scientifiques et révélations religieuses. »

P. 44-45, selon l’auteur, d’un point de vue philosophique, l’hypothèse du big bang ne peut pas être classée dans la catégorie propre aux mythes car par définition les philosophes réservent cette catégorie « aux mythes (même les plus succincts, déficients, voire quasi irrationnels…) qui proposent toujours une explication rationnelle complète, globale, parfaite, « métaphysique ». Le big bang est donc « moins qu’un mythe » du point de vue de la perfection, de la raison et du sens. Cette incomplétude et cette imperfection (le big bang explique tout sauf lui-même) essentielles sont donc des arguments qui signalent les différences de forme entre le mythe et la cosmologie scientifique. »

Si on s’écarte du point de vue des philosophes, on peut qualifier l’hypothèse du big bang de mythique, en prenant comme référence la définition banale suivante : construction de l’esprit qui ne repose pas sur un fond de réalité. Le mythe du big bang, s’impose encore aujourd’hui pour combler le manque d’explication d’un point de vue scientifique de ce que seraient les premiers instants de Notre univers primordial. Confrontés à cette lacune, les cosmologistes ont, par défaut, émis l’hypothèse du big bang dans leur grande majorité (qui commence sérieusement à s’effriter depuis quelques années). Ils ont éprouvé le besoin et l’intérêt de poser leur pensée sur cette ‘origine’ provisoire. Je dirais que ceci est profondément humain car si on fait référence à l’histoire de la pensée humaine on rencontre ces étapes où on s’appuie sur la nécessité d’une origine qui provisoirement s’impose jusqu’à ce qu’à nouveau une pensée rénovée, puisse se redéployer vers de nouveaux horizons, et qui concomitamment rend obsolète l’origine opportune qui a contribué à ce redéploiement. De mon point de vue le big bang constitue le symptôme des limites de nos capacités actuelles de décrypter les propriétés dans la Nature plutôt que l’origine significative de l’avènement de Notre univers.

Effectivement, nous sommes dans une phase où il est nécessaire de mettre en relief le ou les nouveaux paradigmes scientifiques qui permettront ce redéploiement qui finira par s’imposer. Peut-être qu’avant tout il faut cesser de considérer l’Univers comme un Tout ! J’ai lu avec plaisir quelques pages de Robredo, (j’ai ainsi une preuve supplémentaire qu’il est utile de se ressourcer et de réfléchir auprès d’autres penseurs qu’uniquement des scientifiques), quand il cite (p. 63) d’Alembert : « La cosmologie est la science du Monde ou de l’Univers en tant que {…} tout gouverné par une intelligence suprême et dont les ressorts sont combinés, mis en jeu et modifiés par cette intelligence. » Comment d’Alembert – s’étonne Robredo – non croyant, pourfendeur du finalisme dans la nature, peut-il réintroduire Dieu et la finalité quand il parle de l’Univers ? C’est que l’Univers, quand on le voit (même scientifiquement !) comme un Tout, impose semble-t-il l’idée d’un créateur, d’une volonté suprême, c’est-à-dire du sens. Selon l’auteur, David Hume aurait connu le même tremblement après avoir critiqué toutes les raisons de croire en l’existence en Dieu, « il finit par admettre que devant la cohérence et l’apparente sympathie de toutes les parties de ce monde » il faut concéder qu’il y a « un principe d’ordre originel ». Ainsi, on ne manquera jamais de tomber dans ce travers qui obture le questionnement scientifique quand on croira avoir accédé à la connaissance de tous les possibles, quand on croira connaître définitivement l’Univers dans sa totalité, quand on croira que l’on comprend l’ordre qui le constitue, et que l’on sera convaincu que l’on a accédé au sens qui justifie son existence.

P.64 : « Or, le sens de l’Univers ne peut être donné que de l’extérieur. Donc, poser l’interrogation : « l’Univers a-t-il un sens ? » revient à se demander si quelque chose d’extérieur à l’Univers existe, c’est-à-dire en fait poser la question : « Dieu existe-t-il ? » L’univers, le Tout, le Cosmos, le Sens, Dieu : toutes ces notions sont donc souterrainement synonymes, et penser l’une, c’est introduire les autres sans en prendre nécessairement conscience.



[1] Martin Heidegger, certainement le plus grand philosophe de l’Être du 20e siècle, a conçu, pour rendre compte de sa philosophie, le concept du Dasein : L’Être-là, et a toujours étroitement associé dans sa conception philosophique l’Être et le Temps. Son ouvrage le plus célèbre a pour titre ‘Sein und Zeit’. Citer M. Heidegger, m’oblige à rappeler qu’il fut un adhérent ouvert aux thèses nazies et qu’il fut en conséquence un membre actif de ce parti.

Partager cet article
Repost0
3 juillet 2014 4 03 /07 /juillet /2014 11:26

Ce sont de belles convergences.

 

Lorsque j’ai formulé l’hypothèse de τs temps propre du sujet en 2005 (soit encore TpS), point aveugle de l’intelligence humaine, j’avais conscience qu’elle était à contre-courant. Contre un courant venant de très loin mais il me parut approprié de situer et fixer mon hypothèse en opposition à la thèse du Réalisme d’Einstein. J’ai cherché dans des travaux existants des formulations semblables à cette hypothèse ou voisines mais rien de significatif. C’était donc la solitude qui prévalait.

Je fus donc très heureux quand quelqu’un me rapporta qu’Alain Connes venait d’exprimer une hypothèse très intéressante qui était convergente avec TpS. C’était au cours d’une conférence qu’il avait réalisé à l’université de Metz un samedi A.M. en 2007 ou 2008, donc devant un auditoire d’universitaires. Je cite ce qui fut dit :

Eléments de réponse à la question 17 :

L’espace-temps est très légèrement non commutatif, en fait le point lui-même dans l’espace-temps n’est pas commutatif. Il a une toute petite structure interne qui est comme une petite clé.

Eléments de réponse à la question 18 :

Le point a une dimension 0 au niveau de la métrique mais avec ma géométrie il a une structure interne et j’ai un espace de dimension 6, non commutatif.

Avec ces propos, j’éprouvai moins de solitude et j’étais à l’écoute de la confirmation et des développements. Mais rien ne vint. Etonnant !! Je n’ai retrouvé une trace de sa proposition que dans un livre dont il est coauteur en 2013 de la façon suivante « l’aléa quantique est le tic-tac de l’horloge divine ». Fuite divine ! Pourquoi ? Dommage !!

 

En mai 2013, j’accueillis avec beaucoup d’intérêt la proposition de Lee Smolin motivée par sa quête d’un temps réel physique. Je cite :

« Mais l’univers réel a des propriétés qui ne sont pas représentables par un quelconque objet mathématique. Une de celles-ci est quil y a toujours un moment présent. Les objets mathématiques, étant intemporels, n’ont pas de moments présent, n’ont pas de futurs ni de passés. Toutefois, si on embrasse la réalité du temps et voit les lois mathématiques comme des outils plutôt que des miroirs mystiques de la nature, d’autres faits têtus, inexplicables, concernant le monde deviennent explicables… » Bien que je ne partage pas du tout sa conviction de l’existence d’un temps réel, donné dans la Nature, en dehors de la ‘Présence’ du sujet pensant, je suis très satisfait du fait qu’il ait accordé une fonction essentielle (à découvrir) au moment présent dans sa quête. (Voir article du 02/05/2013 dans le Blog : ‘Bienvenu au ‘Moment Présent’ de Lee Smolin’[1])

 

En mai 2014, dans le NewScientist, on peut lire une analyse de David Mermin à propos du temps que je traduis in-extenso : «Du point de vue d’une perspective humaine, la physique a un problème avec le temps. Nous n’avons pas de difficulté à définir un moment spécial appelé ‘maintenant’ qui est distinct du passé et du futur, mais nos théories ne peuvent pas capturer l’essence (sic) de ce ‘moment’. Les lois de la nature traitent seulement avec ce qui se produit dans certains intervalles de temps. »

« David Mermin déclare avoir résolu ce problème en utilisant un principe semblable à celui qu’il a utilisé ainsi que d’autres à propos de la théorie quantique. Nous devons simplement abandonner l’idée qu’il existe un espace-temps déterminé objectivement. »

 « Au lieu de former des séries de tranches ou de couches qui d’un certain point de vue correspondent à un ‘maintenant’ ou ‘alors’, l’espace-temps de Mermin est un maillage de filaments qui s’entrecoupent reliant ainsi les expériences de différentes personnes… « Pourquoi promouvoir l’espace-temps d’un diagramme, qui est un dispositif conceptuel utile, vers la problématique d’une essence réelle ? » demande Mermin. Sa réponse : « En identifiant mon système abstrait avec une réalité objective, je me trompe en le regardant comme une arène dans laquelle je vis ma vie. » »

Quand Mermin écrit : « Les lois de la nature traitent seulement avec ce qui se produit dans certains intervalles de temps. », je constate une convergence intéressante mais il y a plus qu’une nuance avec mon hypothèse fondamentale : le sujet pensant, ne peut saisir des lois de la nature que comprises dans un intervalle de temps. La nature n’y est pour rien, c’est l’observateur cogitant, qui est le promoteur des lois de la nature qu’il identifie en fonction de ses déterminations, de ses capacités, propres. Pour moi, TpS[2] de l’ordre de 10-25s est l’exemple d’une détermination incontournable, irréductible. Durant TpS, un photon parcourt de l’ordre de 10-2à 10-3fermi. C’est par exemple aussi à cette dimension que s’estompe la possibilité d’attribuer une dimension à l’électron. 

In fine D. Mermin considère que le ‘maintenant’ a une épaisseur temporelle comme j’en fais l’hypothèse et il admet se tromper s’il raisonne en considérant le temps comme une réalité objective. Dans l’article en question il ne va pas jusqu’à dire que le temps est une fondation de l’être pensant comme j’en fais l’hypothèse mais il lui nie la propriété d’une réalité objective.

Avec ces trois cas cités on remarque la difficulté de rompre avec la pensée scientifique traditionnelle du temps. En une petite décennie, je constate quand même quelques convergences partielles mais intéressantes et je les reçois comme encourageantes. Grâce à celles-ci j’éprouve une plus grande légitimité à persévérer et développer mon hypothèse fondamentale : le maintenant est habité par la ‘Présence’ de l’être pensant.

Pour une très grande majorité de physiciens franchir le Rubicond est une affaire délicate parce que cela revient à contredire A. Einstein et certains disciples, qui ne manquent pas d’arrogance, assènent, sans recul, comme Th. Damour  dans une conférence en l’an 2000 : « Par exemple le fait que le passage du temps (le « maintenant ») ne corresponde à rien dans la réalité physique (sic), c’est-à-dire pour reprendre une phrase d’Einstein au fils et à la sœur de Besso, « (Pour nous croyant) que la séparation entre passé, présent et avenir, ne garde que la valeur d’une illusion, si tenace soit elle », est un des messages importants des théories de la relativité qui est complètement ignoré de nos contemporains (ainsi que des vulgarisateurs de la science). »

Pourtant, on ne peut ignorer qu’avec la relativité restreinte et la générale, l’observateur occupe une place essentielle et nécessaire dès qu’on entreprend un raisonnement dans l’un de ces cadres. L’observateur est automatiquement introduit avec une montre ou quelque chose qui égrène le temps : c’est l’observateur qui est le vecteur du temps. Etonnamment, il fallut attendre la publication d’un ouvrage, en 1930, d’Einstein en commun avec Infeld pour que le concept d’observateur soit explicitement mis en scène.

Dans un exemple simple je propose d’expliquer pourquoi le ‘maintenant’ doit être pris en compte et qu’il est irréductible. Prenons l’exemple d’un feu d’artifice au pied de la Tour Eiffel.  

Lorsque j’évoque la ‘belle bleue’ et la ‘belle rouge’ du feu d’artifice du 14 juillet qui, au pied de la Tour Eiffel, s’épanouissent exactement au même instant mais à des distances distinctes (par ex : à chacune des extrémités du bassin du Trocadéro), les équations de la relativité restreinte m’indiquent que la foule au pied de la Tour Eiffel (référentiel O) constatera et partagera la simultanéité des explosions, par contre une foule installée sur une comète en mouvement par rapport à la terre (référentiel O’) pourrait voir des explosions distinctes sur le plan temporel et spatial. Donc il faut qu’il y ait simultanéité temporelle et superposition spatiale des explosions de la gerbe rouge et de la gerbe bleue pour que les deux foules (comme toutes autres foules de spectateurs O’’, O’’’) affirment assurément que les deux explosions se sont produites au même instant.

Sachant que x’r = γ(xr – v*tret que x’b = γ(xb – v*tb) ;         (1)

si tr = tb et xr > xb ; j’en déduis que x’r  x’b = γ(xr – xb) ;  (2)

 

La loi de transformation des temps respectifs étant :

t’r = γ(tr – v/c2*xr) et t’b = γ(tb – v/c2*xb),                        (3)

j’en déduis t’r – t’b = γv/c2(xb – xr).                                   (4)

 

Si je postule la coïncidence temporelle tr= tb ainsi que la coïncidence spatiale xr = xb,

j’obtiens x’r – x’b = 0 et t’r – t’b = 0. Ce résultat vaut pour tout référentiel O’, O’’, etc.

 

Avec cet exemple de double coïncidence, je constate qu’aucune foule d’observateurs ne peut relativiser les événements que constituent l’explosion de la ‘belle rouge’ et l’explosion de la ‘belle bleue’. Les foules ne peuvent affirmer que la même chose : Ô la belle bleue et Ô la belle rouge se font voir au même moment ! En même temps, la présence de ces observateurs est nécessaire pour dire cette coïncidence. Il faut qu’elle soit énoncée, n’oublions pas qu’il ne peut y avoir de science physique et évidemment de science tout court, que s’il y a énonciation.

L’exemple présenté correspond effectivement à une situation humainement provoquée. Ce sont les artificiers qui décident de placer les fusées l’une par rapport à l’autre et de les allumer simultanément ou pas. Le raisonnement et les résultats seraient les mêmes si l’apparition de la ‘belle rouge’ et de la ‘belle bleue’ résultait d’un phénomène naturel. 

L’affirmation d’Einstein, « Ce qui du point de vue physique est réel…est constitué de coïncidences spatio-temporelles. Et rien d’autre. », pourrait donc être complétée par : Quand il y a coïncidences temporelles et spatiales, les différents observateurs situés dans des référentiels relativistes distincts voient absolument la même chose et ils ont un discours totalement semblable (superposable) pour la décrire. Cela revient à considérer que tous ces observateurs pourraient se situer dans un seul et même référentiel. Dans ce cas le concept d’observateur(s) n’a plus de pertinence – dans ce cas l’exigence de l’énonciation n’est plus garantie – celui de référentiel suffit.

 Revenons à la situation précédente avec la coïncidence uniquement temporelle dans O. La foule au pied de la Tour Eiffel vivra un même ‘maintenant’quand la ‘belle bleue’ et la ‘belle rouge’ s’épanouiront dans le ciel au même instant. On peut retenir que chaque membre de la foule prononce la phrase : « j’étais présent quand la ‘belle bleue’ et la ‘belle rouge’ ont dans le même instant éclairé le ciel ». Mais ce ‘maintenant’ est détruit du point de vue de la foule qui se trouve réunie en O’ sur la comète, car : t’r – t’b = γv/c2(xb – xr). Difficile donc retrouver ce ‘maintenant’ en O’. Le ‘maintenant’ de O est affirmé par la foule grâce à la stricte égalité perçue de tr = tbet il est vraiment impossible de dire que le ‘maintenant’ dans O’ soit t’r ou t’b,ou encore soit entre t’r et t’b. Effectivement, les ‘maintenant’ sont relatifs aux référentiels dans lesquels ils sont vécus quand il n’y a pas coïncidence spatiale. Donc à ce niveau on comprend pourquoi Einstein nie une quelconque signification absolue au maintenant, à ce que l’on vit comme étant l’instant présent.

Avec TpS la simultanéité parfaite ne peut pas être mesurée. Dès qu’un événement a une durée Δt<10-25s, le résultat de la mesure effective est = 0. Il est pensé= 0 car aucune différenciation sur le plan temporel ne peut être perçue. Pensée, produit d’un vécu, absolue, non intellectualisable, donc non destructible. Il y a intrication de l’apparition, par exemple de la gerbe rouge et de la gerbe bleue. La mesure Δt’ par les observateurs de O’ peut être différente, alors qu’il s’agit bien du même événement mais Δt’ = γΔt peut être mesuré >10-25s : pas d’intrication perçue. Dans ce cas s’il y a communication humaine entre O et O’, il y a désaccord irrémédiable entre ce qui est vécu en O et mesurable en O’, bien que γ soit connu des deux parties. On se retrouve dans une situation qui viole le principe de la relativité d’Einstein qui dit que tous les points de vue se valent avec la connaissance des lois de transformations.

A cette échelle, en retenant la violation de ce principe, il faut en extraire les conséquences. Par exemple considérer qu’il y aurait superposition possible de ce qui est pensé et de ce qui est mesuré comme je l’ai proposée en mécanique quantique : à défaut de la connaissance des coordonnées spatio-temporelles dans un interféromètre on pense : onde, sinon on observe trajectoire spatio-temporelle : particule[3]. Sauf que dans le cas présent il y a une différence très importante puisque les observateurs ne sont pas les mêmes – bien que ce soient des sujets pensants génériques avec le même TpS invariant – et donc l’acceptation de la violation ne peut pas à première vue s’adosser sur ce même argument.

Ici quand la temporalisation ne peut pas s’enclencher la superposition temporelle demeure. C’est le propre de l’intrication temporelle. La foule O’ ne pourra pas convaincre la foule O de la non-simultanéité. TpS étant un point aveugle de l’intelligence humaine, ces conséquences ne peuvent pas être abrogées par des arguments provenant d’un autre référentiel en mouvement puisqu’il est un existential[4].

Il est important de rappeler qu’il faut distinguer la nature du temps et la nature de l’espace. Le temps est pure fondation du sujet pensant. Le temps est inhérent à l’être humain. Par contre la Nature offre à ‘l’être pensant’ matière à une représentation de l’espace. Grâce à ses ressources cognitives il y a puisé de la signification qui lui est propre. Cette intériorisation s’est produite par l’intermédiaire d’une association étroite entre matière et dimension. Primordialement, l’espace est donc perçu étroitement corrélé à son substrat matériel. (C’est une idée qui mérite d’être creusée)

L’imbrication de l’espace et du temps telle qu’elle est proposée à partir de la R.R. avec l’avènement de l’espace-tempsest clairement justifiée mais composantes spatiales et composante temporelle ne sont pas interchangeables car elles ne véhiculent pas les mêmes significations. Cette imbrication est en fait très précoce dans l’histoire de l’humanité quand il s’est agi d’inventer des repères qui permettent de positionner des étapes de l’écoulement du temps. Les clepsydres, les longueurs d’une ombre portée, imbriquent position dans l’espace avec déclaration spécifique d’une étape du temps qui s’écoule. La scansion des marées peut aussi être considérée comme une scansion du temps.

Encore récemment j’ai lu un article qui se termine par la phrase suivante : « Nous ferions bien de nous habituer à être un élément essentiel de la réalité. » Franchement il n’est plus pertinent d’utiliser cette problématique pour fabriquer une chute à un article. Certes, c’est un sujet renversant au sens propre du terme, moi-même je ressens le tremblement qui accompagne la nécessité de plus en plus impérative de traiter ce sujet mais c’est en lever de rideau d’articles qu’il doit être maintenant abordé.

Cet article-ci n’est pas final. Il ne marque qu’une étape et je ne développe pas vraiment les conséquences de mon affirmation : « Tous les points de vue ne se valent pas quand la valeur de TpS est en jeu. » On devrait pouvoir le constater soit directement soit indirectement. Quelles sont les expériences qui pourraient confirmer ou infirmer indubitablement cette déclaration ? Il y a le phénomène de l’intrication qui s’explique aisément grâce à la reconnaissance de TpS mais j’admets que ce n’est pas indubitable.

Attendons fin octobre, mais s’il est confirmé qu’il n’y a pas de possibilité de détecter des ondes gravitationnelles qu’elles soient quantiques ou pas (parce que les instruments Virgo et Ligo n’ont jamais rien détectés jusqu’à présent), cela devrait obliger la communauté scientifique à s’interroger, enfin sérieusement, sur la question de la nature profonde de l’espace et du temps car les ondes gravitationnelles sont censées, depuis 1915, être des vibrations spatio-temporelles.

Par rapport à ce que j’ai dit au début de l’article, c’est toujours la solitude qui prévaut, toutefois elle est un peu moindre.



[1] La traduction en français de son livre : ‘La Renaissance du temps’ vient de sortir.

[2] Plusieurs articles du blog font référence à cette hypothèse, en synthèse voir celui du 02/11/2012 : ‘Synthèse : un Monde en ‘Présence’’

[3] Voir article du Blog : ‘l’étrangeté quantique, une illusion ?’ le 11/01/2014.

[4] Voir article du blog : ‘Synthèse : un Monde en ‘Présence’’. Le 02/11/2012.

Partager cet article
Repost0
3 juin 2014 2 03 /06 /juin /2014 11:31

Prosper Taurin, Edwin Hubble, Arno Penzias, Robert Wilson et les autres découvreurs.

            Dans l’article du 07/05 : ‘Assistons-nous à une redéfinition de la science’, j’ai affirmé ce qui suit : « Sans ‘Présence’, il n’y a rien…qui soit discernable. Selon ma thèse, le ‘Rien’ et ‘Tous les possibles’ sont des concepts qui se rejoignent. Il en est de même du ‘Rien’ et de l’’Eternité’. C’est donc la ‘Présence’ de l’être pensant qui provoque la fracture et qui par la nécessité de son discernement fait émerger dans l’urgence le possible le plus immédiat, émergence qui est toujours en renouvellement, en enrichissement, et ne peut avoir de fin. »

Je propose à travers quelques exemples d’illustrer mon propos qui a priori peut apparaître franchement et exagérément iconoclaste.

C’est le 21 mars 1830 que le laboureur Prosper Taurin, nouveau propriétaire d’un lopin de terre en Normandie non loin de Bernay, heurte le soc de sa charrue sur un obstacle dans le prolongement du sillon droit qu’il ouvrait. Il aurait pu le contourner mais il aurait perdu la rectitude rigoureuse du sillon, alors que depuis l’aurore il avait jusqu’alors retourné avec application des bourrelets de terre bien grasse sur lesquels se réfléchissaient les rayons du soleil levant. Le laboureur se pencha et essaya de saisir l’obstacle coincé sous le soc. Ouf ! Ce n’est qu’une tuile. Il la soulève et la jette au loin, mais avant de relancer son attelage, il jette un œil, il voit des éclats de lumière qui s’échappent du creux de la terre. Le laboureur Normand comprend vite à la couleur des reflets qu’il y a là des pièces d’or. Il creuse et agrandit le trou avec sa pioche et il met au jour une grande quantité d’objets précieux, au moins à ce qu’il lui semble. Dans la frénésie de sa découverte, avec ses mains ou avec sa pioche, il met en évidence des grandes dalles, des parois travaillées et des structures d’une construction importante. Il reste concentré sur ce qui libère des éclats.

Le laboureur avait envie de tirer un gain immédiat de sa fabuleuse découverte mais il se ravisa, il eut l’intelligence de faire connaître quelques un de ces objets à une personne de sa connaissance qui était érudite. Le diagnostic de celui-ci a été immédiat : cela vaut plus que de l’or, ce sont des objets romains, des statues, un buste de Minerve, des cuillers à encens, des canthares, des patères, datant à coup sûr d’avant le IIIe siècle.

Par la suite, essentiellement, de 1850 à 1900, les scientifiques archéologues s’emparèrent du site et c’est un temple de deux mille mètres carrés consacré à Mercure qui fut révélé et ce sont des pans entiers de l’histoire profonde de la Normandie qui furent éclairés et déferleront à partir de ce heurt du soc de la charrue et du soulèvement de cette tuile. Avant, pendant plus d’un millénaire, tous les laboureurs qui précédèrent Prosper Taurin considérèrent que sous cette tuile-couvercle, qu’ils ignorèrent, il n’y avait ‘Rien’ à voir, ‘Rien’ à en dire.

Prosper Taurin mourut très riche.

En 1964, les radio-astronomes Penzias et Wilson, travaillent à mettre au point une antenne très performante, pour ce faire, ils ont besoin d'étalonner correctement leur antenne, et en particulier de connaître le bruit de fondgénéré par celle-ci ainsi que par l'atmosphère terrestre. Quand ils analysent leurs données, ils trouvent un faible, mais persistant bruit de fond mystérieux qui parasite leur récepteur. Ce bruit résiduel semble parfaitement réparti dans tout le ciel et produit son effet jour et nuit. Ce signal d’une longueur d’onde caractéristique ne vient pas de la terre, du soleil, ni de notre galaxie. Après avoir analysé la qualité des composants de leur antenne, ils détruisent les nids de pigeons qui avaient été bâtis, nettoient les déjections des volatiles, mais le bruit de fond persiste. Tous deux concluent que ce bruit est un bruit supplémentaire d'origine inconnue sur la longueur d'onde 7,35 cm. Ce bruit, parfaitement isotrope, converti en température d'antenne, correspond à une température du ciel de 2,7 K, ne présente pas de variations saisonnières, et ses éventuelles fluctuations en fonction de la direction ne dépassent pas 10 %.

Penzias et Wilson ne connaissaient pas les travaux des cosmologistes de leur époque, et c'est presque par hasard qu'ils les découvrent. Penzias mentionne fortuitement sa découverte au radio-astronome Bernie Burke, qui lui dit savoir de Ken Turner que James Peeblesa prédit l'existence d'un rayonnement de quelques kelvins, et qu'une équipe composée de Dicke, Roll et Wilkinsonde l'université de Princeton est en train de construire une antenne pour le détecter. Penzias prend alors contact avec Dicke pour lui faire part de ses résultats. Ils décident alors de publier conjointement deux articles, l'un signé de Penzias et Wilson décrivant la découverte du fond diffus cosmologique, l'autre signé par Peebles et l'équipe de Dicke en décrivant les conséquences cosmologiques. L'histoire raconte que lorsque Dicke apprit la découverte de Penzias, il dit à ses collaborateurs une phrase restée célèbre : « Well boys, we have been scooped » (« Les gars, nous nous sommes faits devancer »). On ne sait pas bien si ces derniers auraient pu effectivement détecter ce rayonnement avec les moyens dont ils disposaient mais cela semble probable.

Penzias et Wilson recevront chacun 1/4 du prix Nobelde physique 1978 pour leur découverte

Nous reconnaissons tous, aujourd’hui, que la détection fortuite de cette première image du cosmos, a encore des conséquences extraordinaires permettant de progresser vers une plus grande intelligibilité de Notre univers.

Avant les observations de Edwin Hubble, avant 1920, au-delà de notre galaxie il n’y avait ‘Rien’. Le tout de l’Univers était constitué de la Voie Lactée. Grâce au nouveau télescope Hooker de 250 cm, le plus puissant télescope à l'époque, Hubble se rend compte que les « nébuleuses » observées précédemment avec des télescopes moins puissants ne font pas partie de notre Galaxie, mais constituent d'autres galaxieséloignées. Il annonce sa découverte le 30 décembre 1924. Au-delà de Notre galaxie, la première nébuleuse identifiée comme une galaxie n'est pas M31 (la Galaxie d'Andromède), mais la petite galaxie NGC 6822située dans la constellation du Sagittaire (1925). Suivront ensuite M33 (la Galaxie du Triangle) en 1926 et M31 en 1929. Ainsi ce ‘Rien’ se trouve être occupé par d’autres galaxies et nous savons donc combien, en à peine un siècle d’observations et de cogitations, Notre univers s’est enrichi et diversifié. On n’oubliera pas que quelques-uns de ses collègues les plus renommés se moquèrent de ses découvertes, alors qu’effectivement la compréhension dite scientifique de Notre univers changea fondamentalement grâce à la perspicacité de E. Hubble et l’exploitation appropriée des signaux fournis par son nouveau télescope.

A partir de ces exemples je veux expliciter comment au sein du ‘rien’ ou du ‘Rien’ supposé, affirmé, vibrionne de la multitude, comment du possible peut déferler et devenir pour nous explicite, dès que la curiosité humaine se penche et s’interroge sur le pan d’un ‘rien’ proclamé par routine voire par paresse.

Maintenant on accepte l’idée qu’il n’est plus possible de penser le scénario suivant : « A partir de ‘Rien’, dans un formidable big-bang a surgi l’Univers », pas plus que : « Au-delà de l’Univers (qui se confondait avec le nôtre) il n’y a ‘Rien’. »

On remarquera que P. Taurin eut le pressentiment que ce qu’il avait mis au jour en soulevant la tuile dépassait son entendement et il demanda de l’aide pour que l’on décrypte ce qu’il venait de découvrir. Il en fut gratifié.

Penzias et Wilson firent de même, ils partagèrent, avec une cascade de spécialistes en dehors leur propre domaine, leur étonnement à l’égard de ce qu’ils venaient de mettre en relief avec leur antenne. Leur découverte fut ainsi valorisée.

Quant à Hubble, qui se tourna vers ses pairs pour leur annoncer une véritable extension de l’univers, il connaitra en retour des sarcasmes. Ceux-ci réagirent comme s’il n’était pas question qu’un nouveau venu vienne perturber leur croyance au sein de leur pré carré. 

Partager cet article
Repost0
27 mai 2014 2 27 /05 /mai /2014 15:32

Persévérons car cela progresse dans le bon sens… mais lentement, en zigzag.

Ce titre presque optimiste est validé par la lecture d’un article dans le New Scientist du 10/05 qui s’intitule ‘Etat d’esprit’ de Matthew Chalmers avec comme sous-titre : ‘Ce n’est pas la théorie quantique qui est incertaine, c’est vous.’ Sans reprendre la totalité des arguments de l’article, je propose d’isoler ceux qui me permettent de mettre en évidence les convergences franches avec ceux que je développe depuis 2007 dans mon cours : ‘Faire de la physique avec ou sans ‘Présence’’ et dans mon blog notamment l’article qui constitue une synthèse : ‘L’étrangeté quantique une illusion ?’ du 11/01/2014 et qui fait référence aux précédents depuis 2011. Je n’évite pas pour autant de mettre en évidence les arguments avec lesquels je suis en désaccord car en même temps ils m’obligent à préciser mon point de vue, précisions que je vous dois. Dans ce contexte, je suis tout autant obligé de vérifier la cohérence de quelques-unes de mes hypothèses.

Au sein de l’article de M. Chalmers, il y a un paragraphe qui explique le point de vue, tout neuf, de David Mermin que je traduis in-extenso : «Du point de vue d’une perspective humaine, la physique a un problème avec le temps. Nous n’avons pas de difficulté à définir un moment spécial appelé ‘maintenant’ qui est distinct du passé et du futur, mais nos théories ne peuvent pas capturer l’essence (sic) de ce ‘moment’. Les lois de la nature traitent seulement avec ce qui arrive dans un certain intervalle de temps. » (L’idée que je défends depuis de nombreuses années (2006) c’est que l’essence de ce moment c’est la ‘Présence’ du sujet pensant et ce ‘moment’ est irréductible. Il correspond à τs que je désigne comme le ‘Temps propre du Sujet’ soit encore TpS que j’estime de l’ordre de 10-25s. C’est donc une estimation de l’épaisseur de cette ‘Présence’. Voir l’annexe I, ci-jointe. Avec TpS, des impossibilités de compréhension de propriétés de la physique s’évanouissent, par ex. : celle relative à l’intrication.)

« David Mermin déclare avoir résolu ce problème en utilisant un principe semblable à celui qu’il a utilisé ainsi que d’autres. Nous devons simplement abandonner l’idée qu’il existe un espace-temps déterminé objectivement. » (A chaque fois que cela est nécessaire je précise que pour moi l’Anthrôpos est le fondateur de l’espace et du temps. Le temps occupant à mes yeux une place primordiale dans ce processus. Cette fondation est concomitante avec le surgissement de la conscience de la ‘Présence’ de l’anthrôpos, en conséquence, l’espace et le temps n’ont pas d’existence propre dans la nature.)

« Au lieu de former des séries de tranches ou de couches qui d’un certain point de vue correspondent à un ‘maintenant’ ou ‘alors’, l’espace-temps de Mermin est un maillage de filaments qui s’entrecoupent reliant ainsi les expériences de différentes personnes… « Pourquoi promouvoir l’espace-temps d’un diagramme, qui est un dispositif conceptuel utile, vers la problématique d’une essence réelle ? » demande Mermin. Sa réponse : « En identifiant mon système abstrait avec une réalité objective, je me trompe en le regardant comme une arène dans laquelle je vis ma vie. » »

Plus loin D. Mermin confirme, comme je l’ai récemment rappelé, qu’il faut prendre en compte le patrimoine intellectuel et culturel du sujet pensant quand il investit sur les propriétés de la nature : « Il y a simplement des abstractions utiles que nous développons pour rendre compte de ce que les horloges et les règles font. Quelques-unes de ces abstractions de haut niveau nous les construisons pour nous-mêmes en grandissant, d’autres ont été construites par des génies et nous ont été communiquées à l’école où par les livres. » Cela semble être de sa part plutôt une intuition, pas plus. Or cette thèse mérite d’être illustrée d’une façon plus élaborée puisqu’elle conduit à devoir inscrire les progressions de la connaissance du sujet pensant en phase avec l’évolution de son patrimoine réflexif, de son patrimoine culturel, depuis la profondeur des temps.

Dans la suite de l’article il est encore spécifié comment D. Mermin pense avoir craqué le mystère de la mécanique quantique. C’est globalement les Qbists qui l’ont convaincu. Or, à leur égard j’exprime une sérieuse réserve puisqu’ils prennent en compte la subjectivité, la présence avec un p minuscule, alors qu’à mon sens il doit être pris en compte la ‘Présence’ constitutive du sujet pensant qui enracine la conscience fondamentale de son existence, c. à d. : ‘Présence’ qui est la racine de l’Anthrôpos. D. Mermin est tellement convaincu d’avoir craqué le mystère de la mécanique quantique  qu’il affirme que la bizarrerie probabiliste de la mécanique quantique est dans la tête des physiciens, ‘c’est vraiment aussi simple que cela’(sic).

Plus loin dans l’article on peut lire : « Pour Mermin, la beauté de l’idée est que les paradoxes qui nuisent (sic) à la mécanique quantique simplement s’évanouissent. Les mesures ne ‘causent’ pas les choses qui se produisent dans le monde réel, quel qu’il soit ; elles causent les choses qui se produisent dans nos têtes. L’action fantôme à distance est aussi une illusion. L’apparence d’un changement spontané est juste le résultat de deux parties réalisant indépendamment les mesures qui réactualisent leur état de connaissance. » Dans ce propos, il y a à mon sens une référence qui est incongrue et contradictoire, c’est celle du monde réel. Comment Mermin peut-il évoquer le monde réel alors que celui-ci est d’une telle multiplicité qu’il est absurde de vouloir le penser. En fait on retrouve la thèse des réalistes de l’école GRW qui s’arc-boutent sur une opposition stérile, depuis de nombreuses décennies, à l’école de Copenhague. La condition pour que l’intelligence humaine se maintienne dans un état de liberté intellectuelle la plus grande possible consiste à renoncer à l’idée qu’un monde réel est à coup sûr devant soi. Cette proposition n’est pas une proposition opportuniste, conjoncturelle, elle précise la bonne posture que doit adopter le sujet pensant. A ce titre voir l’article du 22/03 : ‘La physique n’est pas une science qui nous conduit à la connaissance de la réalité. Elle nous conduit à établir des vérités fondées.’ Ces ‘vérités fondées’ sont le vrai terreau actuel d’une démarche scientifique solide qui permet de capturer les connaissances qui correspondent aux capacités du sujet pensant.

Plus loin on peut lire encore : « Avec le monde quantique microscopique, nous avons besoin d’un acte explicite de mesure avec un instrument pour obtenir de l’information. Pour prédire les résultats dans ce cas, nous avons besoin d’une théorie qui peut rendre compte de toutes les choses qui peuvent se passer quand on n’observe pas (cette hypothèse est vraiment totalement redondante à celle de GRW). Pour un QBist, la limite quantique-classique correspond à la scission entre ce qui se produit dans le monde réel et votre expérience subjective de celle-ci. » Là encore, la référence au monde réel est absurde, elle est de l’ordre d’une croyance métaphysique de la part de l’auteur et surtout elle indique que les Qbists se réfèrent à une subjectivité qui n’est autre que le pendant de l’objectivité qu’une grande majorité de physiciens pensent avoir fait reculer grâce à leur arsenal mathématique et expérimental. Dans ce cas le point de vue de ces derniers est juste. 

Malgré quelques convergences, j’affirme des désaccords significatifs avec les QBists, désaccords qui prennent leurs reliefs avec le concept de ‘Présence’ avec un p majuscule. Comme je l’ai précisé ci-dessus, qui est la racine de l’Anthrôpos. Cette ‘Présence’ indique la capacité première de surplomb du sujet pensant, vis-à-vis de ce qu’est la nature qui l’a forgée avec des atouts qui lui sont propres. Ainsi, l’Etre dans la Nature se différencie de l’Etre de la Nature mais ils cohabitent. Le p majuscule prend de l’épaisseur avec l’évolution darwinienne du sujet pensant. Cela signifie que la ‘Présence’ est de plus en plus affirmée et l’Etre dans la Nature prend le pas sur l’Etre de la Nature, sans jamais le réduire à néant, sinon ce serait la néantisation du sujet pensant. La ‘Présence’ prend de l’épaisseur, veut dire qu’il est pris en compte l’évolution, depuis les temps les plus reculés, des capacités cognitives, des capacités de l’investissement intellectuel des lois de la Nature. Il est aussi pris en compte l’évolution du bagage culturel qui favorise de plus en plus les capacités d’inférer du sujet pensant dans des domaines de plus en plus abstraits dans le sens où ces domaines sont de moins en moins accessibles dans notre immédiateté physique[1]. C’est cette dynamique-là[2]qui est laissée de côté de la part des QBists à cause de la faiblesse de leurs hypothèses premières avec leur p minuscule et qui induit Mermin dans l’erreur croyant avoir craqué les bizarreries de la mécanique quantique. Il devrait se souvenir de l’affirmation de N. Bohr : « Il n’y a pas de monde quantique, il n’y a qu’une interprétation quantique du monde. » Interprétation que Bohr ne considérait pas comme obligatoirement pérenne.

                                                             Annexe I

Lu dans ‘Pour la Science’ de Mars 2014, p.26 : «Mais surtout on comprend mieux la dynamique temporelle de la conscience : on a notamment montré que la conscience est un phénomène tardif qui n’est que l’aboutissement d’une succession d’événements neuronaux non conscients. Ainsi la conscience ne serait que la dernière étape d’une chaîne d’événements inconscients. C’est le modèle proposé par S. Dehaene : pour que la conscience naisse, il faut d’abord que des aires spécialisées dans le traitement des informations sensorielles, par exemple le cortex visuel, soient activées. Quand un seuil d’activation est dépassé, l’information est transmise au cortex préfrontal, puis redirigé à l’ensemble du cortex. Alors seulement l’information devient consciente. Nous nous sommes sans doute trop focalisés sur la conscience qui ne représenterait qu’une petite partie des phénomènes qui traduisent notre présence (sic) au monde… »

Il y a quelques années j’avais insisté sur la valeur des travaux de A. Goldbeter dont un intéressant état de l’art était présenté dans son livre : ‘La vie oscillatoire : cœur des rythmes du vivant’, edit. : O. Jacob, 2010. Dans cet ouvrage sont recensés et présentés les rythmes biologiques qui nous habitent dont à un certain niveau nous dépendons. Maintenant les travaux de S. Dehaene nous révèlent un autre tempo dont nous dépendons dans notre fonctionnement le plus intime et le plus fondamental. C’est le tempo de l’inconscience/conscience. Ainsi du niveau biologique au niveau neurobiologique, nous identifions des tic-tacs, des scansions, qui résultent de notre nature. L’existential : τs est, selon moi, la scansion la plus élevée dans la hiérarchie correspondante à celle constitutive de l’être humain. Je ne saurais dire s’il y a encore des niveaux intermédiaires entre le tempo appréhendé par Dehaene et le tempo irréductible τs. Cela se pourrait. Ce qui est certain, c’est que l’expérience que je propose pour la première fois dans l’article du 27/08/2012 :’D’infinis précautions’ pourrait être réalisée par l’équipe de Dehaene. Parmi tous les êtres vivants, τs doit être reconnu comme un identifiant, un attribut, de l’Etre dans la Nature.



[1] Voir article du 07/05/2014 : ‘Assistons-nous à une redéfinition de la science ?’ Plus particulièrement la longue citation que je propose d’A. Barrau.

[2] ‘Au sein d’une Eternité, parmi tous les possibles, sans cesse, l’Anthrôpos creuse sa connaissance d’un univers qui n’a pas de limites et celles qui apparaissent à cause des déterminations du sujet pensant ne sont que provisoires…’

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens