Overblog
Suivre ce blog Administration + Créer mon blog
11 janvier 2014 6 11 /01 /janvier /2014 14:31

                                   L’étrangeté quantique, une illusion ?

Il n'y a pas d’illusion, il n’y a que ce que le sujet pensant est à même de concevoir. En  insistant sur le terme illusion cela laisse entendre que nous savons qu’il y a quelque chose d’autre que ce que nous ‘voyons’, nous pensons, nous déduisons logiquement. Cela laisse entendre que nous ne sommes pas dupes et qu’il y aurait à coup sûr une réalité plus profonde.

Quelle est la nature de ce savoir ? Est-ce que nous ne serions pas plutôt toujours encombrés[1]par une métaphysique réaliste persistante qui a par exemple servi de fondement pour s’opposer à l’émergence de la mécanique quantique. L’étrangeté provient du fait que nous sommes des êtres classiques, déterministes, déterminés par notre rapport façonnant avec la Nature à l’échelle classique et notre intelligence naturelle ne peut évoluer que lentement au fur et à mesure que notre rapport avec la Nature s’enrichit, se densifie, s’approfondit. En bref, ‘penser quantique’ peut être une perspective, sur le long terme, pour le ‘sujet pensant’ que nous sommes. J’aurais pu dire pour ‘l’être pensant’ que nous sommes mais je prenais le risque d’esquiver l’idée essentielle du rapport déterminant avec la Nature et avec notre volonté  façonnant de la maîtriser (déjà exprimé par Descartes : la soumettre.). Nous sommes plus dans une dynamique de confrontation à l’égard de la Nature qu’à son côté. (Rappelons-nous de l’hypothèse de l’apparition du langage chez l’homo ergaster concomitant avec le processus du taillage du silex.)

Pour l’essentiel, je fais référence à l’article publié dans ‘Pour la Science’ de Janvier 2014, qui vante les mérites des lumières du QBisme[2]à propos des soit disant étrangetés de la mécanique quantique. Heureusement et rapidement l’auteur rappelle quelque chose qui est essentiel : « L’idée selon laquelle la fonction d’onde ne serait pas une identité réelle remonte aux années 1930 et aux écrits de Niels Bohr, l’un des fondateurs de la mécanique quantique. Il considérait qu’elle faisait partie du formalisme « purement symbolique » de la théorie quantique : un outil de calcul, et rien de plus. Le QBisme est le premier modèle à donner un ancrage mathématique à l’affirmation de Bohr. Il fusionne la théorie quantique avec les statistiques bayésiennes, un domaine vieux de 200 ans qui considère la probabilité comme le reflet d’une croyance subjective. » En synthèse : « Le QBisme ne considère pas la fonction d’onde d’un système quantique comme une entité physique, mais comme un outil mathématique qui reflète les connaissances dont dispose l’observateur sur ce système. »

Je partage pour une large part ce qui est écrit dans cet article notamment : « mais une fonction d’onde n’est qu’une description de ce que pense l’observateur. » ou encore mais c’est au titre d’une affirmation banale : « Faisant la chronique des affres de la naissance du QBisme, l’ouvrage laisse entrevoir comment la physique théorique est créée par les êtres humains bien réels (sic). »

Tout ceci ne peut avoir un impact réel que si on se débarrasse une bonne fois pour toutes de toute présomption qu’il y aurait dans ce monde une réalité, finie, établie, indépendante de ce que nous sommes, et qu’il suffira de lever le voile ou les voiles successifs pour que l’os de cette réalité nous apparaisse définitivement. Grâce au niveau d’évolution qui est celui du genre humain, nous atteignons des fragments plus ou moins significatifs de vérités qui sont parfaitement crédibles et qui font sens au regard de nos capacités d’évaluation, en ce sens l’être humain est un être vivant exceptionnel mais toute extrapolation qui lui attribuerait l’exclusivité et le savoir universel ne peut plus, à mes yeux, être prétendue[3]. Il est plus juste de considérer que nous sommes ‘au sein d’une éternité parmi tous les possibles’ et que nous dévoilons progressivement un de ces possibles toujours en devenir.

J’ai déjà proposé une expérience qui permettrait de vérifier la validité de la thèse de N. Bohr et reprise par les QBistes. Je l’ai exprimé dans l’article du 27/08/2012 : ‘D’infinies précautions’, de la façon suivante :

Et si toute cette étrangeté n’était que le fruit d’une pensée fondamentalement archaïque de l’observateur qui conçoit une représentation ondulatoire par défaut.

  1. Lorsque l’observateur sait qu’il y a quelque chose dans l’interféromètre (qu’elle que soit cette chose : photons, électrons, neutrons, molécules de fullerènes, virus ?) mais reste parfaitement ignorant du chemin suivi par la chose[4] alors c’est l’aspect ondulatoire (étendue spatiale) qui s’impose à l’observateur. Je propose de considérer que cette part d’ignorance de l’observateur joue un rôle essentiel et donc dans le cadre d’un cheminement archaïque de notre fonctionnement cérébral se trouve comblée l’ignorance spatio-temporelle par l’’illusion’ d’une représentation ondulatoire. Attention parce que l’illusion va jusqu’à une mystification (ou une auto suggestion imposante) car les figures d’interférence sont visibles sur la plaque du détecteur. A ce titre on peut considérer qu’il est absurde et donc rédhibitoire de formuler une telle hypothèse. Pourtant, je propose de continuer à la retenir en laissant cet aspect provisoirement de côté.

  2. Si au contraire l’observateur recueille une information sur le passage par un chemin particulier dans l’interféromètre (information spatio-temporelle) alors c’est l’aspect objet ponctuel qui s’impose à l’observateur. L’investissement cérébral de l’observateur est sollicité d’une manière différente grâce à l’information spatio-temporelle.

    Si je souhaite persévérer avec l’hypothèse 1), c’est parce qu’il est peut-être possible de la soumettre à l’expérience. En effet une pensée (représentation) archaïque devrait probablement avoir pour siège une partie archaïque du cerveau. Il existe maintenant grâce aux laboratoires de neurosciences cognitives et d’imagerie cérébrale la possibilité de mettre au point une expérience, avec un protocole certainement très sophistiqué, où on pourrait évaluer si l’ignorance partielle d’un observateur compétent mettrait en jeu une région du ‘cerveau pensant’ différente de celle d’un même observateur qui penserait l’ondulatoire à partir d’un apprentissage acquis (par exemple à partir de la connaissance des équations de Maxwell et de leur résolution.)

    J’ai dû, pour formuler cette hypothèse, vaincre mes propres réticences dont l’héritage est évidemment bien connu. Je ne doute pas que les lecteurs de cet article vont éprouver la même réluctance. Sans vouloir provoquer qui que ce soit, j’ai la profonde conviction qu’il faudra dans un temps proche passer par ce stade expérimental.

    1. Pourquoi je ne peux pas être satisfait de quelques un des commentaires et des appréciations de Hans Christian von Baeyer ?

      Je voudrais expliciter mon insatisfaction en isolant deux expressions de l’auteur : « Bayésianisme quantique : la fonction d’onde ne correspond qu’à l’état mental (sic) de l’observateur ; le chat lui-même est soit mort, soit vivant. » et « En considérant la fonction d’onde du chat comme une propriété subjective (sic) de l’observateur, et non comme une propriété objective de l’animal, le QBisme résoudrait le paradoxe du chat de Schrödinger. »

      Avant tout, il est vrai que cet article valide l’intitulé de mon cours, proposé depuis 2007 : ‘Faire de la physique avec ou sans ‘Présence’ ? ’. Toutefois la présence que j’évoque est avec un P, alors que celle de l’article est à mon avis celle d’un p.

      L’article contribue aussi à renforcer le sens de ceux que j’ai proposé dans le passé, notamment : ‘ l’être humain est-il nu de toute contribution lorsqu’il décrypte et met en évidence les lois de la nature ?’ (le 21/12/2011) ; ‘Thomas Bayes dans le cerveau ?’ (le 2/11/2012) ; ‘Scientifiques façonnés dès la naissance’ (le 24/03/2013).

      Vous comprenez que ce n’est pas un problème de purisme exacerbé que de vouloir exprimer une différence fondamentale entre le p majuscule et le p minuscule. En fait cela met en évidence des présences qui sont d’une nature différente. Dans l’article ‘Scientifiques façonnés dès la naissance ?’, j’ai écrit : « Nous serions donc en tant que sujet pensant profondément déterminés par cette voie illustrée par la formule de Bayes. » C’est-à-dire que j’évoque la ‘Présence’ constitutive du sujet pensant tel qu’il est dans la profondeur de sa nature anthropologique. C’est une ‘Présence’ qui est la racine de l’anthrôpos. Je me réfère donc à la Présence inexpugnable du sujet pensant malgré les velléités d’Einstein avec sa thèse du ‘réalisme’ de gommer toute idée : d’instant, de moment, présent.

      L’état mental et la subjectivité de l’observateur, évoquent des qualités, des états qui sont variant dans le temps, variant aussi suivant les cultures, cela évoque une ‘présence’ du sujet pensant déjà établie. 

      Le patrimoine intellectuel est déterminant

      Si on se réfère au principe de complémentarité, Bohr précise que l'apparaître ondulatoire ou l'apparaître corpusculaire sont complémentaires et ce sont les instruments d'observation qui font la différence. La fonction d'onde comprend l'ensemble des informations relatives à tous les 'apparaître' potentiels qui sont le fruit de notre patrimoine intellectuel en tant qu'observateur générique. (Non-dit par les QBistes, en cela ils négligent quelque chose d'essentiel.) Générique au sens que Kant l'a proposé. L'instrument de mesure détermine quel apparaître sera effectif. Il y a donc réduction. Si on prend l'exemple de la lumière on ne peut pas oublier que l'interprétation corpusculaire a fait partie de l'histoire des tentatives d'explication des phénomènes de la lumière (exemple célèbre et caractéristique : Newton) tout comme l'explication ondulatoire. Voilà ce que j'appelle le patrimoine qui s'est constitué au cours de l'histoire de notre développement cérébral et intellectuel au cours de notre confrontation avec ce que nous offre la Nature immédiate à l'échelle de nos facultés de perception naturelles et à l'échelle classique. Cela n'est pas un problème de Ph. D. comme le dit avec sarcasme J. Bell. Il est aujourd'hui possible d'aller voir expérimentalement si cette explication est pertinente.

       

       



    [1] Parce que la rétention d’information de la part de la chose est parfaite. A. Zeilinger précise que si la chose émet une information et ce même s’il n’y a pas d’observateur pour la recueillir, eh bien : pas de figure d’interférence.  (Est-ce de sa part une intuition ou une affirmation prouvée ?)

         



[1] J’évoque l’idée d’encombrement parce que cela laisse croire que nous sommes pris dans une symétrie figée. D’un côté il y a un sujet pensant établi, statique, et de l’autre des lois de la Nature à mettre en lumière dans le but d’atteindre in fine l’os d’une réalité immuable. Cela laisse entendre qu’il n’y aurait aucune relation dynamique entre le sujet pensant et l’objet qui motive son enquête intellectuelle alors qu’il y a certainement une relation dialectique qui prévaut. Sur la durée, il faut comprendre, quand je découvre, que j’invente, des lois de la nature, en tant que sujet pensant, je m’invente tout autant. Les neuroscientifiques découvrent de mieux en mieux actuellement la plasticité cérébrale remarquable chez l’enfant à l’occasion des apprentissages, chez le sujet pensant elle est en plus dans la plasticité de la capacité de projection intellectuelle et donc d’émancipation vis-à-vis d’un consensus intellectuel précédemment et provisoirement établi. (Plasticité cérébrale et plasticité intellectuelle sont à mes yeux, d’un point de vue qualitatif nécessairement distincts et je l’expliciterai dans une prochaine occasion.)

[2] Sujet que nous avons étudié l’année passée dans le chapitre XXXII et qui fut l’objet d’un article sur le blog le 21/11/2012 : ‘Thomas Bayes dans le cerveau’

[3] Voir dernier article sur le blog : « La fin comme celle du Phénix. », note n° 5 : « Intelligences capables de fabriquer des outils différents de ceux que nous fabriquons en tant que homo sapiens sapiens et par exemple seraient à même d’intercepter un rayonnement par d’autres instruments qu’un interféromètre ou une plaque photoélectrique. » En conséquence, intelligences qui n’identifieraient pas obligatoirement le rayonnement par un aspect ondulatoire ou un aspect corpusculaire, ni caractériseraient  le rayonnement avec les  paramètres de longueur d’onde, de vitesse de propagation, etc…

[4] Parce que la rétention d’information de la part de la chose est parfaite. A. Zeilinger précise que si la chose émet une information et ce même s’il n’y a pas d’observateur pour la recueillir, eh bien : pas de figure d’interférence.  (Est-ce de sa part une intuition ou une affirmation prouvée ?)

Partager cet article
Repost0
2 décembre 2013 1 02 /12 /décembre /2013 12:18

                        La fin comme celle du Phénix

            « Cet être de la nature n’est pas un être résiduel, neutralisé, pacifié, tapis dans l’intériorité humaine, non il tient sa place. » Lorsqu’à nouveau je me suis prononcé ainsi dans l’article en question (du 10/10/2013), j’étais sûr de mon jugement, j’étais cohérent avec la logique de tout ce qui précédait dans l’article et de l’ensemble des articles sur le blog.

L’assurance de mon jugement était accompagnée de la conscience que je procédais régulièrement à des ajustements philosophico-anthropologiques pour justifier ma progression vers une meilleure compréhension des propriétés physiques de la nature telles qu’elles m’apparaissent. A cet égard je n’ai jamais éprouvé d’inquiétudes alors que je bousculais progressivement mes propres croyances sur ce qui fait que le sujet pensant est un être à part parmi les êtres vivants. A force d’ajustements pragmatiques cumulés, je me suis dit que je devais approfondir ce sujet. C’est alors que je me suis souvenu que j’avais dans ma bibliothèque un ouvrage qui pouvait répondre à cette inquiétude. Il s’agissait du livre : ‘La fin de l’exception humaine’ de Jean-Marie Schaeffer[1], édité en 2007 par Gallimard.

Lors de sa parution, je l’avais plutôt parcouru avec réticence car le sujet traité d’une façon globale et a priori, comme cela est proposé d’emblée dans le titre, suscita une réelle résistance de ma part. Or, il se trouve qu’en le relisant, avec une plus grande disponibilité intellectuelle, j’ai compris qu’en grande partie, d’une façon très progressive, je proposais des idées plus ou moins semblables mais à partir du point de vue du physicien qui veut s’émanciper de la conception prégnante du réalisme. C’est-à-dire s’émanciper d’une conception où le physicien est convaincu que sa discipline lui permet d’atteindre le monde réel de la nature qui ne peut que lui être extérieure et dans cette opération de décryptage, ‘le physicien est nu de toute contribution lorsqu’il met en évidence une loi de la Nature’ (voir article du 21/12/2011). Il faut croire que de ce point de vue, je ne percevais pas, d’une façon trop abrupte, la remise en cause de l’assise anthropologique et philosophique traditionnelle sur laquelle j’étais intellectuellement installé, alors que dans l’essai de Schaeffer cela est proposé sur la base des connaissances avancées qui sont propres à l’anthropologie, à la philosophie, à la biologie[2].

Dès les premières pages, l’auteur plante le décor de sa démonstration et ce qui est certitude, selon lui, doit être rappelée : « Que l’homme soit un être biologique et social et non pas un sujet autofondé ne saurait plus guère faire de doute. Et que l’être social et culturel de l’homme, loin de projeter au-delà de son être biologique, soient des dimensions ou des aspects de son être biologique, ne devrait pas non plus faire le moindre doute pour quiconque réfléchit un tant soit peu (sic)… Il existe en effet une dépendance radicale du social et du culturel par rapport au biologique, qui a été parfaitement résumée par John Searle. » Partant il y a continuité et non dualité entre le corps et l’esprit.

« En philosophie de l'esprit, J. Searle se distingue par son naturalisme biologique. Qualifier ainsi le naturalisme de "biologique", c'est mettre l'accent sur le fait que le niveau propre de compréhension du phénomène de la conscience est le niveau biologique. Searle défend ainsi une position qualifiée d'« émergentiste ». L'émergentisme développe l'idée qu'il y a continuité et non dualité entre le corps et l'esprit. L'esprit naîtrait d'une complexification croissante du corps et plus particulièrement du système neuronal. Searle s'oppose aussi bien, aux conceptions dualistes et à l'héritage cartésien, qu'aux conceptions réductionnistes des relations entre l'esprit et le corps. Pour lui, les états mentaux qui caractérisent notre vie subjective sont aussi réels que les autres phénomènes biologiques, aussi réels que des phénomènes comme la photosynthèse ou la digestion. Mais ils ne sont pas réductibles aux processus neurobiologiques tels que les neurosciences les conçoivent. La position ainsi défendue se veut à la fois parfaitement naturaliste et anti-réductionniste. Comme Searle l'affirme à maintes reprises, les états mentaux sont à la fois causés par les opérations du cerveau et réalisés dans la structure même du cerveau. Tout le problème de la philosophie de l'esprit se ramène alors à cette question : comment peut-on dire en même temps que le cerveau cause l'esprit (conformément à un certain dualisme) et que l'esprit est un trait caractéristique du cerveau (comme l'affirme le matérialisme) ? À cette question, Searle répond que s'il existe bien une relation de cause à effet entre le cerveau et l'esprit, les « caractéristiques de surface » que constituent les états mentaux sont simplement des caractéristiques de niveau supérieur du cerveau où se produisent, au niveau de la micro-structure, les processus physiques qui les causent. La subjectivité de la conscience doit donc être comprise comme un fait biologique d'ordre supérieur que l'on peut réduire "causalement" à sa base physique, en tant qu'elle en est la cause inhérente, mais que l'on ne peut toutefois réduire "ontologiquement" à cette base qui est par définition objective et donc inconsciente. » (Source Wikipédia)

Il est extrêmement important de savoir que : « La thèse de l’exception humaine ancrée dans une culture particulière – l’occidentale – elle s’est inscrite pendant des siècles au rang des évidences de la culture savante occidentale, alors qu’elle est elle-même une exception culturelle. Cet essentialisme créationniste, il faut le rappeler n’est pas un universel culturel. Selon F. Jullien[3], la culture classique chinoise ne connaissait ni l’idée d’une essence transcendante ni celle d’une création ex nihilo. Pour les Chinois, la logique du réel est celle d’un « procès » plutôt que celle d’une création. « Le monde ne doit pas être considéré comme un complexe de choses achevées mais comme un complexe de processus où les choses en apparence stables… passent par un changement ininterrompu de devenir et de dépérissement. » En conséquence le concept de lignée est plus approprié, ceci vaut tout autant pour l’homme que pour les autres organismes vivants. L’humanité ne correspond pas à l’exemplification d’un type mais à un ensemble généalogique. L’humanité s’auto-engendre et l’« être » de l’humanité coïncide avec son devenir.

Donc, comme on le constate, l’auteur fait sienne la thèse de la disqualification de la thèse de la rupture ontique (le corps et l’esprit, la res extensa et la res cogitans), c’est-à-dire du postulat d’une discontinuité entre l’humanité et le reste du monde animal.

Les pages 158 et 159 sont très explicites : « En effet les faits qu’elle (la thèse dualiste) prétend être seule à pouvoir expliquer – la conscience, la vie animale, la vie culturelle – peuvent tous être décrits en tant que niveau d’intégration fonctionnelle spécifique à la vie biologique. Et ils peuvent être expliqués généalogiquement en tant que faits évolutifs donc en tant que faits qui, loin d’introduire une dimension d’incommensurabilité dans la phylogenèse[4], sont l’aboutissement d’une complexification progressive et locale de mécanismes de feedback informationnel présents dès les premiers stades de l’évolution du vivant. L’idée selon laquelle cette complexification a été scandée par des paliers d’émergence (dont les états mentaux conscients sont un exemple, mais il y en a d’autres) paraît une hypothèse raisonnable. Mais précisément, l’hypothèse émergentiste ne postule pas une rupture ontique : elle se borne à affirmer l’irréductibilité ontique des différents paliers distingués. Par exemple, dans le cas de la conscience, l’hypothèse émergentiste revient à soutenir que les états conscients sont en tant que tels des états réels, causalement efficaces, et non pas de simples épiphénomènes. Ceci n’implique nullement qu’ils doivent appartenir à une sphère ontique différente de celle des faits biologiques.

« Loin de correspondre à une rupture ontique, les facultés mentales humaines apparaissent alors comme un résultat naturel parmi d’autres de l’évolution biologique, donc de l’histoire du vivant telle qu’elle s’est développée sur une planète particulière d’un système solaire particulier faisant partie d’une galaxie particulière… Que cette évolution ait donné naissance à des êtres vivants doués de facultés mentales conscientes peut à première vue apparaître comme un fait « extraordinaire » mais dès lors qu’on abandonne le présupposé dualiste, l’existence d’êtres vivants capables d’avoir des états conscients n’est pas plus « extraordinaire » que celle d’animaux ayant des ailes qui leur permettent de voler... »

N’oublions pas que maintenant nous savons, grâce à des observations, que dans notre galaxie il y a de nombreuses planètes (peut-être 2 à 3 par étoile et à peu près 100 milliards d’étoiles) dont certaines sont à coup sûr telluriques et en conséquence il n’est plus impossible de considérer que d’autres intelligences[5] identiques à la nôtre ou notablement différentes aient pu se développer, sur quelques-unes de ces planètes, que ce soit grâce à des lois biologiques identiques ou notablement différentes.

Dans le chapitre du livre : « L’homme comme être social » l’auteur annonce page 202 : « Le présent chapitre est le point d’articulation essentiel de mon argumentation : comment concilier le fait que l’être humain est (au sens le plus fort de la copule) un être biologique avec le fait qu’il est (au sens le plus fort de la copule) un être social ? » On retrouve ici le fil directeur de la problématique que j’évoque régulièrement en rapport avec la cohabitation de l’être de la nature et de l’être dans la nature et cette cohabitation étant une des conditions de la dynamique de l’activité du sujet pensant. Notamment le Temps propre du Sujet (TpS) résulterait de cette cohabitation. Il n’est pas possible de citer tout le livre mais il y a accord avec l’auteur qui précise que l’être humain doit être en premier un être social pour être un être culturel et par là atteindre le stade de ce qui fait la spécificité de l’être humain.

Page 241 on peut lire l’idée qui n’est pas émise par l’auteur mais retient toute mon attention : « La position singulière que l’homme occuperait dans le royaume animal tiendrait au fait qu’il ne possède pas d’environnement spécifique à l’espèce mais est caractérisé au contraire par une ouverture-au-monde non déterminée non-canalisée. L’ordre social serait ainsi l’invention proprement non biologique – et spécifiquement humaine – qui pallierait à un défaut de détermination biologique (instinctuelle) de sa relation au monde. [6] »

La caractéristique spécifique de l’homme qui : « fait qu’il ne possède pas d’environnement spécifique à l’espèce mais… ouverture-au-monde non déterminée non canalisée. » est crédible et constitue un critère de différenciation de l’espèce humaine des autres espèces largement partagée. Sans réduire la valeur de cette caractéristique énoncée, je propose d’adjoindre, à la thèse que : « l’homme ne possède pas d’environnement spécifique… », l’idée complémentaire : « jusqu’alors identifié ! » En effet les avancées de la connaissance scientifique et/ou ses obstacles actuellement recensés peuvent amener à reconnaître, un environnement à l’homme qui serait une cause de détermination et de canalisation (ici, je reprends le terme canalisation,  parce qu’il est utilisé par l’auteur, mais il ne me convient pas. En conséquence je ne retiens que le terme : détermination, que j’ai toujours utilisé jusqu’à présent). Avant de proposer d’identifier cet environnement actuellement spécifique source de déterminations au sujet pensant, je propose d’ajouter une hypothèse complémentaire qui précise que l’être humain, lorsqu’il est confronté à un environnement spécifique au cours de son évolution (au sens Darwinienne), a les ressources de s’en émanciper. Cette caractéristique est spécifique à son espèce. Ses facultés cérébrales qui lui sont propres et évolutives favorisent ce dépassement. Partant ses moyens intellectuels lui permettent de penser au-delà de l’environnement déterminant (provisoire) lorsqu’il est identifié. L’évolution humaine n’est pas soumise à des contraintes irréductibles bien que des étapes critiques, dramatiques, jalonnent son développement. En résumé je propose de retenir l’idée que l’espèce humaine se caractérise par sa capacité à dépasser les environnements contraignants, sources de déterminations provisoires, qui se sont imposées, qui s’imposent et s’imposeront à lui. Ses capacités cérébrales lui permettent d’accéder à l’intelligence de ces environnements et partant de les dépasser.

L’environnement présent, source de contraintes, que nous sommes appelés à dépasser est donc celui qui nous conduit à considérer : que la lumière de notre environnement naturel, qui nous permet d’identifier notre univers actuel, lumière caractérisée par sa vitesse de propagation : vitesse limite indépassable, et ‘constante universel’. Ceci est donc ce qui borne l’univers que nous identifions. Frontalement, nous ne pouvons pas dépasser cette ‘vérité’. C’est à travers les apories qui se présentent à nous en physique théorique que nous pouvons dépasser l’idée que notre monde serait obligatoirement borné par cette vérité. Nous sommes actuellement incapables de préciser ce qui constitue ces fameux 95% noirs de notre univers en exploitant toutes les conséquences de cette ‘vérité’, notamment E = mc2. Tous les moyens de détection que nous mettons en œuvre par exemple pour détecter de la matière noire s’appuient sur cette contrainte. Notre intelligence scientifique est bornée par cette donnée et il nous faut la dépasser.

J’ai déjà proposé que pour comprendre ce qui constitue une partie du versant noir de notre monde il fallait s’émanciper de la contrainte de E = mc2 et les propriétés physiques des neutrinos, que nous comprenons que partiellement, constituent un tremplin à notre portée pour valider l’hypothèse, qu’il y a un au-delà, qu’il y a un autrement, que celui délimité par la contrainte E = mc2.

A l’occasion de la lecture de ce livre que je ne peux que vous conseiller, je souhaite aussi mettre l’accent sur la conception du temps qui est sujet à des controverses remarquables. Pour certains, il n’est pas, pour d’autres il est, mais pour ceux-là, cela peut être pour des raisons différentes, dans un cas il est parce qu’il est donné dans la nature, pour ce qui est de mon appréciation, il est parce qu’il est fondé par le sujet pensant, il n’est donc pas donné. A ce propos reprenons la thèse de J. Searle, proposée au début de l’article et notamment :

« Searlese distingue par son naturalisme biologique. Qualifier ainsi le naturalisme de "biologique", c'est mettre l'accent sur le fait que le niveau propre de compréhension du phénomène de la conscience est le niveau biologique. Searle défend ainsi une position qualifiée d'« émergentiste ». L'émergentisme développe l'idée qu'il y a continuité et non dualité entre le corps et l'esprit. L'esprit naîtrait d'une complexification croissante du corps et plus particulièrement du système neuronal»

Si on ne peut plus ignorer notre constitution biologique au plus profond de ce qui fonde notre être et si les travaux de : A. Goldbeter[7] sont scientifiquement valables, est-ce que les physiciens sont intellectuellement autorisés à négliger ces avancées ? En quatrième de couverture du livre[8] de : A. Golbeter : ‘La vie oscillatoire au cœur des rythmes du vivant’ on peut lire : « A. Golbeter présente dans ce livre la première synthèse des connaissances sur les rythmes observés aux différents niveaux de l’organisation biologique et médicale. De l’horloge circadienne qui permet l’adaptation à l’alternance du jour et de la nuit jusqu’à la floraison ou aux migrations qui se synchronisent avec le cycle des saisons. De l’horloge qui contrôle le cycle de division cellulaire jusqu’aux oscillations qui assurent le succès de la fécondation et du développement embryonnaire. Du cerveau qui produit les rythmes neuronaux et sécrète des hormones de manière pulsatile jusqu’aux troubles bipolaires ou variations cyclique du poids. Par-delà les différences de mécanisme et de période, A. Golbeter met en lumière la profonde unité des rythmes du vivant… »

C. Rovelli et A. Connes ont, dans des travaux communs, tenté mathématiquement et physiquement de justifier une flèche du temps qui briserait la réversibilité (irréelle) des lois physiques. Ils ont privilégié le rayonnement fossile pour valider cette recherche théorique qui n’a pas abouti. Rappelons que pour A. Connes : ‘L’aléa du quantique est le tic-tac de l’horloge divine’. Pourquoi éprouve-t-il le besoin de faire appel au divin alors que le sujet pensant est le vecteur de l’horloge primordiale qui scande son état d’éveil cause d’un dynamisme cérébral singulier de l’être humain ? Pour valider sa thèse, il a voulu exploiter le ‘bain’ thermique du rayonnement thermique fossile. Pourquoi esquive-t-il le bain biologique : socle originaire, constitutif, du sujet pensant.

En guise de point final de cet article, je propose de retenir ces phrases de l’auteur : page 367 : « Nous n’avons jamais accès qu’à une partie de ce qui est la cause de notre existence et par là aussi celle de nos savoirs. Le rêve d’un savoir absolu n’aurait de toute manière de sens que si nous pouvions nous extraire du continuum spatio-temporel qui nous situe. Dans l’univers auquel ont accès les savoirs empiriques une telle ex-tase est impossible. Tel étant le cas, nos connaissances tombent sous la loi du principe d’incertitude qui nous apprend que le sujet du savoir n’est pas face à la réalité qu’il observe mais qu’il en est un des éléments. Ceci ruine toute possibilité d’une vision panoptique dont l’esprit humain serait le centre absolu et immuable. »

 

Annexe : 4e de couverture. 

« L’unité de l’humanité est celle d’une espèce biologique que nous ne saurions extraire de l’ensemble des formes de vie non humaine qui constitue bien plus que son « environnement ».

A ce constat désormais incontestable, les sciences humaines et sociales opposent néanmoins la thèse de l’exception humaine : dans son essence propre, l’homme transcende à la fois la réalité des autres formes de vie et sa propre « naturalité ». Le philosophe pose qu’Homo est un « moi » ou un « sujet », radicalement autonome et fondateur de son propre être ; le sociologue tient que cette transcendance se situe dans la société, par essence « anti-naturelle ». L’anthropologue affirme, lui, que seule la « culture » (la création de systèmes symboliques) constitue le propre de l’homme.

L’humanité s’inscrit dans la vie grâce à des visions globales du monde et à des savoirs empiriques morcelés. La thèse de l’exception humaine est une vision du monde. Son coût, au regard de son utilité supposée, est exorbitant – l’impossibilité d’articuler les savoirs empiriques assurés en une vision intégrée de l’identité humaine qui conjugue les sciences de la culture et les autres connaissances concernant l’homme. »

 



[1] Voir quatrième de couverture, ci-jointe en annexe.

[2] Voir article de la critique de présentation par Elisabeth de Fontenay, ci-joint en copie.

[3]Philosophe, qui a consacré des études significatives  sur  le dialogue des cultures, notamment entre la Grecque et la Chinoise. 

[4] Phylogenèse : Recherche de la formation et du développement des espèces animales et végétales.

[5]Intelligences capables de fabriquer des outils différents de ceux que nous fabriquons en tant que homo sapiens sapiens et par exemple seraient à même d’intercepter un rayonnement par d’autres instruments qu’un interféromètre ou une plaque photoélectrique.

[6] Thèse de : A. Gehlen, (1904-1976), anthropologue et sociologue Allemand.

[7] Professeur à la faculté des sciences de l’Université libre de Bruxelles et membre de l’Académie royale de Belgique.

[8] Publié en 2010, édit. Odile Jacob. Depuis que ce livre est sorti, j’ai été extrêmement surpris de la faiblesse de la répercussion de son contenu. Est-ce parce qu’il n’y avait aucune connaissance nouvelle ou bien est-ce une malheureuse illustration du cloisonnement des connaissances ? Pourtant on peut découvrir dans cet ouvrage des données aussi remarquables et pour moi émouvantes comme : « Le lien étroit entre périodicité temporelle et formation d’une structure spatiale confère à l’horloge de segmentation un intérêt particulier. »

Partager cet article
Repost0
12 novembre 2013 2 12 /11 /novembre /2013 10:08

A propos du temps et de la Relativité Générale

 

L. Smolin a visé juste lorsqu’il a préciséles raisons profondes qui conduisent à éradiquer le flux du temps en physique : « Cela est certainement surprenant de l’affirmer mais l’idée que le temps soit considéré comme réel requière de faire une entorse radicale au paradigme standard de la physique. Ceci est la conséquence du développement de la conception, des propriétés de la nature, par les physiciens, depuis 400 ans. Toujours, depuis R. Descartes au 17e siècle, le temps a été représenté comme s’il était juste une dimension de l’espace. Ceci a culminé avec la conception de ‘l’univers comme un tout’, de la relativité générale, dans lequel le moment présent n’a pas de sens – tout ce qui existe c’est, tout d’un coup, la totalité de l’histoire de l’univers, sans temporalité (The whole history of the universe at once, timelessly). Quand les lois de la physique sont décrites mathématiquement, les processus causaux qui illustrent l’activité du temps sont représentés par des implications logiques intemporelles.

Mais l’univers réel a des propriétés qui ne sont pas représentables par un quelconque objet mathématique. Une de celles-ci est quil y a toujours un moment présent. Les objets mathématiques, étant intemporels, n’ont pas de moments présent, n’ont pas de futurs ni de passés. Toutefois, si on embrasse la réalité du temps et voit les lois mathématiques comme des outils plutôt que des miroirs mystiques de la nature, d’autres faits têtus, inexplicables, concernant le monde deviennent explicables… »

On ne doit pas oublier que l’éradication du temps fut un a priori intellectuel d’Albert Einstein et ce préalable philosophique (le Réalisme) l’a guidé durant toute sa cogitation jusqu’à l’acte de naissance de la Relativité Générale. En conséquence le constat de Smolin est juste : « Ceci a culminé avec la conception de ‘l’univers comme un tout’, de la relativité générale, dans lequel le moment présent n’a pas de sens – tout ce qui existe c’est, tout d’un coup, la totalité de l’histoire de l’univers, sans temporalité. »

 

L’élimination de toute temporalité qui s’impose avec l’invention de la loi de la R.G. en 1915 n’est pas une conséquence de celle-ci mais elle est le fruit de l’intemporalité postulée préalablement au nom d’une conception idéale proclamée : qu’une loi juste en physique est celle qui atteint la réalité d’une propriété au sein de la nature. A. Einstein insistait sur sa représentation d’un univers immuable et atemporel. A son époque avant 1930, cet univers avait les dimensions de notre galaxie. Après coup, E. Hubble, croyant comme lui en cette immuabilité, lui a montré que ce n’était pas vraiment ainsi. Et puis il y eut cette fameuse constante cosmologique introduite arbitrairement dans sa loi pour rétablir théoriquement cette immuabilité postulée. Par la suite il reconnaîtra que ce fut sa plus grande bêtise (confidence recueillie par Gamow) mais qui maintenant ne semble plus être une aussi importante bêtise.

Ceci étant précisé, il n’est pas question de sous-estimer le fait que la loi de la RG est une loi d’une fertilité exceptionnelle qui a conduit à des avancées remarquables de la connaissance en physique. Disons que cette loi comprend une part de vérité significative dans le sens où elle comprend ce que le sujet pensant est à même de mette en évidence grâce à ses possibilités de connaissances, mais part de vérité ne doit pas se confondre avec part de réalité. Justement c’est cette marge de progression sans fin qui offre, motive, permet, la mobilité intellectuelle du sujet pensant. On doit préciser aussi que sous sa forme globale : Rµν – ½ gµν(R - 2λ) = 8πGTµν est intraitable. Nous sommes en capacité d’extraire de la signification observable seulement lorsqu’on émet l’hypothèse que, par exemple, des critères de symétries sont pertinents (K. Schwarzchild) et donc sources de simplification de la loi globale ou encore en considérant que la densité d’énergie-matière est faible, homogène et isotrope (Robertson-Walker), ce qui autorise de notables simplifications. 

Essayons donc d’établir la bonne distance intellectuelle à l’égard de la R.G. si on veut analyser correctement où se situe dans le raisonnement d’Einstein la source (ou les sources) qui conduit à une représentation ‘réductrice’ de notre univers. Cela n’est pas simple parce que contrairement à la mécanique quantique la loi de la R.G. résulte de la cogitation d’un esprit unique avec toute la force de sa cohérence et de son unité. C’est un constat qui est largement partagé et R. Penrose en est tellement convaincu qu’il considère que c’est la mécanique quantique qui doit être corrigée pour que l’unification conduisant à la gravité quantique devienne possible.

Vouloir aménager la loi de la R.G. s’avère délicat… mais nécessaire. La réflexion de L. Smolin : « Si on voit les lois mathématiques comme des outils plutôt que des miroirs mystiques de la nature… », retient particulièrement mon attention et illustre ma proposition : ‘établir une bonne distance intellectuelle’. Cela veut dire que les mathématiques ne révèlent pas, par elles-mêmes, les lois de la nature, mais sont seulement des instruments bâtis par l’intelligence humaine qui permettent de formaliser ce qui est accessible à l’entendement humain, entendement qui n’est certainement pas immuable, et tant mieux. L’historique de la progression de la recherche d’Einstein entre 1905 et 1915 est symptomatique car sa réflexion préalable : « Les lois de la nature doivent être exprimées par des équations qui soient valables pour tous les systèmes de coordonnées, c’est-à-dire qui soient covariantes (universellement covariantes) pour des substitutions quelconques. » précédait en bonne partie les développements et la mise au point du corpus des mathématiques tensoriels.

Pointer, comme le fait Smolin, les inconvénients, les déviations, de la conception platonicienne des mathématiques, est judicieux et cette conception doit être considérée comme une source de croyances erronées quant à notre capacité à décrypter les propriétés de la nature. Cela fait plus de 2500 ans que cette croyance traverse l’humanité et donc chercher à la dépasser constitue une tâche nécessaire mais de long cours. D’autant plus que les adeptes de la conception platonicienne de l’univers ont de la ressource car, par exemple, si le théorème de K. Gödel publié en 1931 (lui-même platonicien) devrait franchement affaiblir cette conception, des physiciens théoriciens – qui me semble-t-il sont majoritaires – à l’exemple de R. Penrose, peuvent affirmer à propos de la théorie de la Relativité Générale : « Ce qui compte est que la structure mathématique est ici même, dans la Nature ; personne ne l’a imposée à la Nature, Einstein a révélé quelque chose qui était présent (sic). [ …] Il s’agit là d’un cas très pur… » et d’une façon générale : « Le concept de vérité mathématique ne se laisse pas enfermer dans le cadre d’un schéma formaliste. La vérité mathématique est quelque chose qui va au-delà du simple formalisme. Il y a quelque chose d’absolu et de « divin » dans la vérité mathématique. C’est ce dont il est question dans le platonisme mathématique. […] La vérité mathématique réelle va au-delà des constructions fabriquées par l’homme. » N’oublions pas que selon Penrose le théorème de Gödel est incontournable et sans faille mais il ne vaut que pour le formalisme mathématique et pas question que : l’incomplétude des mathématiques implique d’emblée l’incomplétude des sciences physiques.

 

En 1955 A. Einstein réitérait encore : « Pour nous, physiciens croyants, la séparation entre passé, présent et avenir, ne garde que la valeur d’une illusion, si tenace soit-elle. » Avec   cette phrase il rappelle avec force que l’évanescence de tout flux temporel est irréversible et c’est la preuve de la consistance de sa loi. Avec Smolin nous avons en communde pointer que le ‘moment présent’, ‘l’instant présent, ‘la présence’ doivent être pris en considération (bien que ce soit sur la base de préalables opposés) pour dépasser les impasses de la crise de la physique théorique de l’échelle du cosmos à celle de l’infiniment petit. Pour réaliser ce dépassement il faut procéder à un ‘geste’ théorique d’envergure qui enrichisse la relativité générale sans affaiblir toute la valeur prédictive confirmée de cette loi.

Pour ma part, je considère que la citation suivante d’Einstein : « Ce qui du point de vue physique est réel…est constitué de coïncidences spatio-temporelles. Et rien d’autres. », rend compte d’une manière concise l’endroit où les conséquences de la R.G. doivent être profondément travaillées, modifiées. En effet je considère que le sujet pensant doit être installé dans la réalité de la dynamique de la compréhension que nous avons du Monde qui, dorénavant, n’a pas de raison de se confondre avec ce que nous définissons comme étant provisoirement notre univers.

En ce qui concerne la compréhension que peut avoir L. Smolin de son ‘Moment Présent’ épiphanique, il est difficile de savoir quelles sont les modifications qu’il préconise à propos de la R.G. Sans spécifier ni plus, ni mieux, son ‘Moment Présent’, Il annonce qu’il exploite cette hypothèse dans des modèles simples de systèmes gouvernés par des lois qui sont irréversibles en temps mais desquels émergent des résultats symétriques en temps. Le fondement de sa pensée est que le temps est donné dans la Nature. Espérons qu’il puisse nous dire bientôt quelles sont les indications qui lui sont fournies par ses modèles.

Dans son article du 26/04/2013 in ‘New Scientist’

  Voir article posté, sur le blog, le 02/05/2013 : « Bienvenu au ‘Moment présent’ de L. Smolin »

Voir articles postés sur le blog le 02/11/2012 : « Synthèse : un Monde en ‘Présence’ » et le 01/01/2013 : « Un Monde en ‘Présence’ II »

Partager cet article
Repost0
9 octobre 2013 3 09 /10 /octobre /2013 15:19

                        Comment nous sommes devenus avec/dans le langage ?

L’envie d’évoquer cette odyssée résulte de la lecture de l’article suivant « Le langage et la conception d’outils ont-ils évolué ensemble ? » (In Futura-Sciences le 05/09/2013. Article original de Natalie Uomini et Georges Meyer in ‘Plos One’.) Il apparaît dans cet article qu’il y aurait une concomitance sérieusement probable entre le début du développement du langage et la capacité à travailler le silex pour fabriquer des outils. Cela remonte à peu près à 1,75 million d’années et à cette époque de l’évolution vers l’Homo sapiens, l’Homo ergaster était le pilier de celle-ci, soit notre ancêtre.

Ce sujet est délicat car il est bien connu, à force de tentatives, qu’il est quasiment impossible de nous approprier une compréhension stable de ce que nous sommes en tant qu’être humain. Pouvons-nous penser ce que nous avons été avant que nous soyons ce que nous sommes, c’est-à-dire un être de langage, un être de pensée ? N’oublions pas que les philosophes du langage à la fin du 19e siècle ont considéré que leur discipline pouvait progresser seulement s’ils renonçaient collectivement à essayer de penser l’homme avant le langage. A partir de ce renoncement la linguistique (étude du langage établi) a pu prendre son essor.

Si cela est ainsi, si c’est grâce à l’intercession de la nature que l’Homo ergaster s’est engagé dans la voie extraordinaire de l’être de langage, cela peut être considéré comme une humiliation de plus comme celle que Darwin nous a infligé avec sa découverte de l’évolution, suivie par celle de Freud avec sa découverte de l’inconscient. La faculté de langage ne serait donc pas une faculté intrinsèque qui nous aurait caractérisé tout au long de la longue marche de l’humanité (entamée il y aurait à peu près 12 millions d’années) mais un surgissement d’une réelle et âpre confrontation entre ce qu’est la nature et une action sur celle-ci pour en tirer un avantage. Selon l’article cité, nous serions donc à même de dater les prémisses de l’émancipation de l’être de la nature qui commence à se construire en un être dans la nature.

Ce serait donc par un contact physique avec la matière de la nature immédiate que ce seraient installées les premières bribes de la faculté de langage qui a fait que, parmi tous les êtres vivants, l’être humain s’est progressivement différencié pour devenir ce qu’il est aujourd’hui. S’il en est ainsi, si les premières étincelles de la faculté de pensée résultent de ce frottement avec la nature immédiate, pouvons-nous continuer de sous-estimer cette détermination profonde de notre capacité de langage et continuer de considérer que nous serions à même de penser l’universel, allégés que nous serions de toutes contingences en tant que sujet pensant ?

La coévolution des deux aptitudes proposée par N. Uomini et G. Meyer est à mes yeux pertinente car le processus intellectuel visant à façonner le silex dans un but déterminé met en jeu une faculté de projection, d’anticipation, comme lorsqu’il s’agit de concevoir, façonner, le mot qui convient pour exprimer une volonté, une pensée, aussi élémentaires qu’elles puissent être. Projeter implique de penser aussi l’existence d’un temps au-delà de l’immédiateté de l’instant présent. C’est une des raisons qui m’a conduit à toujours proposer la concomitance : langage – pensée – flux du temps, et à mes yeux cette concomitance constitue un propre de l’homme.

Homo ergaster aurait donc été celui qui aurait commencé à mettre en œuvre une aptitude à différencier ce qui est de l’ordre de la nature et de l’ordre d’une pensée volontaire qui ausculte, comprend, et agit pour transformer cette nature. Il aurait été celui qui aurait commencé à établir un rapport distancié avec la nature. C’est la faculté de langage naissante qui aurait été le moyen primordial de cette mise à distance. En ce sens Homo ergaster est l’ancêtre des physiciens, dans le sens où il est l’ancêtre d’un état d’esprit, d’une esthétique, qui est propre à ceux qui ont pour ambition d’établir un rapport intelligible avec ce qui est de l’ordre de la ‘Nature’. En même temps on mesure que l’être humain n’est que par la distance intelligible qu’il a réussi à établir avec ce qui lui apparaît faisant partie d’une nature extérieure, absolue, irréductible, sans pour autant s’en émanciper définitivement. Si on se réfère à l’aphorisme d’Héraclite «La Nature aime à se voiler», il faudrait donc l’entendre comme le fait que l’être humain ne pourra jamais lever l’ultime voile de la nature qui se présenterait à lui car ce voile est celui du terreau de l’origine et de la conscience de sa propre existence. Aussi nous ne devrions jamais être étonnés que le décryptage de la nature soit toujours lié à celui d’une occultation, d’une dissimulation, nouvelle qui surgit. La théorie du ‘Tout’, n’est pas pour demain et tant mieux ! Si on  répertorie les grandes énigmes de la physique aujourd’hui on constate que le voile est très opaque car nous serions (sommes) conduits à considérer à ne connaître que 4,8% de ce qui compose notre univers.

S’il se trouve corroboré qu’effectivement l’ancêtre de l’être humain s’est engagé sur la voie de la spécificité humaine par l’intermédiaire d’une confrontation exceptionnelle avec la nature alors la hiérarchie établie par Descartes avec son arbre de la connaissance où le tronc de celui-ci représenterait la connaissance en physique et les autres connaissances en seraient les branches, ne serait pas uniquement une conception datée de la sortie du moyen-âge en Europe, conception archaïque de la genèse de la connaissance par l’humain, mais serait plutôt la preuve d’un réalisme et d’une très grande perspicacité intellectuelle à propos de l’origine et du développement de l’humain.

Si c’est dans un rapport intime avec la nature immédiate que l’être humain premier a pris l’envol de ce qui constitue la spécificité de l’humain parmi les « existants », est-ce qu’il est assuré que nous puissions avoir accès à l’universel, est-ce que notre capacité de pensée déterminée à son origine par la nature immédiate, que reconnaît l’Homo ergaster, nous autorise de considérer qu’à partir de là nous sommes à même de penser l’universel, penser la nature dans sa totalité ?

Ce prétendu aboutissement a plusieurs fois été annoncé comme imminent, citons le célèbre apologue de Pierre-Simon Laplace (1749-1827) : « Nous devons donc envisager l’état présent de l’univers comme l’effet de son état antérieur et comme la cause de celui qui va suivre. Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée, et la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ces données à l’Analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’univers et ceux du plus léger atome : rien ne serait incertain pour elle et l’avenir, comme le passé serait présent à ses yeux. » On retrouve encore cette superbe assurance, chez William Thomson, alias Lord Kelvin (1824-1907), qui était largement partagée par l’élite de la communauté scientifique Européenne, moyennant quelques détails à régler : « La science physique forme aujourd’hui, pour l’essentiel, un ensemble parfaitement harmonieux, un ensemble pratiquement achevé. » Nous avons là, deux exemples de cette prétention à la pensée universelle qui aurait rassemblé, une bonne fois pour toutes, tout ce qui est connaissable.

Récemment j’ai écouté une émission qui indiquait que les peuples de la forêt avaient un vocabulaire extrêmement riche pour rendre compte de la multitude de ce qui compose la forêt. Vocabulaire qui n’a pas d’équivalent avec le nôtre car nous n’avons pas ce type de contact ni de préoccupations. Nous ne pouvons pas penser la diversité du monde végétal et animal de ces forêts tropicales car nous n’avons ni l’expérience, ni la sensibilité.

Nous ne devrions pas exclure qu’après tout, à notre échelle, selon notre histoire, nous soyons, comme l’homme des forêts tropicales, des experts de notre monde mais actuellement ignorant de ce qui englobe notre monde, l’enveloppe, voir l’interpénètre. Il m’est arrivé plusieurs fois d’écrire dans les précédents articles : Au sein d’une éternité, parmi tous les possibles, le sujet pensant creuse sans fin la compréhension de son univers correspondant à ses capacités de décryptage’. Ce que je veux exprimer, c’est que le monde ne se réduit pas à ce que nous désignons actuellement par l’univers qui est en fait que notre univers. Cet univers que nous sommes à même de décrypter par ce que nous avons recensé comme connaissances tout autant par ce que nous avons recensé comme ignorances. Je propose de considérer qu’il y a d’autres (univers) possibles et la somme (infini) de ces possibles constitue ce que nous pouvons appeler une Eternité.

J’ose penser que nous sommes peut-être dans la même situation que l’homme des forêts tropicales et nous sommes contraints par notre intelligence, déterminée, spécialisée, qui a pris son essor avec les premières aptitudes qui ont singularisé Homo ergaster parmi les hominidés. Concrètement notre monde de connaissances physiques est celui conçu à partir de ce que j’appelle la nature immédiate cette nature qui a offert sa résistance à Homo ergaster. Nous en connaissons en partie sa matière qui lui est constitutive, nous en connaissons sa lumière nous en connaissons en grande partie ses lois. Cette lumière est celle qui nous a forgés. Aucun élément qui nous constitue n’a pu être forgé sans la contribution de la lumière. Dans notre vie biologique la lumière est essentielle. Notre repérage temporel a été conçu sur la base du jeu de la lumière et de la non-lumière. On sait maintenant que certaines fonctions de notre cerveau sont dépendantes de la lumière et que notre vie psychique en est aussi dépendante. Nous sommes profondément dépendants de la lumière de notre univers au point que nous en sommes à considérer qu’elle constitue un horizon non seulement physique indépassable mais aussi un horizon conceptuel et intellectuelle indépassable. C’est pour cette raison que je parle de notre univers car effectivement il est, et pour cause, celui qui nous est accessible et décryptable.

On peut penser que je vais trop vite en besogne et reconnaître que la lumière est la source d’énergie fondamentale à tout ce qui constitue le monde végétal et animal, n’autorise pas pour autant à franchir le Rubicond et affirmer que nous sommes intellectuellement aveuglés par cette lumière (voir mon article du 31/07/2013 : Être de lumière et intelligence des lumières). On peut même considérer que mon point de vue est réducteur, absurde, car l’être humain pourrait être défini comme l’être vivant qui ne subit pas ce qui est de l’ordre de la nature mais le transcende, le met à distance de son être afin de se l’approprier et de pouvoir mener une action sur… Il en est ainsi de la lumière qui est donc depuis des siècles un sujet d’étude qui a abouti à sa maîtrise, à sa manipulation, et à des applications dans de multiples domaines. En grande partie la connaissance de l’univers actuel est acquise par les moyens de la lumière qui en est émise en son sein et pour laquelle nous avons une capacité de détection et de décryptage remarquable,. Notre œil est naturellement sensible à la lumière (naturelle) sur un domaine de longueur d’onde extrêmement étroit : quelques microns. Pour la détecter, au-delà (plus chaud) et en deçà (plus froid), l’Homo sapiens a mis en œuvre sa faculté à fabriquer des outils qui assurent le prolongement de son pouvoir d’observation de la nature en construisant des instruments de plus en plus perçants. Ces instruments sont tout aussi bien dans l’espace que sur la terre et les résultats déjà obtenus sont prodigieux et les perspectives fabuleuses. Mais voilà, c’est toujours la ‘même’ lumière qui est détectable, celle qui se déplace à la vitesse C, c’est le paramètre de la longueur d’onde qui établit les catégories infrarouges, submillimétrique, micro-ondes, etc., (plus froid) et ultraviolet, rayon X, rayon gamma, etc.,  (plus chaud). On comprend mieux aujourd’hui que cette lumière est étroitement imbriquée avec la matière qui nous est commune : « La lumière et la matière sont les deux faces d’une même réalité. » (S. Haroche). Je considère que l’égalité : E=mc2, est la marque de cette imbrication. Je fais l’hypothèse que cette célèbre égalité ne vaut pas pour la matière noire ni probablement pas pour les neutrinos. Nous devons avoir la disponibilité intellectuelle pour chercher à spécifier d’autre(s) lumière(s) et d’autre(s) matière(s) par des lois différentes dans d’autres univers même celui ou ceux qui s’imbriquent avec le nôtre. Leurs natures seraient différentes, par contre la conception de S. Haroche (les deux faces d’une même réalité) pourrait constituer une valeur qui transcende notre propre univers et constituer un paradigme pertinent pour scruter au-delà de ce que nous croyons connaître aujourd’hui.  

Lisa Randall (Université de Harvard) met en avant la thèse d’un univers à face noire. Celui-ci comprendrait évidemment de la matière noire, une force noire, un photon noir, etc., etc. En fait elle est conduite à proposer ce qui serait le symétrique noir de notre univers observable. Cela montre que la prégnance de la représentation de notre univers est extrêmement forte. Nous devons être bien plus ouverts, bien plus réceptifs, et avant de projeter des critères qui ne seraient que de simples copies, auscultons sans a priori ce qui pourraient constituer des signaux avant-coureurs d’autres univers, d’autres possibles. Ainsi, suite aux résultats extrêmement précis fournis par Planck, prenons en compte ce qui est pointé par Alan Stonebraker de la ‘Collaboration Planck’ (ESA) : « L’asymétrie détectée dans les fluctuations de température du rayonnement fossile concerne globalement deux hémisphères que l’on distingue à l’aide d’une sorte de ‘S’. On connaissait son existence dans les données de WMAP, et l’on avait déjà tenté de l’expliquer avec une classe particulière de théorie de l’inflation. Les observations de Planck confirment son existence. Elles permettent aussi d’y voir une signature possible de la théorie de l’inflation éternelle, dans un multivers où le nôtre n’est qu’une infime région en expansion. »

Pour engager le 3e volet de l’article, je prends en compte la réflexion de B. Latour (sociologue des sciences) : « On assiste à la fin de l’idée de nature. A l’époque de l’anthropocène, la nature n’est plus une catégorie distincte des humains. » Article du Monde du 22 /09/2013. J’ai rarement été intéressé par la production de B. Latour mais ici, je considère, bien volontiers, que sa remarque est pertinente. Le terme anthropocène désigne le fait que nous serions entrés depuis la fin du XVIIIe siècle dans une période où l’influence de l’homme sur le système terrestre serait devenue prédominante. Ce terme indique aussi par un effet boomerang que l’être humain est dépendant de cette nature qui connaît des transformations et que l’autonomie voire l’autonomisation de l’homme vis-à-vis de cette nature est un leurre. L’état de ‘pur esprit’ ne peut pas être de notre monde. Nous ne pouvons plus désirer comme Descartes le préconisait à l’humanité entière que nous devions nous rendre maîtres et possesseurs de la nature et que la science avait vocation à favoriser cet objectif. L’évolution contemporaine des sciences anthropologiques, éthologiques, ethnologiques, mettent en évidence que le clivage traditionnel et commode entre culture et nature n’est ni évident ni net comme nous avions l’habitude de le penser. Voir les travaux de Philippe Descola, Professeur au collège de France et auteur, entre autres, de ‘Par-delà nature et culture’. Comme l’écrit Ph. Descola : « La cosmologie moderne est devenue une formule parmi d’autres. Car chaque mode d’identification autorise des configurations singulières qui redistribuent les existants dans des collectifs aux frontières bien différentes de celles que les sciences humaines nous ont rendues familières. Nous assistons à une recomposition radicale de ces sciences et à un réaménagement de leur domaine afin d’y inclure bien plus que l’homme, tous ces « corps associés » trop longtemps relégués dans une fonction d’entourage. » Il ressort que l’être humain ne peut embrasser toute la nature comme si elle lui était tout extérieur, cela ne se peut, car tout simplement il en est une émanation. On peut donc retrouver de la curiosité et de l’intérêt vis-à-vis du fragment cité d’Héraclite : la nature aime à se voiler. Comme je l’ai souvent indiqué : l’être humain, le sujet pensant, est un être dans la nature, certes, mais il est aussi et toujours un être de la nature (qui génère ce voile ultime). Cet être de la nature n’est pas un être résiduel, neutralisé, pacifié, tapis dans l’intériorité humaine, non, il tient sa place. Comme je l’ai proposé dans mon cours ‘Faire de la physique avec ou sans ‘Présence’’, dès 2007 : « La compatibilité de l’être de la nature et de l’être dans la nature caractérise l’être humain. »  Cette compatibilité est sans cesse oscillante, elle n’est pas établie une bonne fois pour toutes, elle est la source du temps propre du sujet τs, qui serait peut-être de l’ordre de 10-25s ou moins, ce temps propre est la durée du tic-tac primordial qui scande le temps fondé par le sujet pensant. Il est une durée insécable qualitative, un existential, et constitue aussi le point aveugle de l’intelligence humaine.

Il semblerait qu’Alain Connes attribue à l’aléa du quantique le tic-tac de l’horloge divine (sic), ainsi au lieu de plonger les événements quantiques dans un temps externe, il propose que le temps soit une réalité ‘dérivée’. A suivre ??? Il faudrait qu’il soit moins allusif. 

Newton a pu valider la notion très abstraite de ‘force’ à l’âge de 16 ans quand le jour de la mort de Cromwell, il y avait une grosse tempête qui traversait l’Angleterre. Pour évaluer la force du vent, le jeune Newton fit des sauts d’abord dans le sens du vent, puis dans le sens contraire. En comparant les longueurs de ses sauts avec celles qu’il obtenait les jours de temps calme, il put calculer (en termes d’unités de longueur) la force du vent. Galilée a mené plusieurs de ses expériences physiques dans sa chambre avec le succès que l’on connaît, le tout orienté par son tropisme de la  métaphysique platonicienne.

L’installation récente de la dernière antenne d’Alma est à ce titre une belle illustration.

« Le monde qui nous entoure est peuplé d’atomes et l’essentiel de l’information que nous recevons vient de la lumière. » Serge Haroche, conférence à Bruxelles, mars 2010.

Partager cet article
Repost0
10 septembre 2013 2 10 /09 /septembre /2013 12:51

Convergence ?

Je fais référence à mon article datant du 27/08/2012 : « D’infinis précautions » ainsi qu’à celui du 21/12/2011 : « L’être humain est-il nu de toute contribution lorsqu’il décrypte et met en évidence une loi de la nature ? » L’hypothèse d’une convergence éventuelle ‘avec’ : se trouve dans un article publié le 05/09/2013 par Futura-Science, de Janlou Chaput, ayant pour titre : « Le langage et la conception d’outils ont-ils évolué ensemble ? »

Bien que n’ayant aucune compétence sur le sujet traité, je suis évidemment en éveil à l’égard de l’idée qu’il y aurait (eu) un lien entre le fait de tailler des outils de silex et l’émergence d’une faculté de langage. Les chercheurs pensent avoir mis en évidence une forte corrélation entre l’investissement cérébral que nécessite le projet de façonner la matière (pour fabriquer des outils) et l’investissement cérébral qui incite à façonner de la signification au moyen d’un langage chez l’homme artisan qui vivait en Afrique il y a entre 1,8 et 1,3 million d’années.

On trouve dans cet article (à lire) une belle illustration de la thèse, que j’évoque depuis de nombreuses années mais je ne peux que l’effleurer, qui est celle de l’interdépendance de l’être dans la nature/l’être de la nature. Ici dans l’article on serait donc à la lisière de pouvoir situer et comprendre le contexte à partir duquel s’est engagé le lent processus de l’émancipation des contraintes pures et brutes de la nature de la part de l’être qui deviendra le représentant de l’humain. Les facultés de langage (de représentation) du sujet pensant auraient pris leur envol avec la nécessité de développer des facultés techniques conduisant à une plus grande maîtrise de la matière.

La vraie raison pour laquelle j’ai donné à cet article le titre de ‘convergence ?’ n’est pas dans ces quelques réactions proposées ci-dessus mais à cause des moyens mis en œuvre pour tester l’hypothèse que : « Le langage et la conception d’outils auraient évolué ensemble ? »

En effet c’est par des techniques d’imagerie cérébrale que les chercheurs ont été en mesure de proposer ces conclusions. Dans l’article ‘d’infinis précautions’ je propose d’utiliser ces mêmes techniques pour comprendre les raisons qui font que lorsque nous n’avons pas d’information spatio-temporelle à propos d’un objet ‘quantique’ qui chemine dans un interféromètre c’est l’aspect ondulatoire (étendue spatiale) qui s’impose à l’observateur. J’ai considéré qu’il en était ainsi parce que l’ignorance spatio-temporelle de l’observateur mettait en jeu une représentation archaïque et que celle-ci aurait pour siège une partie archaïque du cerveau de l’observateur. J’ai considéré qu’il était possible de vérifier cette hypothèse grâce aux moyens de l’imagerie médicale.

Partager cet article
Repost0
31 août 2013 6 31 /08 /août /2013 15:26

 

 Leptons et ‘matière noire’

Dans cet article, l’idée de base consiste à considérer, d’un certain point de vue, les leptons τ, µ, e, comme représentant une seule et même entité qui serait détectable à des énergies de masse distinctes et discrètes. Le socle de cette entité étant évidemment représenté par l’électron. Rappelons que le τ = 1776 Mev, le µ = 105 Mev, le e = 0.5 Mev. Le τ a une durée de vie de 3.10-13s, le µ de 2.10-6s et le e est indéfiniment stable. La désintégration naturelle du τ en µ ou en e conduit toujours à un sous-produit intermédiaire ou final de même charge électrique. La partie de la matière qui s’est désintégrée quand un τ devient un µ ou un e moyennant l’émission de ce que nous désignons : ‘neutrinos’ n’est vecteur d’aucune charge électrique. Je formule l’hypothèse que cette matière est noire en lien direct avec ce que l’on désigne la ‘matière noire’ et le problème de son identification. Les niveaux respectifs d’énergie de masse des trois leptons sont identifiés grâce à la loi E = mc2, évidemment il en est de même pour caractériser leurs différences de valeurs. Ainsi (mτ-mµ)c2, (mµ-me)c2 ainsi que (mτ-me)c2 nous informe vraiment sur la quantité de l’énergie de masse qui se transforme dans le processus de désintégration car les paliers des désintégrations correspondent à des états de matière chargée. Mais cette énergie de masse transformée ne peut plus être qualifiée par l’intermédiaire de : E = mc2 car elle ne peut pas être rayonnante au même titre que notre matière visible et selon mon hypothèse elle ne peut être contrainte par la loi E = mc2 et en conséquence ce qui est produit ne peut pas être doté d’inertie comme cela est pour la matière ordinaire.

Certes nous considérons que nous détectons des neutrinos comme produits de la désintégration mais ceux-ci ne se laissent pas vraiment saisir, ni qualifier, par les lois habituelles et il en est ainsi depuis les années 1930.

(Einstein a consacré une bonne partie de sa vie à chercher une loi qui montre une unification possible de l’interaction gravitationnelle et de l’interaction électromagnétique mais aucune de ses tentatives n’a été concluante. A cette époque son intuition de cette unification était grande, partagée par d’autres savants, et donc ses échecs étaient d’autant plus frustrants. Mon hypothèse constitue une réponse minimaliste comparée à l’ambition première mais elle offre une réponse dans cette direction. En effet je propose de considérer que toute matière élémentaire, chargée, est contrainte par E = mc2, loi qui rend compte d’une corrélation entre la matière quantifié par m et la vitesse de déplacement du rayonnement E.M. émis par cette matière chargée. Par contre, lorsque la matière est nue de charge électrique cette corrélation n’est plus et la matière en question n’est pas contrainte par mc2.)

Considérons les processus suivants de désintégration :

μ+       e+ + νe + anti νμ

                                      μ-       e- + anti νe + νμ

τ-        e- + anti νe + ντ    mais aussi     τ-        μ- + anti νμ + ντ

τ+       e+ + νe + anti ντ   mais aussi    τ+       μ + + νμ + anti ντ

Cette écriture des processus de désintégration est plus le fruit du respect de règles instituées (conservation du nombre leptonique) que celui de l’observation, de la détection, car la présence des neutrinos est ‘décelée’ par défaut. L’énergie et la quantité de mouvement qu’on leur attribue est déduite par la règle qu’il doit y avoir égalité entre ce qui est entrant et ce qui est sortant. N’oublions pas que c’est ainsi qu’a été inventé le neutrino par Pauli, et à partir de là on a conçu, par déduction, l’ensemble des propriétés des neutrinos.

En règle général les physiciens sont convaincus que les neutrinos sont là, en tant que particules, certes on ne les détecte pas (ou si peu) mais c’est parce qu’ils sont très, très, faiblement interactifs. Mon hypothèse est la suivante : « Ce que nous nommons neutrinos résulte d’une illusion qui est celle de la conviction que E = mc2 est une loi universelle quel que soit le type de matière que nous traitons. » Pour illustrer mon propos, il suffit de de constater comment est présentée succinctement l’expérience Katrin : « Si le neutrino est une particule sans masse, il n'y a pas de frontière minimale à l'énergie que le neutrino peut porter, le spectre d'énergie de l'électron devrait aller jusqu'à la limite de 18,6 keV. Par ailleurs, si le neutrino a de la masse, alors il doit transporter au moins le niveau d'énergie équivalent à sa masse tel que calculé avec E=mc2, et le spectre de l'électron devrait tomber à la limite du total d'énergie et avoir une forme différente.»

Qu’est-ce qui pourrait constituer des détecteurs en matière noire ? Question sans réponse actuellement.

Dans la continuité et la cohérence de mon hypothèse il faudrait aussi considérer que le µ et le τ sont des particules composites de matière ordinaire et de ‘matière noire’. Peut-être que cette hypothèse pourrait rendre compte du résultat étonnant, doublement obtenu, concernant le rayon du proton lorsqu’au lieu d’un électron on installe un muon en orbite d’un proton et que l’on fabrique ainsi de l’hydrogène muonique. Evidemment on est très surpris du résultat car on traite le muon comme s’il était un gros électron obéissant aux mêmes lois que celui-ci mais avec une masse différente. Avec cette hypothèse, on doit envisager qu’il y ait une interpénétration de matière ordinaire et de ‘matière noire’. Ceci vaut jusqu’au niveau le plus élémentaire en considérant par exemple la désintégration du neutron n      p + e- + anti νe qui en fait d’une façon plus fondamentale correspond à la désintégration d      u + e- + anti νe. Ceci constituerait une piste nouvelle pour rendre compte de l’instabilité du neutron. Sans fournir pour autant une réponse à la question de la stabilité du proton, sauf à considérer que la composante matière noire est répulsive avec son alter égo comme cela se présente à la distance de cohabitation au sein du neutron composé d’1 quark u et de 2 quarks d, situation qui n’est plus au sein du proton composé de 2 u et 1 d.

Interpénétration, imbrication, de la matière ordinaire et de la ‘matière noire’ ne constitue pas une hypothèse difficile à formuler puisque, dans le scénario actuel des premiers instants de l’univers, la cohabitation à très forte densité entre matière noire/neutrinos et quarks est envisagée dès les premiers instants de l’universet puis après 380.000 ans ce sont les puits de potentiel constitués par la concentration progressive et significative de la matière noire qui ont précipité les grumeaux de matière ordinaire. Dans ces phases de l’évolution de l’univers, qu’il y ait eu jusqu’à une incrustation de la matière noire dans la matière ordinaire, étant donné les densités en jeu des matières en présence, constitue une proposition soutenable. En cosmologie, en retenant le modèle hiérarchique, nous disposons d’observations qui pourraient valider cette hypothèse puisque : dans les galaxies les effets ‘actuels’ de la matière noire se font sentir surtout à l’extérieur de celles-ci (halo qui enveloppe la galaxie) et dans les amas de galaxies formés après coup la densité de matière noire relevée actuellement est six fois supérieure à la matière baryonique.

Qu’elle est la nature de ce qu’il y a entre (mτ-mµ)c2, (mµ-me)c2 ainsi que (mτ-me)c2 ?

Pour tenter de répondre à pas comptés à cette question, je rappelle que depuis un certain temps les publications anglo-saxonnes utilisent, pour évoquer la problématique de la matière noire, le terme générique de ‘stuff’ qui se traduit bien en français par : ‘étoffe’, ‘substance’, ‘affaire’. Je n’ai pas la trace du moment de ce basculement sémantique pour évoquer la matière noire ni des raisons objectives si elles sont exprimées, mais il faut comprendre qu’il y a, de la part des auteurs, volontairement ou involontairement, la volonté d’écarter toute idée qui serait préétablie d’un caractère corpusculaire de ce qui constitue la problématique de la matière noire. Je suis d’accord avec cette précaution qui est donc évidemment conceptuel et ainsi cela s’applique pour les neutrinos. Pour mieux appréhender ce qu’il y a entre (mτ-mµ)c2, (mµ-me)c2, (mτ-me)c2 si on conserve le terme neutrino évacuons l’idée qu’il conduise automatiquement à la représentation d’une particule aussi ténue qu’elle puisse l’être. Le neutrino est la quantité de réel la plus ténue jamais imaginée par un être humain. (F. Reines). Cela veut dire que la perspective de détecter la matière noire au moyen de l’observation de collisions de ses éventuels éléments constitutifs avec de la matière visible est vouée à l’échec (ce qui est actuellement le cas !). Parmi la douzaine d’expériences en cours citons-en quelques-unes par leur noms génériques : XENON, Edelweis, CoGeNT, CDMS.

L’indéfinition qu’implique l’usage du terme générique ‘stuff’, ouvre la voie à une réflexion nouvelle, moins conditionnée, à propos des leptons et de la ‘matière noire’. Si on déconnecte le terme neutrino d’une représentation corpusculaire et qu’on le relie avec ce qui serait une manifestation spécifique du ‘Stuff’, on peut reprendre la problématique de l’oscillation, y compris avec le concept de saveur. En effet avec la première phrase de l’article j’ai précisé que : « L’idée de base consiste à considérer, d’un certain point de vue, les leptons τ, µ, e, comme représentant une seule et même entité qui serait détectable à des énergies de masse distinctes et discrètes.» Il s’en déduit que le τ, le µ, lee, représente chacun une saveur de la même entité en question. Il est normal que cette saveur soit transmise à la production dérivée. Dans ce cas il faut penser : « Le ‘stuff’ aurait des apparences tauiques, muoniques, électroniques mais ce serait toujours fondamentalement le même ‘Stuff’. » Ici le concept de ‘stuff’ annule la conception des neutrinos comme particules et contredit l’affirmation de Takashi Kobayashi du KEK (Japon) : « Le simple fait que les neutrinos ont une masse prouve qu’il y a une physique au-delà du Modèle Standard. Les masses induisent la propriété de mélange par le fait que les différentes saveurs des neutrinos sont des combinaisons linéaires des états de masse. » Le propos de Kobayashi s’inscrit dans la logique la plus stricte du raisonnement basique en ce qui concerne les neutrinos : « Les états de masse de ceux-ci ne coïncident pas avec leurs états de saveurs, en conséquence… » On peut s’interroger si ce raisonnement échappatoire n’a pas été un obstacle à un questionnement plus approprié sur la corrélation : quantification de charge électrique et quantification de la matière vecteur de cette charge, c.-à-d. : m = E/c2. Après tout on aurait pu creuser ce sillon plutôt que de supposer uniquement que les neutrinos avaient automatiquement une masse mais celle-ci était masquée à notre observation directe. Toujours est-il que cette construction théorique n'a toujours pas été validée et aucun résultat à la source n’a été obtenu. Nous concevons des détecteurs de plus en plus phénoménaux, mobilisant des ressources intellectuelles et matérielles gigantesques réunies à l’échelle de continents (Amérique du Nord, Europe, Asie.), avec l’espoir d’aboutir à des résultats significatifs.

Ma conception n’annule pas la valeur des réactions suivantes :

                       νe + n      p + e-

νµ + n      p + µ-

                       ντ + n      p + τ-

Dans ce cas les différents ν symbolisent les saveurs apparentes et distinctes du ‘stuff’. Entendues ainsi ces réactions représentent des interactions, des influences, entre la ‘matière noire’, le ‘stuff noir’, et des particules de matière visible.

 

Récapitulons :

Dans une même entité sont réunis le τ, le µ, le e. Chacun d’entre eux représente un niveau quantique d’énergie de masse de cette entité.

La saveur est une propriété qui est attachée aux leptons : τ, µ, e. Ils induisent les saveurs possibles du ‘Stuff noir’.

La matière noire est là mais elle est non spécifiquement localisable : aucune partie de la matière noire ne se différencie d’une autre partie ! C’est une matière qui n’est pas contrainte par E= mc2, aucune valeur d’inertie ne peut lui être attribuée comme cela est pour la matière ordinaire.

Le concept de ‘stuff’ dédouane d’une description de la matière noire qui serait composée d’éléments irréductibles

Par exemple le Z0 se désintègre d’une façon équiprobable en τ et anti τ, en µ et anti µ, en e et anti e. Il en est quasiment de même pour la désintégration des W en ℓν

Dans ‘La Matière-Espace-Temps’ de Spiro et Cohen-Tannoudji, p.264 : « La désintégration du muon à l’arrêt fait apparaître un électron dans l’état final et rien d’autre. On pourrait ainsi penser qu’un νeaccompagne l’électron : μ-→e+anti νe. Cette réaction conserve le nombre quantique électronique précédemment défini. Dans ce cas l’électron devrait être mono-énergétique, pour que l’impulsion et l’énergie soient conservées dans cette désintégration. Or à nouveau le spectre observé est un spectre continu. En introduisant une nouvelle espèce de neutrino, le neutrino muonique, ce nouveau puzzle est résolu : μ- e- + anti νe + νμ. Le spectre en énergie de l’électron prévu théoriquement est en bon accord avec l’expérience.

Voir Wikipédia en français.

Voir : Techno-Science, article du 10/07/2010 : « quelle est la taille du proton ? » ;  NewScientist, article du 24/01/2013 : ‘Schrinking proton puzzle persists in new measurement.’

Tous les scénarios de cosmologie primordiale indiquent que les quarks, électrons, neutrinos, matière noire, sont présent dans l’univers avant la phase de la formation des nucléons qui s’engage à 10-6s après le supposé Big-Bang. Il est aussi supposé qu’au bout d’une seconde commence la nucléosynthèse ainsi que s’émet le ‘fond diffus’ de neutrinos.

Cern Courier, Sept. 2012, p.56.

Partager cet article
Repost0
3 août 2013 6 03 /08 /août /2013 14:21

            Being of light’ and intelligence of the lights?

In the article 'Our matter is not all the matter', (29/06/2013, in my blog), I mentioned the idea that we were ‘Beings of the light. There was no intention, from me, to make reference to any mystic but there is the idea, that after all, it is normal to be fascinated by this light which is so familiar to us but it should not blind us intellectually any longer. I suggest developing this idea which may seem a priori extremely iconoclastic.

The quotation which I have selected of S Haroche in the article mentioned above, is very explicit: The light and the matter are: ’Both faces of the same reality’, and for those who are perplexed towards this assertion, let’s to formulate it using the conditional: the light and the matter would be

To begin, please let me explain the title of this present article, by analyzing the following one: 'The dark matter could not be it completely' of Laurent Sacco, the 24/06/2013, in Futura-sciences. In particular I quote: “This matter is said black because it would consist of particles incapable to emit some light." He excludes that there is another light (another radiation) other than the one we are able to detect at present, which can be emitted by this dark matter. This assertion results from a bias and it contradicts what S. Haroche says, unless one considers that the subject of the Nobel Prize is not universal and is only accurate for the matter which is presently common to us. Nothing justifies this limited conception especially as the author to add the dark matter in the field of our speculation, favors a model that would make particles of dark matter Anapoles. For more precision I suggest the reading of L. Sacco’s article. Bear in mind that, until now, no object with such specific structure was ever observed in the elementary state.

James Clerk Maxwell has certainly been the scientist who has best explain how the process of modeling… ‘Nature’, is worth as an intellectual and speculative process; but no more! He acknowledged that his work ever consisted in modeling ‘Nature’: « That is to throw nets on ‘Nature’ - in other words, "Models" - , to catch its secrets. The stitches of the nets are mathematical, while knowing well that these are tricks, as these models never reflect faithfully the mechanisms which they serve to represent. Maxwell, with the use of these tricks intended to penetrate further into the intelligence of Nature and to formulate its fundamental laws that he thought of being possibly geometrical or at least structural.

The heuristic character of a work of modeling is thus rightful if, and only if, as recommends it Maxwell, we demonstrate, step by step, a great intellectual control and a great intellectual rigor. On the other hand this work can lead to the conception of false friends, and to be counterproductive if we proceed forcing into modeling (with accumulation of hypotheses) concealing so a confinement of the thought. This is the way I analyzed the article In question of L. Sacco. All this to put back on track to a possible interaction between dark matter and electromagnetic field: "If the dark matter consists of fermion of Majorana (sic) with an anapole (sic), she is thus sensitive to the electromagnetic fields.

Another recent article (27/06/2013, in NewScientist): 'Is missing ‘partial’ neutrino a boson in disguise?’ This boson would be Goldstone boson proposed in the 1960s, « Which is supposed to be part of the Higgs mechanism… », “…But no hints of it have been seen in nature so far”. According to the author of the article, it appears that the in-depth study of the map of the cosmic microwave background, relic radiation, by the satellite Planck, would lead to formulate the hypothesis that things would be more sensible if there was between 3 and 4 types of neutrino rather than just 3. As said S. Weinberg: "Clearly there’s no such a thing as half a neutrino. So what it could be? » « According to Weinberg, the boson of Goldstone could fill this difficulty. It is its own antiparticle (this subject is purely speculative) thus, these bosons would annihilate each other. It means that bosons would have only half of their visible effects, on the map of the relic radiation, compared with the more traditional particle pair. The boson is also expected to interact less with the other particles of matter during the expansion of the universe, which means that it could look like 0.39 of the neutrino now. That seems to match what’s being seen in observations. » If the idea of the fractional neutrino persists, the boson of Goldstone would be a plausible interpretation.

“The process by which the boson of Goldstone is introduced is the same as the one whom in theory, would give birth to the dark matter. The boson is without mass, thus it cannot be the dark matter. But as suggests Weinberg, if it is real, to understand Goldstone could help in reveal the nature of the dark matter from the earliest days of the cosmos.

However, let us relativize what is asserted in this article of the ‘NewScientist’ because in another article, of Alain Riazuelo de l' IAP (Paris Institute of Astrophysics), (in ‘Pour la Science’ of May, 2013), he has written that: “The suggestion of the possible existence of the fourth family of neutrinos, named sterile neutrino, would have an influence on the fluctuations of the relic radiation, but this type of modification is not observed in the results. Then, there would be only three families of neutrinos (Sic).

It is still easy today to convene neutrinos to fill the weaknesses of our understanding of the properties of Nature because these are so little understood, that is the physical laws which govern their properties are so weakly identified, that we can speculate about them without any restraint.

Among all the possible within the eternity, we, "thinking subject", have already reached a significant understanding of laws and properties of ‘Nature’. But there is no reason to consider that those who are within our reach of the next discoveries would be force to obey to the same criteria. As, at the appropriate time, James Clerk Maxwell has already recommended it, let us throw new nets with different stiches which will allow revealing new secrets of the Nature. To this end I propose that in the light of what we already know we threw fearless hypotheses which could widen the field of our knowledge in physics:

–The assertion of S. Haroche must be converted in one universal postulate: « That, in any type of matter must correspond the other face of the same reality. This other face would be a radiation. So if we make the hypothesis that the dark matter has an elementary constitution, it has to correspond to it a radiation which for us is (actually) 'undetectable'. »

- In what concern the matter which is common to us, the link between both faces of the reality in question is specific, that is E = mc2. The main parameters which characterize both faces of the same reality are united in a law which makes sense.

- With the matter of another nature, like the dark matter, there is no reason to be forced by the same law that is quoted in 2. Of the ‘black’ radiation is no reason to be characterized by the same parameters that of the light which is so common to us.

-The neutrinos of the various flavors should be considered as hybrid elements, that is as ersatz of electrons, of muons and of taus, but being no more radiant it is not right to consider any more that they can be characterized by E = mNc2. The obsession (understandable) to try to detect them by the ways of this formula is thus inappropriate.

Conceived in 1958 by Iakov Zeldovitch, a Russian : physicist and cosmologist. This anapoles was observed only in composite systems: nucleus of cesium 133 and ytterbium 174.

Partager cet article
Repost0
31 juillet 2013 3 31 /07 /juillet /2013 15:52

                                   Etre de lumière et intelligence deslumières ?

Dans l’article ‘Notre matière n’est pas toute la matière’, (du 29/06/2013, voir dans mon blog), j’ai évoqué l’idée que nous étions des êtres de la lumière. Il n’y avait pas de ma part, avec ce propos, la moindre volonté de faire référence à une quelconque mystique mais il y a l’idée qu’après tout il est normal que nous soyons fascinés par cette lumière qui nous est si familière mais il ne faudrait pas qu’elle nous aveugle intellectuellement plus longtemps. Je me propose de développer cette idée qui peut paraître a priori extrêmement iconoclaste.

La citation que j’ai sélectionnée de S. Haroche dans l’article cité ci-dessus est très explicite : la lumière et la matière sont : ’les deux faces d’une même réalité’ et pour ceux qui sont perplexes vis-à-vis de cette affirmation, acceptons de la formuler au conditionnel : la lumière et la matière seraient

Pour commencer à illustrer le choix du titre de l’article, je propose d’analyser l’article : ‘La matière noire pourrait ne pas l’être complètement’, de Laurent Sacco, le 24/06/2013, dans Futura-Sciences. Je cite en particulier : « Cette matière est dite noire car elle serait composée de particules incapables d’émettre de la lumière. » Il exclut qu’il y ait une autre lumière (une autre radiation), que celle que nous sommes à même actuellement de détecter, qui puisse être émise par cette matière noire. Cette affirmation résulte d’un parti pris et elle est en opposition avec ce que nous dit S. Haroche, sauf à considérer que le propos du prix Nobel n’est pas universel et ne vaut que pour la matière qui nous est actuellement commune. Rien ne justifie cette conception bornée d’autant que pour tenter de faire passer la matière noire dans le champ de notre spéculation l’auteur privilégie un modèle de particules de matière noire qui seraient des anapoles. Pour plus de précision je renvoie à la lecture de l’article de L. Sacco. Rappelons que, jusqu’à présent, des objets avec une structure si particulière n’ont jamais été observés à l’état élémentaire.

Maxwell a certainement était le scientifique qui a le mieux expliquer en quoi le processus de modélisation… de la nature, valait en tant que processus intellectuel et spéculatif mais pas plus. Son œuvre consiste à s’appuyer sur une modélisation de la nature : « c'est-à-dire de lancer sur la nature des filets – autrement dit, des « modèles » -, pour en attraper les secrets dont les mailles sont mathématiques, tout en sachant bien que ce sont là des artifices, en ce que ces modèles ne reflètent jamais fidèlement les mécanismes qu’ils servent à représenter. Maxwell, par le maniement des artifices, entendait pénétrer plus avant dans l’intelligence de la nature et en formuler les lois fondamentales, qu’il pensait être sinon géométriques du moins structurales.

Le caractère heuristique d’un travail de modélisation est donc légitime, si, et seulement si, comme le préconise Maxwell, on fait preuve d’une grande maîtrise et d’une grande rigueur intellectuelles. Par contre ce travail peut conduire à la conception de faux ami, et être contreproductive si on procède à marche forcée à une modélisation (avec accumulation d’hypothèses) masquant ainsi un enfermement de la pensée. C’est ainsi que j’ai analysé l’article en question de L. Sacco. Tout cela pour remettre en selle une interaction (très) éventuelle entre matière noire et champ électromagnétique : « Si la matière noire est composée de fermions de Majorana (sic) avec un anapole (sic), elle est donc sensible aux champs électromagnétiques. »

Un autre article récent (27/06/2013, NewScientist) : ‘Is missing ‘partial’neutrino a boson in disguise ?’ soit : ‘Est-ce que la partie manquante du neutrino est déguisé en boson ?’ Ce boson, serait le boson de Goldstone, proposé dans les années 1960, « qui est supposé faire partie du mécanisme de Higgs… », « …mais aucun indice de son existence n’a jusqu’à présent était observé dans la nature. » Selon l’auteur de l’article, il paraît que l’étude approfondie de la carte du rayonnement fossile, délivrée par le satellite Planck, conduirait à formuler l’hypothèse que les choses seraient plus sensées s’il y avait entre 3 et 4 types de neutrino, plutôt que juste 3. Comme le dit S. Weinberg : « Clairement il n’y a pas une telle chose comme un ½ neutrino. Donc qu’est-ce que cela pourrait être ? » « Selon Weinberg, le boson de Goldstone pourrait combler cette difficulté. Il est sa propre antiparticule (ce propos est purement spéculatif), donc ces bosons peuvent s’annihiler. Cela veut dire que les bosons n’auraient que la moitié de leurs effets visibles, sur la carte du rayonnement fossile, comparées aux particules plus traditionnelles. Le boson est aussi attendu comme interagissant moins avec les autres particules de matière pendant l’expansion de l’univers, ce qui veut dire qu’il peut apparaître comme 0.39 d’un neutrino maintenant. Cela semble être en accord avec ce qui est observé. » Si l’idée du neutrino fractionnaire persiste, le boson de Goldstone serait une interprétation plausible. « Le processus par lequel le boson de Goldstone est introduit est le même que celui qui théoriquement, donnerait naissance à la matière noire. Le boson est sans masse, donc il ne peut pas être la matière noire. Mais comme le suggère Weinberg, si c’est réel, comprendre le Goldstone pourrait aider à révéler la nature de la matière noire dès les premiers instants du cosmos. »

Toutefois, relativisons ce qui est affirmé dans cet article du NewScientist car dans un autre article, de Alain Riazuelo de l’IAP, (in ‘Pour la Science’ de mai 2013), il est écrit que : « La suggestion de l’existence possible d’une quatrième famille de neutrinos, nommés neutrinos stériles, auraient une influence sur les fluctuations du fond diffus, mais ce type de modification n’est pas observé dans les résultats. Il n’y aurait bien que trois familles de neutrinos (sic). »

Il est encore facile aujourd’hui de convoquer les neutrinos pour combler les failles de notre compréhension des propriétés de la nature car ceux-ci sont tellement peu compris, c’est-à-dire que les lois physiques régissant leurs propriétés sont tellement mal identifiées, que nous pouvons spéculer à leur propos sans aucune retenue.

Parmi tous les possibles au sein de l’éternité, nous, ‘sujet pensant’, avons déjà atteint une compréhension significative des lois et des propriétés de la nature. Mais il n’y a pas de raison de considérer que celles qui sont à la portée des prochaines découvertes soient contraintes par des critères ressemblant. Comme James Clerk Maxwell, en son temps, l’a déjà préconisé, jetons des nouveaux filets avec des mailles différentes qui permettront de révéler de nouveaux secrets de la nature. A cette fin je propose qu’à la lumière de ce que nous savons déjà nous projetions des hypothèses hardies qui pourraient élargir le champ de nos connaissances en physique :

- L’affirmation de S. Haroche doit être convertie en un postulat universel : « Qu’à toute catégorie de matière correspond l’autre face d’une même réalité. Cette autre face serait un rayonnement. Ainsi si on fait l’hypothèse que la matière noire a une constitution élémentaire, il doit lui correspondre un rayonnement que nous ne savons pas encore décrypter, en conséquence il est pour nous (provisoirement) ‘noir’.»

– En ce qui concerne la matière qui nous est commune, le lien entre les deux faces de la réalité en question est spécifique, c’est-à-dire E = mc2. Les paramètres qui caractérisent les deux faces de la même réalité sont unis dans une loi qui fait sens.

– De la matière d’une autre nature, comme la matière noire, n’a pas de raison d’être contrainte par la même loi que celle citée en 2. Du rayonnement ‘noire’ n’a pas de raison d’être caractérisé par un paramètre semblable comme celui de la lumière qui nous est si commune.

– Les neutrinos des différentes saveurs devraient être considérés comme des éléments hybrides, c’est-à-dire comme des ersatz d’électrons, de muons et de taus, mais n’étant plus vecteurs de rayonnement il n’y a plus de raison de penser qu’ils puissent être caractérisés par E = mnc2. L’obstination (compréhensible) de vouloir les détecter par les moyens de cette formule est donc inappropriée.

 

Conçus en 1958 par Iakov Zeldovitch, physicien et cosmologiste Russe. Ces anapoles n’ont été observés que dans des systèmes composites : noyaux de césium 133 et ytterbium 174.

Partager cet article
Repost0
4 juillet 2013 4 04 /07 /juillet /2013 10:50

 About space and time, let us summarize.

In his book : ‘’Unthinkable Random’’ (L’impensable Hasard) (edited in 2012), Nicolas Gisin says about entanglement, p. 145 : “I wrote in this book that non local correlations seem to rise from the outer(sic) of space and time which means that no history taking place in the space during the time can tell how the nature produces such correlations.... But then, are the physicists going to give up the big task to understand the nature? “

Still about this so strange phenomenon, Anton Zeilinger says in an article 25/05/2013 : ‘Quantum entanglement still persists between two photons even if one of them disappears’, about a new experiment with more information on entanglement : “It (the experience) is remarkable because it shows more or less that quantum events are beyond our daily notions about space and time “.

Let us notice that for Gisin, the non-local correlations: ‘… seem to rise from the outer…’ but of course this is according to his point of view – determinedly realistic – an illusion. For Zeilinger quantum events: ‘are beyond our daily space and time’, and this is no more an illusion, it would be necessary, according to his point of view, to take in account the facts. But be careful, there is a serious flat, it is the daily space and time.

Through these statements, one can see how difficult it is to cross a certain ‘Rubicond’, as regards the representation, the ontology of space-time.

The conceptual jump of A. Zeilinger is spontaneously reduced as soon as he indicates the ‘daily space and time’. It reminds the approach of Newton who had distinguished the conception of usual space and time (human) and the one which was the emanation of God : the sensorium of God.

With these statements of the two prominent scientists one hears these representatives of the ‘thinking subject’ at work, opposing resistance to the occurrence of new concepts, new paradigms. Such conservative inertia is understandable until a certain limit.

The notion of space and time is so fundamental that it is extremely difficult to move back from it because there is a risk of destabilizing the foundations which contribute to the structuration and the emergence of the thought of the thinking subject. As for myself, I know this intellectual shaking for several years during which I proposed with the proper time of the subject : Tps = 10-25s (obviously it is approximate). The existence of the blind point of human intelligence characterized at this scale of time by a redhibitory impossibility of founding a spatio-temporal base on which the thinking subject overhangs the nature and throw his faculties of reasoning. We must consider that the ‘thinking subject’ with his specificities is an integral part of a realitywhich we build. We must incorporate him in this reality without reducing him as do inevitably the physicalists, as for instance the proposals of R. Penrose on several occasions.

With the problematic of entanglement, we have to face ‘a unique quantum system’, ‘a whole’ which cannot be any more observed neither thought, nor investigated traditionally. So our space-time coordinate frame is definitively obsolete. As a consequence, distances, movement, speed, are no more relevant. At the same time we have to give up any realistic thought as soon as the ‘unique whole’ forces itself upon the observer, up to the point to erase the remaining thought of a supposed reality of the quantum objects which originated the entanglement.

As I propose, the phenomenon of entanglement and its consequences which we perceive should bring us to recognize that space and time are properly founded by the ‘human being’ and that they have no proper reality, at the opposite of what is still stated by Lee Smolin in a recent article in new scientist of 26/04/2013 : ‘It is time physics recognized that time is real’. But I share with Smolin the idea that we have to concentrate our skillfulness of physicists on the ‘Present’, the ‘Present Moment’, and, in my opinionthe ‘Presence. Thus, it is necessary to highlight a (several) new paradigm(s) which would confirm this new relevant conception. For me ‘TpS’ fulfills this role, therefore it should be tested.

 

Nevertheless, I don’t share the point of view of those who assert, as Carlo Rovelli, that time does not exist anyway. On the contrary I would say that this ‘a priori’ is baneful because it limits inappropriately the thought. (With C Rovelli and L. Smolin we still hear two thinking subjects at work who show their respective intellectual inertia).

I would say that, with the phenomenon of entanglement, we are on the threshold of another relationship between the ‘thinking subject’ conveying his own determinations and what we call the nature.

The first relationship is the one which brought us to think about what we call the classical physics which is included in the general relativity; the second one is the one which brought us to think the quantum mechanics which cannot be deciphered by a frank break with the concepts of the first because they determine us. The third one calls up an enrichment and even an overtaking of our present intelligence of the nature properties.

I can sum up my metaphysics as follows: ‘Within an eternity, among all the possibles, the thinking subject digs endlessly the understanding of its universe corresponding to his capacities of deciphering’. We have to face the task to order new capacities of deciphering to develop an enlightened speech on this third world. To a certain extent I propose a significant variation on what has been already perceived by Edmund Husserl, the founder of phenomenology, who evoked several ontological fields in a book ; I don’t put forward areas of being establishing a reality, but, on the contrary, several areas of possibilities of constitution of a knowledge of the nature properties. Each area compels us to develop totally new faculties that we call also new paradigms. Once saying that, how to lay the foundations for news thoughts concerning new properties of the nature without referring to our usual space and time frame? Neither spatial distance nor temporal, no more speeds among which that of light! No more equivalence relationship E = mc2, thus no more recognizable matter thanks to this constraint. Then: ‘another matter’, ‘energy’? Is that a possible explanation towards the problem of the unknown, the not understandable 95% of what is composed our universe? Is it for this reason that American scientist who designates these 95% unknown by the general term ‘stuff’ point out that it is necessary to stand back with traditional concepts of matter and energy? Part of this stuff (black matter) shows some effects which may be understood as gravitational effects with our present means of deciphering. Nothing more!!

If, as I propose, we contest radically the space and time frame, general relativity says also to us that it questions our traditional conception of matter and energy because the interdependence : matter-energy-space-time is clearly stated by this theory.

Two years ago I gave to my blog the title ‘E=mc2 is-it-enough?’ because I was already convinced that we should think fundamental properties of the nature beyond this constraint. In that time I was mainly questioned by neutrinos. Indeed for a long time I consider that they suggested us that they are the bearer of properties not elucidated until nowadays because our cognitive frame is actually limited. Since 1930 if we make an assessment of what was said and stated about them, one should be surprised of the weakness of the knowledge acquired on those objects which always return to the specialist physicists an answer like : ‘we are not what you believe’. It is likely that some unknowns of neutrino’s physic are correlated with those of ‘black matter’. For instance they have no mass which can be encrypted by E/C2.

I don’t express myself anyhow on the problem of the overtaking or not, of the speed of light because it is a problem extremely sensitive. It characterizes a speed horizon which limits our existing universe. If we think well, in fact we are basically ‘beings of this light’. On the other hand, among all the possibles there are areas in the universe where the concepts of space, time, speed, are no more consistent and if our cognitive resources allows us to invest these areas, new possibilities will enlarge the current representation of our universe. Without excluding the idea that it could be other universe(s) which would be interlaced with the one that is the more common to us today.

 

 

 

See article on my blog of 21/12/2011 ‘Is the human being naked of any contribution…?’

See on my blog the article of 2/05/13 ‘Welcome to the present moment’ of Lee Smolin

In 1936 ‘Crisis of the European science and the transcendental phenomenon’

Partager cet article
Repost0
29 juin 2013 6 29 /06 /juin /2013 12:52

   Notre matière n’est pas toute la matière.

La fondation de la physique moderne est absolument concomitante avec la définition de la position et du rôle supposés du savant à l’égard de son sujet d’étude. C’est ce qui est affirmée par Galilée en termes explicites : « La philosophie est écrite dans cet immense livre qui est constamment ouvert sous nos yeux, je veux dire l’univers, mais on ne peut le comprendre si l’on ne s’applique d’abord à en comprendre la langue et à connaître les caractères avec lesquels il est écrit. Il est écrit en langue mathématique et ses caractères sont des triangles, cercles et autres figures de géométrie, sans le moyen desquels il est humainement impossible d’en comprendre un mot. Sans eux, c’est une errance vaine dans un labyrinthe obscur. »

Ainsi selon Galilée l’univers est pré actualisé sous une forme mathématique. Avec cet acte de foi naît effectivement la science moderne. Celle-ci se distingue avant tout par le caractère mathématique universel de ses théories. Elle correspond au remplissage d’un cadre prédéterminé, où chaque phénomène doit être rapporté à une construction mathématique. Ainsi le physicien n’invente pas son monde, son rôle est beaucoup plus modeste et il doit se contenter de découvrir ce qui est. Se trouvent affirmer là, les racines de la physique moderne, et l’idéal d’omniscience qui entretient le physicien dans la croyance que sa connaissance peut rivaliser celle de Dieu le Créateur.

A ma connaissance, la première brèche à cet idéal du savoir conquis par le physicien fut ouverte par L. Boltzmann quand il exprima l’idée qu’il puisse y avoir une corrélation entre nos facultés cérébrales et le monde physique que nous serions à même de décrypter. Il est possible que cette hypothèse osée, ait accentué, à son époque, le processus de marginalisation de Boltzmann vis-à-vis de la communauté scientifique des physiciens.

Deux décennies après, avec l’émergence de la mécanique quantique, l’édifice des certitudes des physiciens classiques et réalistes se fissurent sérieusement. Tant que le problème de la superposition des états ne sera pas élucidé, aucun socle d’assurances ne pourra être reconstitué. A mon sens, cette élucidation impliquera que le ‘sujet pensant’ avec ses déterminations soit inclus dans la conception du monde tel qu’il nous apparaît. Ma proposition exclue évidemment toute velléité d’une quelconque emprise d’une conception physicaliste.

Avec l’avènement de la mécanique quantique, nous pensons les propriétés de la nature à des échelles spatiales et temporelles qui sont celles par lesquelles l’être humain : aussi être de la nature, atteint les dimensions de sa propre organisation intimeau point qu’il n’est plus possible de penser que le sujet pensant est dans une posture, d’extériorité, de contemplation, telle qu’elle est proposée par la métaphysique Galiléenne.

Ce sont ces considérations qui m’ont amené à formuler, depuis déjà de nombreuses années, l’hypothèse du temps propre du sujet (TpS= de l’ordre de 10-25s). Je ne reviens par sur les raisons multiples qui m’ont conduit à mettre en avant cette hypothèse, celles-ci étant exposées, pas à pas, dans l‘ensemble de mes articles. Le paradigme de la ‘Présence’ est donc un paradigme essentiel pour dépasser les apories actuelles de la physique fondamentale qui perdurent. C’est la raison pour laquelle, j’ai salué le ‘Moment Présent’, proposé tout récemment par Lee Smolin. Je profite de l’occasion pour proposer ma réponse à Anil Ananthaswamy auteur de la question suivante dans un article du NewScientist (le 17/06/2013) : ‘Espace, versus, Temps : l’un des deux est superflu – mais lequel ?’ Sans la moindre hésitation ma réponse est l’espace. En effet l’espace est secondaire, il est précédé par le Temps. TpS est un existential, il correspond au tempo de l’horloge primordial.

En 2010, un livre d’Albert Goldbettter, remarquable à mon sens, ‘La vie oscillatoire, au cœur des rythmes du vivant’ (Edit : O. Jacob) a été publié et à mon grand étonnement n’a pas eu beaucoup d’écho. Pourtant on peut lire des choses très intéressantes, p.241 : « l’un des plus beaux exemples de rythme cellulaire récemment découvert est celui de l’horloge de segmentation qui contrôle l’expression périodique des gènes impliqués dans la somitogenèse, c’est-à-dire la formation des somites, précurseur des vertèbres. Ce processus représente un exemple d’émergence d’une structure périodique au cours de l’embryogenèse. La structure spatiale du corps chez les vertébrés est ainsi liée de manière étroite à l’existence d’une structuration temporelle ; elle marque en quelque sorte la trace spatiale de cette structuration dans le temps (sic). »

Ou encore, p.245 « L’horloge de segmentation fournit un très bel exemple d’oscillation temporelle associée à une structuration périodique dans l’espace. Cet exemple est d’autant plus intéressant qu’il se rapporte à un processus clé de la morphogenèse chez les vertébrés. Celui-ci a des implications cliniques : ainsi, des troubles de l’horloge de segmentation sont associés à diverses malformations de la colonne vertébrale. »

Enfin à méditer, p.264 « La fauvette de jardin peut connaître dans des conditions particulières, artificielles, « une agitation du voyage » qui révèle l’action d’une horloge circannuelle de nature endogène (sic). »

Bien évidemment c’est à un niveau bien plus profond que celui étudié par Goldbetter que se joue l’émergence d’un existential comme je le préconise, toutefois le constat d’une horloge endogène chez un être vivant telle la fauvette est remarquable.

Le plus brillant résultat de la Relativité Générale est représenté par ce triptyque : Matière-Espace-Temps. Ces 2 traits d’union sont remarquables. Ils sont le condensé d’une vraie révolution conceptuelle.

Considérant ce triptyque, dès que je considère que l’être humain est fondateur de l’espace et du temps, je dois déduire que la matière du triptyque est dépendante de cette fondation. C’est pourquoi j’intitule cet article : ‘Notre matière n’est pas toute la matière.’

Nous sommes confrontés depuis plusieurs décennies à une hypothèse que nous n’arrivons pas à élucider, celle de la matière noire qui en des proportions importantes (un peu plus de cinq fois) constituerait l’essentiel de la masse dynamique dans notre univers. A cette matière noire nous lui prêtons une propriété d’interaction gravitationnelle sans vraiment l’évaluer avec certitude. Nous lui prêtons des effets car actuellement nous ne sommes pas capables d’expliquer les plateaux de vitesse des étoiles dans les galaxies, la dynamique des différentes structures identifiées dans l’univers, pas plus que l’ampleur des effets lentilles gravitationnelles. Ces connaissances sont obtenues par des lectures indirectes. Toutes les tentatives de ‘voir’ directement cette matière ‘noire’ ont échoué. D’ailleurs les scientifiques anglo-saxons ne parlent plus de matière dite noire mais de ‘stuff’ : étoffe, cette variation sémantique rend compte d’une évolution conceptuelle qui est donc très récemment amorcée.

Au moins nous avons des certitudes pour ce qui constitue 4.8% de notre univers : la matière qui pour nous est visible et donc intelligible est aussi celle qui nous constitue. Est-ce qu’elle représente toute la matière du triptyque ? Pour moi la réponse est oui. Bien que la matière noire soit encore incluse dans l’expression matière dynamique, le mot dynamique ne doit pas faire illusion quant à notre éventuel savoir de la partition des propriétés qui se jouent dans cette dynamique.  

La matière noire serait donc en dehors du triptyque de la relativité générale. Elle serait aussi en dehors de la relation d’équivalence E = mc2. Nous ne pouvons donc pas la détecter par les moyens habituels. Quels sont alors les moyens qu’il faut mettre en œuvre par la détecter ? Disons qu’immédiatement nous n’avons pas la possibilité d’identifier des nouveaux moyens parce qu’il faut comprendre ce qu’est cette matière par rapport à ce que nous sommes et ce que savons déjà.

Notre matière visible est contrainte par la relation d’équivalence E = mc2, c : étant justement la vitesse de déplacement de la lumière qui est émise par m. Nous avons maintenant acquis une connaissance approfondie de l’imbrication de cette matière et de cette lumièreau point que nous devons considérer que la relation d’équivalence serait le reflet flagrant de cette corrélation si intime entre l’une et l’autre : « … les deux faces d’une même réalité… »

Ceci étant, il est temps de considérer qu’il est probablement erroné de considérer qu’il ne peut y avoir de matière ou quelque chose d’équivalent (d’où le mot stuff) que dans le cadre de la contrainte citée. Tout ce que nous savons de notre univers est effectivement éclairé par la relation d’équivalence et c. Soit nous arrivons à étendre notre connaissance de l’univers au-delà de la relation d’équivalence soit nous accédons à un nouveau champ de connaissances qui met en évidence d’autre(s) univers qui s’enchevêtrerai(en)t avec le nôtre. Hypothèse redoutable mais pertinente et optimiste car elle dit aussi que le sujet pensant est certes déterminé mais il n’est pas pour autant borné par ce qui le détermine. La dynamique de l’existence du sujet pensant est intimement liée à la dynamique de son développement cognitif. Sa faculté de projection par la pensée connaît évidemment l’inertie conservatrice mais le propre de l’être humain est de transformer sans cesse le rapport entre, l’être de la nature qu’il est, et, l’être dans la nature, posture qui le conduit à s’en émanciper.

Nous disposons probablement d’un banc d’essai prometteur qui nous permet de tester si l’hypothèse d’échapper à une lecture exclusive des propriétés de la nature par l’intermédiaire de E = mc2 est valable. Les neutrinos sont des objets qui peuvent servir de révélateurs. En effet ceux-ci, dans le cadre de la physique quantique et des particules élémentaires actuellement la plus avancée, sont toujours insaisissables, on a beau accumuler les hypothèses à l’égard des propriétés physiques observables et accumuler des moyens de détection fabuleux depuis 80 années, ils nous répondent toujours : « Nous ne sommes pas ce que vous pensez !! »

Or on pourrait considérer que ces neutrinos qu’ils soient d’une saveur : électronique, muonique, tauique, sont en partie des électrons, des muons, des taus, qui ont perdu leur charge électrique, donc perdu la source de la lumière qui nous est si familière. Le versant ‘matière pure’ qui les caractérise est peut-être plus proche de ce que l’on appelle la matière noire que de la matière ordinaire. Ceci explique peut-être pourquoi nous ne connaissons toujours pas la masse de ces neutrinos. Comme l’a dit F. Reines : « Le neutrino est la quantité de réel la plus ténue jamais imaginée par un être humain. » Ma proposition consiste à considérer que les neutrinos sont l’antichambre du savoir que l’on pourrait développer à propos de la matière noire, à la condition de prendre comme hypothèse qu’ils ne sont pas caractérisables par les propriétés de la matière ordinaire.

 

 

Voir mon article du 21/12/2011 : ‘l’être humain est-il nu de toute contribution lorsqu’il décrypte et met en évidence une Loi de la Nature’

Je ne suis pas prêt à utiliser l’expression : ‘fonctionnement intime’ car cela laisserait supposer que cela soit possible d’accéder à la connaissance de ce fonctionnement. Je l’exclue totalement. Par contre il devient de plus en plus indubitable qu’une organisation sous-tend en partie ce qui constitue la singularité de l’être humain au sein de tous les êtres vivants.

Space vs time : One has to go – but which ?

Lisons la conclusion d’une des conférences de S. Haroche : « Atomes et lumière sont les acteurs principaux du monde tel que nous le percevons depuis l’origine du temps. En étudiant l’interaction des atomes avec la lumière, nous avons découvert qu’ondes et particules ne sont que les deux faces d’une même réalité et que la lumière qui nous renseigne sur la matière peut également servir à la manipuler de façon étonnante… »

Partager cet article
Repost0

Présentation

  • : Le blog de mc2est-cesuffisant
  • : Ce blog propose une réflexion sur les concepts fondamentaux de physique théorique. Le référentiel centrale est anthropocentrique. Il attribue une sacrée responsabilité au sujet pensant dans sa relation avec la nature et ses propriétés physiques. L'homme ne peut être nu de toute contribution lorsqu'il tente de décrypter les propriétés 'objectives' de la nature.
  • Contact

Recherche

Liens